Aus Paris-Abkom­men aussteigen ist richtige Entschei­dung für die USA und die Welt

Das Paris-Abkommen und die damit verbundenen Prozesse müssen vollständig aufgegeben werden. Stattdessen muss ein neuer Prozess gestartet werden, welcher frei ist vom Stigma der Korruption, welche das bestehende Pariser Abkommen und dessen Auswirkungen durchzieht.

Das Pariser Abkommen ist ein Programm auf der Grundlage einer vollkommen ungeeigneten Wissenschaft, wie das IPCC inzwischen auch eindeutig eingeräumt hat. Der Prozess des Abkommens ist ausschließlich getrieben von der Politik des Klima-Alarmismus‘.

Im AR3 des IPCC aus dem Jahr 2001 wurde festgestellt, dass es unmöglich ist, Klimamodelle zu erschaffen, welche das globale Klima akkurat abbilden, kam es doch zu dem Ergebnis „Bei der Klimaforschung und -modellierung sollten wir erkennen, dass wir es mit einem gekoppelten, nicht linearen und chaotischen System zu tun haben und dass daher die Vorhersage zukünftiger Klimazustände nicht möglich ist“.

Der jüngste Zustandsbericht AR5 stützt sich auf diese ungeeigneten Klimamodelle und versucht, die Unzulänglichkeit zu verstecken, indem man sich eines Taschenspielertricks bedient, nämlich einer „geschätzten Wahrscheinlichkeit“ [assessed likelihood] sowie Vermutungen und Spekulationen, um einen falschen Grad an Gewissheit bzgl. erwarteter Klimaereignisse vorzugaukeln, welche von wissenschaftlich etablierten und mathematisch abgeleiteten Wahrscheinlichkeiten nicht gestützt werden.

Die Provisionen des Paris-Abkommens, welche sich auf Klima-„Modelle“ stützen, sind eindeutig ungeeignet. Wissenschaftliche Vermutungen werden fälschlich zu Gewissheiten gemacht, obwohl auch sie eindeutig als falsch und gescheitert erkannt worden sind. Dokumentiert wird dies durch eine Anhörung vor dem Kongress im März 2017.

Curry: Computer-Prophezeiungen bzgl. Klima-Alarm sind betrügerisch

Neue Studie erklärt inhärenten Betrug von Computermodellen, welche den zukünftigen Klimawandel prophezeien.

London, 21. Februar: Behauptungen, denen zufolge der Planet durch eine vom Menschen verursachte globale Erwärmung bedroht ist, basieren auf einer Wissenschaft, welche ungeeignete Computer-Modellierungen zur Grundlage hat. Das ist die Schlussfolgerung einer neuen Informationsschrift, welche die GWPF heute veröffentlicht hat.

Die Autorin der Schrift, die bekannte amerikanische Klimatologin Prof. Judith Curry erklärt, dass sich der Klima-Alarm auf hoch komplexe Computer-Simulationen des Klimas der Erde stützt.

Aber obwohl Wissenschaftler Jahrzehnte lang Zeit und Mühe aufgewendet haben, müssen diese Simulationen immer noch „frisiert“ werden, um zum ralen Klima zu passen. Dies macht sie im Wesentlichen nutzlos für den Versuch, welche Ursachen Änderungen des Klimas haben, und unzuverlässig zur Ausgabe von Vorhersagen, was in Zukunft geschehen wird.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei ihrer Anhörung vor dem Wissenschaftskomitee des Weißen Hauses im März 2017 aus, wo sie die fundamentalen Fehler in den Klimamodellen sieht:

Einschätzung von Klimamodellen

Im kürzlich erschienenen Report [übersetzt] ,Klimamodelle für Laien‘ beschrieb ich, wie Klimamodelle nützlich sein können für Forschungen zum besseren Verständnis des Klimasystems.

Allerdings argumentierte ich, dass gegenwärtige globale Klimamodelle nicht geeignet sind für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten. Zu den Bedenken der Brauchbarkeit von Klimamodellen gehören:

● Vorhersagen der Auswirkungen eines zunehmenden CO2-Gehaltes auf das Klima können nicht für Jahrhunderte im Voraus sicher evaluiert werden.

● Der Fehlschlag der Klimamodelle hinsichtlich einer konsistenten Erklärung der Erwärmung zum Beginn des 20. Jahrhunderts und die nachfolgende Abkühlung zur Mitte des Jahrhunderts.

● Unfähigkeit der Klimamodelle, Größenordnung und Phase der großräumigen Ozean-Oszillationen im Zeitmaßstab von Jahrzehnten und Jahrhunderten zu simulieren.

● Unzureichende Erkundung der Unsicherheiten in den Klimamodellen.

● Die extrem große Anzahl willkürlicher Auswahl von Modellparametern und Parametrisierungen.

● Evaluierung der Klimamodelle gegenüber den gleichen Beobachtungen, die für die Feinabstimmung der Modelle herangezogen worden sind.

● Bedenken hinsichtlich eines fundamentalen Fehlens der Vorhersagbarkeit in einem komplexen, nicht linearen System.

Und weiter:

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, welche das IPCC bekannt gemacht hatte, enthalten keine Grundlagen-Elemente der Klima-Variabilität und sind daher nicht brauchbar als Projektionen, wie sich das 21. Jahrhundert entwickelt.

…sie sind nicht nicht geeignet für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten mit irgendeinem hohen Niveau der Sicherheit.

…sie sind nicht fit für das Ziel, politische Entscheidungen zu rechtfertigen, welche soziale, ökonomische und Energie-Systeme fundamental verändern.

Dr. Curry schließt mit drei Kernaussagen zu den Fähigkeiten der Klimamodelle:

Wenn das „wissenschaftliche Verfahren“ auf den Output von Klimamodellen wie im AR5 des IPCC dargestellt angewendet wird, vor allem hinsichtlich der großen atmosphärischen Temperaturtrends seit 1979 (eine Grundsatz-Variable mit einer starken und offensichtlichen Reaktion auf zunehmende Treibhausgase während dieses Zeitraumes) zeige ich, dass der Konsens der Modelle bei dem Test gegenüber den Beobachtungen in der realen Welt auf signifikante Weise durchfällt.

Der Klimawissenschaftler Dr. John Christy sagte ebenfalls bei der Anhörung vor dem Wissenschaftskomitee aus. Er stellte das wissenschaftliche Verfahren vor, die Glaubwürdigkeit der Temperaturprojektionen der Klimamodelle gegenüber tatsächlich gemessenen globalen Temperaturen zu evaluieren. Er kam zu dem Ergebnis:

Die Temperaturprojektionen der Klimamodelle zeigten im Vergleich zu den tatsächlich gemessenen globalen Temperaturen, dass die Modelltheorie nach Strich und Faden gescheitert ist, und zwar mit einem Vertrauensniveau über 99%.

Die Aussage von Dr. Curry vor dem Komitee hinsichtlich der extensiven Fehlschläge der Klimamodelle passte zu den Ausführungen von Dr. Christy hinsichtlich der außerordentlich schlechten Performance dieser Klimamodelle in Übereinstimmung mit dem eigenen Eingeständnis des IPCC, dass es unfähig sei, Klimamodelle zu konstruieren, welche das globale Klima vertrauenswürdig repräsentieren. Dies diktiert eindeutig, dass derartige Modelle als Entscheidungsgrundlage für globale politische Klima-Maßnahmen vollkommen ungeeignet und ungerechtfertigt sind.

Dr. Roger Pielke, Jr. sprach bei der Anhörung Behauptungen von Klima-Alarmisten an, denen zufolge anthropogene CO2-Emissionen mehr Extremwetter mit sich brächten. In seiner Aussage porträtierte Dr. Pielke folgende Ergebnisse:

Die wissenschaftlichen Beweise als Unterstützung für meine im Jahre 2013 diesem Komitee vorgestellten Schlussfolgerungen sind heute sogar noch stärker. Es gibt kaum eine wissenschaftliche Grundlage für Behauptungen, dass Extremwetter-Ereignisse – im Einzelnen Hurrikane, Überschwemmungen, Dürren, Tornados – nebst deren ökonomischen Schäden während der letzten Jahrzehnte zugenommen haben aufgrund von Treibhausgasen. Tatsächlich verzeichnete man in den USA und auf der ganzen Welt seit dem Jahr 2013 eine bemerkenswert gute Phase, gab es doch weit weniger Extremwetter im Vergleich zur Vergangenheit.

Das Fehlen von Beweisen zur Stützung von Behauptungen über eine Zunahme von Häufigkeit oder Stärke dieser Extremwetter-Ereignisse wird auch vom IPCC beschrieben sowie in noch größerem Umfang von der begutachteten wissenschaftlichen Literatur, auf die sich das IPCC stützt.

Die USA waren extrem erfolgreich hinsichtlich der Reduktion von Treibhausgasen und CO2-Emissionen. Erreichten diese im Jahre 2007 noch ihr höchstes Niveau, sind sie danach deutlich zurückgegangen dank der Marktvorteile durch Erdgas-Fracking.

EPA-Daten zufolge haben die US-Emissionen im Laufe des Jahres 2015 um über 10% abgenommen und liegen jetzt auf dem Niveau des Jahres 1994. Diese Reduktion ergibt insgesamt 763 Millionen Tonnen weniger Treibhausgas-Emissionen.

Der gerade veröffentlichte EIA – AEO-Bericht aktualisiert die CO2-Emissionen der USA über das Jahr 2016 und zeigt, dass die Emissionen im Vergleich zu 2015 noch weiter zurückgegangen sind. Er enthält auch die Vorhersage, dass es stabile CO2-Emissionen mindestens bis zum Jahr 2030 geben werde, ohne dass die Vorschriften von Präsident Obama bzgl. seines Krieges gegen die Kohle überhaupt in Kraft sind.

Der Bericht zeigt, dass die Reduktionen des Jahres 2016 sowie zukünftige Emissionen erreicht wurden als Konsequenz der zunehmenden Zuwendung zu billigem, auf dem Energiemarkt erhältlichen Erdgas. Dies lässt den Verbrauch von Kohle-Treibstoff abnehmen mit der weiteren Auswirkung geringerer CO2-Emissionen.

Folglich treiben und kontrollieren die Kräfte des Energiemarktes die Reduktion mittels Fracking von Erdgas, ohne dass die Regierung der Öffentlichkeit unnötige, kostspielige und bürokratisch sehr aufwändige Vorschriften aufbürdet.

Im Jahre 2030 werden die CO2-Emissionen der USA einer Vorhersage der EIA zufolge 5210 Millionen Tonnen betragen (ohne Obamas Clean Power Plan). Dies bedeutet eine Reduktion von 790 Tonnen und liegt um über 14% unter dem Spitzenniveau des Jahres 2007.

Die signifikanten Reduktionen von Treibhausgasen und CO2-Emissionen der USA wurden der Öffentlichkeit seitens der klima-alarmistischen Main Stream Medien und klimaaktivistischen Wissenschaftlern vorenthalten.

Während des gleichen Zeitraumes, also von 2007 bis 2030, als die USA ihre CO2-Emissionen um fast 800 Millionen Tonnen pro Jahr reduzieren, zeigen Daten der EIA IEO der Jahre 2011 und 2016, dass in den Entwicklungsländern der Welt die CO2-Emissionen um über 9900 Millionen Tonnen zunahmen, wobei China und Indien über 5700 Millionen Tonnen zu dieser Zunahme beitrugen.

Die massiven zunehmenden CO2-Emissionen der Entwicklungsländer einschließlich Chinas und Indiens sind laut Präsident Obama nach dem Paris-Abkommen 2015 akzeptabel.

Die NOAA hat jüngst ihre Daten von Tidenmesspunkten bzgl. küstennahem Anstieg des Meeresspiegels einschließlich aktueller Messungen durch das Jahr 2016 aktualisiert. Daraus ergeben sich nach wie vor keinerlei Anhaltspunkte für eine Beschleunigung des Meeresspiegel-Anstiegs an den Küsten.

Diese Messungen enthalten Daten von Tidenmesspunkten an 25 Stellen der Westküste, der Golf-Küste und der Ostküste entlang des Pazifischen, des Atlantischen Ozeans und es Golfes von Mexiko. Außerdem sind Daten von 7 Inselgruppen im Pazifik und 6 im Atlantik enthalten. Insgesamt sind es über 200 Messpunkte.

Die längste Reihe von Tidendaten des küstennahen Meeresspiegels stammt aus The Battery in New York und ist 160 Jahre lang. Die Daten zeigen eine stetige Rate des Anstiegs von etwa 11 Inches [ca. 28 cm] pro Jahrhundert.

Es ist sehr wahrscheinlich, dass es einen substantiellen anthropogenen Beitrag zum mittleren globalen Anstieg des Meeresspiegels während der siebziger Jahre gab. Dies basiert auf dem hohen Vertrauen in einen anthropogenen Einfluss auf die beiden größten Komponenten des Anstiegs, nämlich thermische Ausdehnung und Verlust von Gletschermasse.

In der ,Summary for Policymakers‘ des IPCC-Berichtes AR5 schreibt das IPCC:

„Die NOAA-Messungen an Tidenmesspunkten der Küste umfassen den 46-jährigen Zeitraum von 1970 bis einschließlich 2016. Sie stützen nicht, ja widersprechen sogar, der Schlussfolgerung im IPCC-Bericht AR1 hinsichtlich vermeintlicher Beiträge des Menschen zum Anstieg des Meeresspiegels seit Anfang der siebziger Jahre“.

Zusammenfassung:

Die Klimamodelle zur Stützung des Paris-Abkommens haben sich eindeutig als falsch und gescheitert herausgestellt, was selbst das PCC einräumt.

Behauptungen, wonach menschliche Treibhausgas-Emissionen Extremwetter verursachen (Hurrikane, Dürren, Überschwemmungen, Tornados) werden durch tatsächliche Klimadaten einschließlich der IPCC-eigenen Daten nicht gestützt.

Die USA haben bedeutende Reduktionen von Treibhausgas- und CO2-Emissionen erreicht mittels Hinwendung zur Erdgas-Fracking-Technologie auf dem Energiemarkt und Abkehr von kostspieligen, belastenden und unnötigen Vorschriften der Regierung.

Emissionen der Entwicklungsländer übersteigen bei weitem jene der USA und werden sogar aufgrund des Paris-Abkommens noch weiter steigen.

Die jüngsten verfügbaren Daten der NOAA von Tidenmesspunkten bis einschließlich 2016 zeigen keine Beschleunigung des küstennahen Meeresspiegelanstiegs, was den IPCC-Behauptungen bzgl. anthropogener Einflüsse auf steigende Raten seit den siebziger Jahren diametral widerspricht.

Schlussfolgerung:

Die Wissenschaft im Pariser Klimaabkommen wird von Politik bestimmt und nicht durch eine eindeutig etablierte und verifizierbare Klimawissenschaft.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei der Anhörung vor dem Kongress bzgl. des Jahrzehnte langen Frusts hinsichtlich die Politisierung der Klimawissenschaft sowohl seitens des IPCC als auch der Obama-Regierung aus:

Die Klima-Gemeinde hat seit über zwei Jahrzehnten daran gearbeitet, einen wissenschaftlichen Konsens bzgl. eines vom Menschen verursachten Klimawandels zu fabrizieren, hauptsächlich dadurch, dass sie eine Hypothese zu einer vorherrschenden, absolut richtigen Theorie erhoben hat.

Der nach Konsens trachtende Prozess und deren Verbindungen zur Politik der Reduktion von Emissionen seitens des UNFCCC hatten die unbeabsichtigte Konsequenz einer Hyper-Politisierung der Wissenschaft und der Einbringung eines Bias‘ sowohl in die Wissenschaft als auch in damit in Verbindung stehende Entscheidungsprozesse.

Das Ergebnis dieser grob vereinfachten Darstellung eines verzwickten Problems ist, dass uns die Arten von Informationen fehlen, welche zu einem größeren Verständnis der Klimavariabilität und der gesellschaftlichen Verwundbarkeit beitragen.

Die Politisierung der Klimawissenschaft hat die akademische Klimaforschung und diejenigen Institutionen kontaminiert, welche die Klimaforschung stützen. Deshalb sind individuelle Wissenschaftler und Institutionen zu Aktivisten und zu Befürwortern einer Politik zur Reduktion von Emissionen geworden.

Wissenschaftler mit einer Perspektive, dass dies nicht konsistent mit dem Konsens ist, werden im besten Falle marginalisiert (d. h. sie haben Schwierigkeiten, zu Ergebnissen zu kommen und Studien zu veröffentlichen, die nicht an ,Pförtner‘-Herausgebern der Journale vorbeikommen) und im schlimmsten Falle mit Schimpfwörtern wie ,Leugner‘ oder ,Häretiker‘ belegt.

Dann hat Dr. Curry glasklar den „Krieg gegen die Wissenschaft“ angesprochen, welcher von der klimawissenschaftlich alarmistischen Politik der Regierung während der letzten Jahre vollführt worden ist:

Der ,Krieg gegen die Wissenschaft‘, der mich am meisten besorgt, ist der Krieg von innerhalb der Wissenschaft – von Wissenschaftlern und den Organisationen, welche eine Wissenschaft stützen, die Machtpolitik betreibt mit ihrer Expertise, und welche ihre naiven Prämissen von Risiko und politischen Meinungen als Wissenschaft verkaufen.

Wird der IPCC-Konsens in Frage gestellt oder die Autorität der Klimawissenschaft hinsichtlich der Steuerung der Klimapolitik angezweifelt, nennen diese aktivistischen Wissenschaftler und Organisationen die Zweifler ,Leugner‘ und erklären den Zweifel zum ,Krieg gegen die Wissenschaft‘.

Diese aktivistischen Wissenschaftler scheinen sich weniger Gedanken zu machen hinsichtlich der Integrität des wissenschaftlichen Prozesses als vielmehr um ihre privilegierte Position und ihren Einfluss in der öffentlichen Debatte um Klima- und Energiepolitik.

Sie verweigern sich der wissenschaftlichen Diskussion – und verleumden Wissenschaftler, die nicht mit ihnen übereinstimmen.

Diese aktivistischen Wissenschaftler und Organisationen pervertieren den politischen Prozess und versuchen, die Klimawissenschaft von genauer Überprüfung abzuhalten. Das ist der wirkliche Krieg gegen die Wissenschaft.

Die freiwillig eingegangenen Verpflichtungen bzgl. des Paris-Abkommens 2015 werden Billionen Dollar kosten, um kaum etwas zu tatsächlichen Temperatur-Reduktionen und damit zusammenhängenden Auswirkungen beizutragen.

Es ist absurd seitens der globalen Nationen, Billionen Dollar auszugeben für von der Regierung verordnete Klimamaßnahmen, welche auf falschen und gescheiterten Klimamodell-Projektionen beruhen, welche wiederum die Erzeugnisse von Vermutungen und Spekulationen sind, gekoppelt mit mit einem korrupten politischen Prozess, welcher einen künstlichen „Konsens“ erschaffen hat, um die Wahrheit bzgl. der betrügerischen klimawissenschaftlichen Fähigkeiten zu verstecken.

Die Tatsache, dass all jene, die nach so massiven Ausgaben schreien, so hart daran gearbeitet haben, die außerordentlichen Schwächen der globalen Klimamodell-Simulationen zu verstecken und zu leugnen, zeigt, dass ein massives globales Zusammenspiel der Regierungen von der klimaalarmistischen Gemeinschaft durchdrungen wird, wenn es um die Öffentlichkeit geht.

Klimamodelle mögen nützlich sein für akademische und wissenschaftliche Studien, aber sie sind vollkommen ungeeignet für Zwecke durch Vorschriften getriebener Verpflichtungen, welche Ausgaben in Höhe von Billionen Dollar globalen Kapitals erfordern. Diese Gelder können mit erheblich größerem Nutzen zum Kampf gegen bekannte schwere globale Probleme eingesetzt werden, als da wären Armut, Gesundheitsvorsorge, Bildung usw.

Präsident Trump muss die richtige Entscheidung für die USA und die Welt reffen, indem er das politisch und wissenschaftlich korrupte Paris-Abkommen in die Tonne tritt. Er sollte eine zukünftige Klimapolitik auf etwas richten, was hoffentlich ein neuer Anfang sein wird, frei von monumentalen Stigmen einer „Politisierung der Klimawissenschaft“, welche so schwer das gegenwärtige Paris-Abkommen und damit in Verbindung stehende Prozesse durchdrungen hat.

Link: https://wattsupwiththat.com/2017/05/10/dumping-paris-agreement-right-decision-for-u-s-and-the-world/
Übersetzt von Chris Frey EIKE




Rechnerisch lohnt sich die solare Eigenver­sorgung nicht – so lange unser Versor­gungsnetz stabil ist. Doch das wird sich ja ändern

Der Autor will dies an einem Beispiel zeigen. Entweder er blamiert sich fürchterlich, weil „sein“ Excel nicht richtig rechnet, oder etwas ist weiterhin „faul im Staate Strommarkt“.

Energie wird innogy

Die neue (alte) auf einen RWE-Kern basierende Firma innogy wirbt mit einem super-Angebot für potente Selbstversorger, bestehend aus den Solarpaneln, einem Akkuspeicher, Steuerung (incl. einer Haussteuerung) und Montage / Inbetriebnahme:

Bild 2 Screenshot Leistungs-und Preisdarstellung Solarkomponenten


Bild 3 Screenshot Leistungs-und Preisdarstellung Akkuspeicher

Und investieren so in die Zukunft Ihrer Familie

Dieser Satz (der Kapitelüberschrift) steht in der innogy-Werbung [2], wie auch die folgende Darstellung über die Sonne, welche zwar zum Thema nichts beiträgt, aber wohl an den schon in die Welt(Unsinns)Historie eingegangenen Spruch des Obergrünen Franz Alt anlehnen soll, dass die Sonne keine Rechnungen stellt.

Bild 4 Screenshot aus der innogy-Werbung


Ansonsten verspricht die Werbung:
[2] Eine Photovoltaikanlage von innogy macht Sie vom reinen Stromverbraucher zum echten Erzeuger von sauberem Solarstrom. Und mit einem Batteriespeicher genießen Sie sogar nachts die Kraft der Sonne.
innogy, Dortmund/Essen, 20. März 2017: … Alle Solaranlagen können bei der Installation oder später mit einem maßgeschneiderten Batteriespeicher von Mercedes-Benz und der intelligenten Haussteuerung innogy SmartHome kombiniert werden. So lässt sich mehr Sonnenstrom vom eigenen Dach selbst im Haus nutzen … Hausbesitzer mit Solaranlage lassen den Sonnenstrom so einfach rein in den Tank.
Das zergeht richtig auf der Zunge und man bekommt neben dem Versprechen, innovativ, nachhaltig und klimarettend zu sein, auch technische Möglichkeiten, deren Zwang sich zwar aus einem Mangel ergeben, aber der Frau fürs Kaffeekränzchen gleich den Doppelbeleg „nachhaltig innovativ“ zu sein liefert, vor allem wenn sie ihr Elektroauto auch noch an der eigenen Wallbox aufgeladen hat und nicht auf der Suche nach einer kostenlosen, kommunalen war (im Heimatort des Autors ist das noch so, weil das Verrechnen technisch zu aufwendig sei und man die „Elektrofahrer“ auch belohnen muss):
innogy: … Wenn viel anfällt, schaltet das intelligente Energiemanagement automatisch Batteriespeicher, Waschmaschine und Trockner dazu – oder lädt das Elektroauto an der passenden innogy Ladebox
Wer der Werbung bis hierher gefolgt ist, steht vielleicht kurz davor, das Angebot anzunehmen – bis man die Zahlen unter die Lupe nimmt und eine kleine Excel-Tabelle „drüber laufen“ lässt.
Bei innogy wird die mit dieser Basiskonfiguration erwartbare Stromausbeute mit 2.000 kWh/Jahr angegeben, ein Portal gibt auch etwas niedrigere „Solar-Erntemengen“ an:
Photovoltaik.org: So ist zum Beispiel wichtig zu wissen, dass pro kWp in Deutschland durchschnittlich im Jahr 800 bis maximal 1.000 Kilowattstunden Strom erzeugt werden können.

Der Jahres-Ertragswert der innogy-Basisinstallation dürfte deshalb zusätzlich abhängig vom Standort zwischen 1.664 … 2.048 kWh / pa liegen. Für die folgende Abschätzung werden die oberen 2.000 kWh / pa angenommen, obwohl diese die Wenigsten erreichen werden.

Lass die Sonne rein – und des Verkäufers Herz erfreun

In der folgenden Tabelle ist eine Basisinstallation anhand der innogy-Angaben mit einfachsten Annahmen berechnet. Dabei hat sich der Autor erlaubt, dem Akkusatz nur 50 % Verschleißkosten über die (für Akkus) sehr lange Laufzeit von 20 Jahren zuzurechnen, obwohl dies bei einer fast täglichen Lade- / Entlade-Zyklen-Belastung bestimmt viel zu wenig ist. Die 2 % Verzinsung sind, sofern man noch laufende, sonstige Kosten mit einbezieht, auch auf keinen Fall zu viel angenommen. Man denke nur daran, dass die GRÜNEN Eigenverbrauch mit zusätzlichen Abgaben belegen wollen.

Bild 5 Tabellierte Rechenwerte des Autors zur innogy Basiskonfiguration für eine Laufzeit von 20 Jahren

Worin liegt der Sinn, wenn der selbst erzeugte Strom das Doppelte des Bezugspreises kostet?

Die Tabelle mit der Kostenabschätzung zeigt, dass selbst bei einem aktuellen Privatbezugspreis von 30 ct / kWh sich das Invest in 20 Jahren gerade einmal zur Hälfte amortisiert hat – das aber nur infolge der sehr gutwillig gerechneten Kostenschätzung. Umgedreht ausgedrückt: Der selbst erzeugte Solarstrom kostet mindestens 60 ct / kWh und lehnt sich damit gut an das in einer früheren Artikelreihe [3] vermittelte an.
Damit ist aber auch klar, wer alleine von dem Deal wirklich profitiert.

Doch das Erfolgsmodell lässt sich nicht aufhalten

Das was innoggy praktiziert und von vielen großen Firmen kopiert wird, haben auch lokale Versorger auf ihre Fahne geschrieben. „Wenn es das Einkommen als Vorstand mehrt, ist einem Vorstand der Kunde nichts mehr wert“, hat der Autor schon mehrmals angeprangert. Für ihn ist es eher ein Vorzeigebeispiel für die beim EEG übliche Desinformation der Verbraucher – welche auch von kommunalen EVUs inzwischen aus reinem Eigennutz ebenfalls massiv betrieben werden [4] [5] – und ein gutes Beispiel, zu welchen Konsequenzen das Speicherproblem wirklich führt und entgegen allen gegenteiligen Beteuerungen eklatant vorhanden ist.

Bild 6 Werbung der N-Ergie (großer süddeutscher Versorger mit kommunalen Wurzeln)


 

Stromausfälle werden erforderlich

Nachdem sich solche Systeme noch für längere Zeit nicht entfernt amortisieren können, müssen andere Lösungen her. Im Artikel: EIKE 13.05.2017: [1] Wie dank SPD-Super Martins genialer Idee die Energiewende gerettet wird,
hat es die SPD Energie-Verantwortliche deutlich gemacht, wie solche aussehen: Die konventionelle Erzeugung muss ganz drastisch verteuert werden – leider ein Argument, dem alle etablierten Parteien anhängen.
Doch gelingt dies über eine CO2-Zertifikateverteuerung nicht schnell genug. In dieser Not hilft ein mit Bestimmtheit kommendes EEG-Problem: Der Strom muss häufig ausfallen! Nur dann „erkennt“ der Bürger den „Wert“ eines eigenen Stromspeichers so drastisch und schnell, dass das erwünschte Vermarktungsszenario starten kann.
Es wird deshalb ein Treppenwitz der Energiegeschichte werden, dass das Land mit der weltweit (beneideten) stabilsten Energieversorgung Wert darauf legt, diese selbst zu zerstören – und alle dabei begeistert mitmachen. Doch nachdem es dank einer jahrelangen Medienkampagne gelungen ist, alle Probleme der konventionellen Energiegewinnung zur Last zu legen (konventioneller Strom verstopft die Leitungen, durch die der Ökostrom sonst problemlos fließen könnte) und den Bürgern sogar weis zu machen, dass Strom über das Internet verteilbar wäre (die über Smartphone geregelten „Nachbarschaftsmodelle“):
EIKE 26.08.2016: In Brooklyn beginnt gerade die Revolution der Energiewende, welche inzwischen auch in Deutschland gefordert werden [1], verdient „jeder“ daran, nur eben nicht der private Stromkunde.
Früher war das Netzt aufgrund des von Fachleuten geplanten Aufbaus in sich stabil, heute muss es intelligent werden, um nicht sofort zusammenzubrechen. Wie pflege-, kostenaufwendig und mindestens zeitweise unstabil – auch angreifbar [11] – diese gelobte „Intelligenz“ ist, zeigt Microsoft jedem Nutzer fast täglich.
Doch die Hersteller verdienen prächtig daran:
EIKE: Intelligente Stromzähler für Dummerchen jetzt Pflicht
EIKE 06.08.2016: Wenn statt billigem Strom der teure Servicespezialist kommt und man beim Kontingent-Überschreiten an seinen Nachbarn Strafgebühr bezahlt – nennt sich das Energie-autark
EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze
Und zum großen Glück wird dies aufgrund des EEG-Ausbaus automatisch erfolgen, wie es Australien kürzlich anschaulich vorgemacht hat [6]). Als Folge dieser Erwartung sind die gesetzlichen Regelungen auch in Deutschland bereits vorbereitet, was zeigt, dass die Politik irgendwann immer eine „Lösung“ anbietet:
EIKE 02.11.2016: [7] Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Um die Blackouts auch ganz sicher zu stellen, wird dazu die Mär verbreitet, dass ein Leitungsausbau nicht wie geplant erforderlich ist, da eine regional bezogene Erzeugung und Versorgung doch viel „zukunftsträchtiger“ wäre, wie immer unterstützt durch willige „Wissenschaftler“ [10].
Wer sich also bisher wunderte, warum es in den verantwortlichen Kreisen „niemanden interessiert“, wie unser Versorgungssystem immer konsequenter in die Katastrophe „geschleust“ wird (E.ON Vorstand Theyssen fand es sogar „sexy“), findet bestimmt darin eine (zumindest teilweise) Erklärung.

Das gewünschte (instabile) Versorgungsnetz der Zukunft

Wie es vorbereitet wird und aussehen soll, hat der Autor bereits In einem früheren Artikel aufs Korn genommen (Auszug):
N-ERGIE [4] Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
In einer Präsentation erklärte darin der Vorsitzende des Vorstands des lokalen Versorgers wie er sich die EEG-Zukunft unter seiner Führung vorstellt und dass das „Zerschlagen“ der bisher bewährten Energiestruktur und Firmen vorteilhaft wäre, weil im Gegenzug die lokalen Versorger „ .. an Einfluss gewinnen“.
In der Einleitung des Artikels hieß es dazu: „Die Energiewende ist nicht nur ein Riesenprojekt, sie ist auch ein Riesengeschäft – und davon hätte die Nürnberger N-Ergie gerne ein großes Stück.“

Das neue Geschäft lautet: Errichte ein lokales Energienetz. Sorge dafür, darüber „Alleinherrscher“ zu werden, indem die Außenverbindungen so schwach bleiben, dass keine Konkurrenz von extern darüber möglich ist. Verkaufe dies dann der Politik und den Medien als Innovation und vor allem als Klimarettung und niemand wird einen daran hindern, es durchzuführen, auch, da diese Idee den gegen Trassen opponierenden Bürgen und Politikern entgegen kommt.
Allerdings benötigt man für ein solches Vorhaben „technische Expertisen“, welche die Realisierung als innovative Lösung versprechen. Auf klimaretter.info lassen sich viele nachlesen, da die Energieberaterin unserer Regierung selbst eine glühende Verfechterin davon ist. Was global gelang, gelingt natürlich auch auf unterer, mehr lokaler Ebene. Zum Beispiel hat die Prognos AG, unterstützt von der Erlanger Friedrich Alexander Universität im Auftrag der N-ERGIE eine solche Studie erstellt:
Studie: [10] Dezentralität und zellulare Optimierung – Auswirkungen auf den Netzausbaubedarf
Dazu die N-Ergie Pressemitteilung (Auszüge): [8][9] Energiewende mit weniger HGÜ-Trassen möglich
„Die heutige Netzausbauplanung wird den vielen technischen Entwicklungen zur Integration der erneuerbaren Energien nicht gerecht“, versichert Josef Hasler, Vorstandsvorsitzender der N-ERGIE Aktiengesellschaft. „Der weitere Ausbau erneuerbarer Energien in Deutschland lässt sich auch mit der Hälfte der im Netzentwicklungsplan vorgesehenen HGÜ-Trassen realisieren.“
Die Forscher konzentrierten sich in der Studie auf die Parameter, die in der heutigen Netzentwicklungsplanung wenig beachtet werden. Dazu zählen
• die Ansiedlung der Erneuerbare Energien-Anlagen,
• die Flexibilität von Verbrauchern,
• Verteilung der KWK-Anlagen und
• ein optimales Einspeisemanagement für die erneuerbaren Energien.
Aus volkswirtschaftlicher Gesamtperspektive ist die regionale Ansiedlung von EE-Anlagen mit einem hohen Wohlfahrtsgewinn von 1,7 Mrd. Euro pro Jahr verbunden, wenn man sie kombiniert mit der Einführung eines wohlfahrtsoptimierten Einspeisemanagements, dem Redispatch, der kostenoptimalen räumlichen Ansiedlung von KWK und Power to X (Gas/Heat).
Die Studie zeigt zudem, dass keine Notwendigkeit besteht, den Ausbau erneuerbarer Energien zu dämpfen. Im Gegenteil: Bei Einsatz der vorgeschlagenen Maßnahmen lässt sich dieselbe erneuerbare Erzeugung mit wesentlich weniger Netzausbau realisieren.
Hasler plädiert deshalb für einen zellularen Ansatz, in dem Energie entsprechend dem Subsidiaritätsprinzip soweit möglich auf der lokalen und regionalen Ebene erzeugt, gespeichert und verbraucht wird.

Einer der wichtigsten Vorschläge in dieser Studie ist allerdings der, den überflüssigen und die Netze gefährdenden EEG-Strom besser konsequent „wegzuschmeissen“, anstelle die von der Politik gewollte Zwangsverwendung mit viel unnützem Kostenaufwand weiter zu betreiben. Darüber zu informieren, wurde in der Presseerklärung des Auftraggebers allerdings „vergessen“:
[10] Empfehlungen Optimale EE-Abregelung. Die Vorhaben zur markt- und systemgetriebenen Abregelung von EE-Erzeugung sollten konsequent weitergedacht werden. Anstelle einer Kappung der Erzeugungsspitzen sollte eine Abregelung bei negativen Strompreisen und im Rahmen des Redispatches treten, wo dies die günstigste Alternative darstellt. Durch die Koppelung des Abregelungsvorgangs an Preissignale ist gewährleistet, dass genau in den Momenten abgeregelt wird, in denen dies aufgrund der Angebots- und Nachfragekonstellation aus Gründen der Kosteneffizienz geboten erscheint.
Fazit
Mit dieser neuen Konstellation von finanziellen Abhängigkeiten und Forderungen wird eine Lösung des EEG-Problems wieder in eine weite Ferne verschoben, beziehungsweise unmöglich gemacht. Es wird (soziologisch) interessant werden, ob es gelingt, die Maßnahmen dazu wie in der Pressemitteilung dem immer noch (gut-)gläubigem Volk als „Wohlfahrtsgewinn“ zu verkaufen.
Quellen
[1] EIKE 13.05.2017: Wie dank SPD-Super Martins genialer Idee die Energiewende gerettet wird
[2] innogy, Werbung: für zu hause
[3] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[4] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[5] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
[6] EIKE: Die Realität schlägt zurück: „Grüne“ Träumer kämpfen um Süd-Australiens gescheitertes Experiment mit Windenergie
[7] EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
[8] N-Ergie Pressemitteilung, 07.10.2016: Studie zur Dezentralität: Energiewende mit weniger HGÜ-Trassen möglich
https://www.n-ergie.de/header/presse/mitteilungen/studie-zur-dezentralitaet-energiewende-mit-weniger-hg–trassen-moeglich.html
[9] photovoltaik 10.10.2016: Energiewende braucht weniger HGÜ-Trassen:
http://www.photovoltaik.eu/Archiv/Meldungsarchiv/Energiewende-braucht-weniger-HGUe-Trassen,QUlEPTczNDg5MSZNSUQ9MTEwOTQ5.html
[10] FAU und Prognos AG, Studie Langfassung: Dezentralität und zellulare Optimierung – Auswirkungen auf den Netzausbaubedarf
[11] EIKE 31.08.2016: Kann man bald per App Deutschland „den Saft“ abdrehen




Die Amis bleiben beim Klima­wandel weiter reser­viert, nur in Europa „rennt man damit offene Türen ein“ – oder: In den USA gibt es noch Klima­vernunft bei Behörden

Genau genommen ist der Artikel reines „Product Placement“ für das Buch und wäre damit nur ein Rüge wert. Die darin gezeigte, klimaalarmistische Information bewusst nicht hinterfragende Vorgehensweise der Redaktion (man hat auch den Eindruck, der Artikel erschien, weil er zum von unseren Medien konsequent betriebenen Bashing gegen D. Trump passte) weiter betrieben werden konnte, ist jedoch eine Rezension wert.

Buch ICEFALL

Der Zeitungsartikel beschreibt Weg und Intention des Buchautors und titulierten Forschers (von dem kein einziger Forschungsartikel mit Bezug zum Klimawandel zu recherchieren ist):
[1] John All riskierte sein Leben für die Forschung – Jetzt warnt er in den USA davor, den Klimawandel zu ignorieren
… All will seine Landsleute dazu bringen, der Tatsache des Klimawandels ins Auge zu sehen und sich entsprechend zu verhalten. In Europa würde er damit vielerorts offene Türen einrennen, doch in den USA ist die Lage anders.
Präsident Donald Trump hat die Erkenntnisse über die vom Menschen verursachte Klimaveränderung als Erfindung der Chinesen abgetan, um Amerika zu schaden. Die Umweltschutzbehörde EPA hat Informationen zum Klimawandel von ihrer Internetseite genommen …
John All schüttelt den Kopf. Er hat gesehen, wie der Schnee selbst auf den Bergspitzen schmilzt. Es wird immer gefährlicher: Bei früheren Klettertouren an einem Gletscher im südamerikanischen Cordillera-Blanca-Gebirge hatte er zwei Gletscherspalten zu überwinden, sagte All unserer Zeitung in Washington. „Bei meinem Besuch im vergangenen Jahr habe ich bei 300 aufgehört zu zählen“. … Trotz der vielen Anzeichen stecken viele Amerikaner den Kopf in den Sand.
In seinem Buch „ICEFALL“ erzählt All eine Geschichte aus dem Bundesstaat North Carolina. Dort hatte eine wissenschaftliche Untersuchung im Auftrag der Behörden ergeben, dass eine Gruppe von Ferienanlagen an der Atlantikküste bis zum Ende des Jahrhunderts dem steigenden Meeresspiegel zum Opfer fallen werde. Entsetzt und unter dem Protest der Immobilienbranche, die um ihre Geschäfte auf den Inseln fürchtete, verbot North Carolina die Benutzung der Studie für Planungszwecke. Eine neu angeforderte Untersuchung produzierte weit weniger alarmierende Vorhersagen – weil der Zeithorizont auf 30 Jahre begrenzt wurde … Er fordert konkrete Schritte zur Anpassung an die nicht mehr verhinderbaren Auswirkungen des Klimawandels. Sonst drohen der USA der Absturz – wie damals ihm selbst.

Der Fall North Carolina

Nicht zufällig gibt es zu Carolina viele Studie und Ausarbeitungen mit Bezug zum Klimawandel. Denn diese Region liegt noch im Hurrikan-Gürtel und ist zudem äußerst flach, also wie geschaffen, um vom „Klimawandel“ besonders bedroht zu werden. Auch der Autor hatte sich schon damit beschäftigt und auf EIKE publiziert:
EIKE 01.11.2016: [2] Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2 Anmerkung: Behandelt umfangreich die Pegelsituation der Region Carolina.
Die Recherchen (des Autors) kamen zu dem Ergebnis, dass North Carolina weder von einem (übernatürlich steigenden) Meerespegel, noch vermehrten Hurricans bedroht ist. Wie üblich, besteht die Bedrohung ausschließlich in Computersimulationen.
Nun lässt sich einwenden: Beim Autor war ja auch nichts anderes zu erwarten. Im Gegensatz zum Buch des Forschers gibt er aber überall nachvollziehbare Quellen an. Wer also Fehler findet, kann diese im Blog jederzeit melden.

Jedenfalls zeigen die Tidenstationen um Carolina nirgens einen alarmistischen Pegelanstieg, in den meisten Fällen liegt er sogar unter dem globalen Durchschnitt.

Bild 2 [2] Pegel-Änderungs-Unterschiede in North-Carolina

Und selbst dies ist ein Prozess, der seit der letzten Eiszeit kontinuierlich voranschreitet und mit einem Klimawandel nichts zu tun hat. Während in Carolina der Pegel (aufgrund von Landsenkung) kontinuierlich zunahm:
[2] … Und ausgerechnet North-Carolina wies in der Historie starke Pegelschwankungen auf. Bild 3 zeigt, wie kontinuierlich der Pegel dort über die letzten 4.000 Jahre gestiegen ist. Der aktuelle Verlauf (Bild 5) zeigt aber zum Glück einen vollkommen unspektakulären, normalen Anstieg, der keine Klimawandel-Beschleunigung erkennen lässt.

Bild 3 Meerespegel-Proxis der letzten 4.000 Jahre. DUCK liegt in Region 1 (rote Proxis)


Verhält er sich global umgekehrt und langfristig ausgerechnet gegen den CO2-Trend.

Bild 4 Langfristiger globaler Meerespegelverlauf und CO2-KOnzentration. Quelle: No Tricks Zone: AGW ‘Disaster’ Predictions Recycled


An einem kurzfristigen (aber als längste Messreihe vorliegendem) Pegelverlauf lässt es sich gut erkennen.

Bild 5 Pegelverlauf von Wilmington, North Carolina 1935 … 2015 (längste Pegelreihe dieser Küstengegend)


Ein dortiger, lokaler Politiker bemerkte deshalb dazu: [2]… sagt Ducks Gemeindedirektor Christopher Layton am Telefon: Es ist beim Klimawandel ganz typisch geworden, bei fehlenden (oder dem Gewünschten widersprechenden) Daten, Betroffene alternativ stattdessen Geschichten erzählen zu lassen,
wie es der Autor jüngst auch feststellen (und publizieren) konnte:
EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

In Alaska wird bereits umgesiedelt

Zu den im Buch (nicht im Zeitungsartikel) erwähnten, vom Klimawandel bedrohten Inuit, deren Dörfer (angeblich) wegen des Klimawandels höher gelegt werden müssen ein vergleichbares Bild. Wieder gibt es dazu bereits (nicht zufällig) eine Publizierung:
EIKE 26.08.2016: [3] Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen
Wesentlicher Hintergrund ist, dass bei der Anfang des letzten Jahrhunderts erzwungenen Zwangsansiedlung der Inuit diese in völliger Unkenntnis von Siedlungsbau vorwiegend auf ihren Sommer-Jagdplätzen direkt auf flachem Küsten-Schwemmland und vorgelagerten Barriere-Inseln bauten. Entsprechend anfällig sind diese für jede Art von Meeres- und Strömungsveränderungen sowie Stürmen.

Bild 6 Kivalina (Alaska) eine Eingeborenensiedlung mitten in einem Fluss-Mündungsgebiet. Quelle: WUWT: Breaking News! Seventh First Climate Refugees Discovered!



Bild 7 Lage von Kivalina (Alaska). Bildtext: Overview of the entire island on which Kivalina is located, in the winter, with ice on the ocean. Note the sediment being discharged out the channel by Kivalina, and the areas of reduced ice outside both channels through the barrier islands. Quelle: WUWT: Breaking News! Seventh First Climate Refugees Discovered!
Aber auch dies hat mit einem Klimawandel nichts zu tun. Die meisten Tidenpegel um Alaska fallen nämlich entgegen dem allgemeinen Trend.

Bild 8 [3] Tidenpegelverlauf Station Adak(5), Anchorage (7) auf den gleichen Endwert normiert. Vom Autor anhand der PSML-Daten erstelle Grafik


Bild 9 Tidenpegel um Alaska. Pfiele kennzeichnen die Änderungsrichtung und Größe. Quelle: NOAA Tides Current


Und noch etwas muss man dabei wissen. Zum Beispiel am 27. März 1964 war es zum Großen Alaska-Erdbeben gekommen (Magnitude 9,2!). In Seward stieg der Meeresspiegel ruckartig um einen ganzen Meter. Das entspricht beim mittleren Tidenpegelanstieg von ca 2 mm / pa ca. 500 Jahre „vorweggenommener Klimawandel“! und erklärt viele „Betroffenheitsgeschichten“ von Einwohnern, welche sich daran erinnern, dass es „vor dem Klimawandel nie so schlimm war“. Ein Problem durch die „wohlwollende“ Natur, welches Japan und die Südseeatolle ebenfalls wirklich permanent haben und (im Gegensatz zu denen des sich ständig wandelnden Klimas) wirklich eklatant ist.
Alles Informationen, welche weder das Buch, noch der Artikel mitteilen. Denn es würde bestimmt bei zu vielen doch langsam zu Zweifel an den Medien- und „Klimawissenschafts-„ Darstellungen führen.

Bild 10 Pegelverlauf mit Erdbeben von 1964 in Alaska


Ebenfalls schon öfters wurde publiziert, dass die Arktis zwar wärmer wird als der globale Durchschnitt, aber gerade erst die Temperaturen von vor 100 Jahren (aber bei weitem nicht deren Extreme) erreicht hat, wie es auch offizielle Daten stichhaltig ausweisen.

Bild 11 Temperaturverlauf Arktis


 

In Amerika wagt es eine Behörde nach Fakten und nicht nach Klimaalarmismus zu handeln – ein ungeheuerlicher Vorgang

Eines können Klimaaktivisten überhaupt nicht leiden: Wenn man sie nicht beachtet. In Europa ist dieses Problem fast nicht vorhanden, aber in den USA scheint auch bei den Behörden – in vollkommenem Gegensatz zu Deutschland [4] [5]- teilweise noch ein Rest an Vernunft zu existieren, die vielleicht durch Trump sogar noch oder wieder verstärkt wird. Entsprechend harsch sind die Reaktionen. Und das Buch zeigt eine davon:
Buch ICEFALL: … Alaska, not normally a progressive pathfinder, already took steps to move the native village of Newtok to higher ground as part of a federal program to counter the effects of climate change, a process that did not unfold easily but which may become more commonplace. Oc course, there was also the contrasting approach taken by the unimaginative politicans and developers in North Carolina. There, state lawmakers earned the ridicule of scientists als well as comedy-show hosts for trying to beat climate change by voting it away. A state-sponsored scientific study concluded that North Carolina`s lovely coastal barrier island would be all but inundated by rising sea level by the end of the century –wiping out billions of dollars in property and the related tourist economy.
Rather than begin to face this future, the legilature yielded to frantic real estate and business lobbyists, who were supported by climate-change deniers. Lawmakers voted to recommission the study – meaning that devlopment could continue on its merry way, unimpeded by science, common sense, or even the destruction of recent stormj events
.
Natürlich gab es auch den kontrastierenden Ansatz der einfallslosen Politiker und Immobilien-Entwickler in North Carolina. Dort haben die staatlichen Behörden den Spott der Wissenschaftler ebenso gut verdient wie die Comedy-Show-Veranstalter, bei dem Versuch, den Klimawandel zu schlagen, indem sie sie gegen ihn stimmten. Eine staatlich geförderte, wissenschaftliche Studie schloss mit dem Ergebnis, dass North Carolina `s schöne Küstenbarriere Inseln durch einen ansteigenden Meeresspiegel bis zum Ende des Jahrhunderts überschwemmt sind, vernichtend Milliarden von Dollar an Immobilien-Eigentum und die damit verbundenen touristischen Wirtschaft.
Anstatt sich dieser Zukunft zu stellen, krochen die Behörden vor den rasenden Immobilien- und Geschäfts-Lobbyisten, die von Klimaschutz-Deniers unterstützt wurden. Die Gesetzgeber stimmten dafür, die Studie zu revidieren – annehmend, dass man so fröhlich wie bisher weitermachen könnte, ungehindert durch die Wissenschaft, den gesunden Menschenverstand oder sogar der Zerstörung durch kürzlich erfolgte Sturm-Ereignisse.

Auch über diesen im Buch geschilderten Fall der dem Klimawandel (Alarmismus) gegenüber tauben – man könnte auch sagen: vernünftigen – Behörden gibt es ausreichend Information.

Carolina, Vernunft oder Unvernunft?

Denn auf dem Blog kaltesonne wurde genau dieser, im Buch gelistete Vorgang ausführlich beschrieben.
Kaltesonne 12. Juli 2012: Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage
Ein Umdenken hat eingesetzt. Ganz allmählich dämmert der Politik, dass mit der alarmistischen Endzeitstimmung – wie sie von einigen IPCC-nahen Klimawissenschaftlern verbreitetet wird – möglicherweise etwas faul ist. Wieviel Realität steckt in den Prognosen und wie viel ideologische Überzeugung? Ein schönes Beispiel hierfür spielt sich gerade in North Carolina an der US-amerikanischen Atlantikküste ab.
Ausgangspunkt ist ein kontroverser Bericht, den eine Expertengruppe der Küstenkommission von North Carolina im Jahr 2010 erstellt hatte. Hierin wird vorgeschlagen, einen Meeresspiegelanstieg von einem Meter bis 2100 für Planungszwecke anzunehmen. Dies ist deutlich mehr als die aktuelle Anstiegsgeschwindigkeit erwarten ließe. Laut Pegelmessungen steigt der Meeresspiegel in North Carolina derzeit nur um etwa 2 mm pro Jahr an, und wenn man den Satellitendaten glaubt um 3 mm/Jahr. Dies würde bis 2100 lediglich einen Anstieg von 20-30 cm ergeben. Nun nehmen die Autoren des Berichts jedoch für die Zukunft eine signifikante Steigerung der Anstiegsgeschwindigkeit an. Begründet wird dies mit der laut IPCC zu erwartenden starken globalen Erwärmung, was sich durch Wasserausdehnung und Eisschmelze in gesteigerte Meeresspiegelanstiegsraten übersetzen würde. Im Bericht wird hierzu eine Arbeit von Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK) zitiert. Auch wird Bezug genommen auf die Doktorarbeit des Amerikaners Andrew Kemp, der geologische Studien in den Salzmarschen von North Carolina durchführte und zu Beginn des 20. Jahrhunderts eine Beschleunigung des Meeresspiegelanstiegs nachweisen konnte. Die Beschleunigung war dabei durchaus zu erwarten, da dies den Übergang von der Kleinen Eiszeit zur Modernen Wärmeperiode darstellt. Eine weitere Beschleunigung während der letzten 30 Jahre konnte hingegen nicht festgestellt werden …
Die Kritik der Fachkollegen folgte umgehend via Spiegel Online:
[Das Hauptproblem der neuen Untersuchung besteht darin], dass sie letztlich nur auf den Funden von der Küste North Carolinas beruht – was für eine Aussage der globalen Entwicklung zu wenig sein könnte. “Diese Studie eignet sich deshalb überhaupt nicht für Vorhersagen”, meint Jens Schröter vom Alfred-Wegener-Institut für Polar- und Meeresforschung. […] Zwar haben Rahmstorf und seine Kollegen auch Daten aus anderen Weltgegenden in ihre Studie einbezogen – doch die weichen teils erheblich von den Werten aus Nordamerika ab. “Nur die Daten aus North Carolina passen einigermaßen zur rekonstruierten Meeresspiegelentwicklung”, sagt Schröter. Er kritisiert, dass die PIK-Forscher versucht haben, mit ihren Daten ein bereits bestehendes Modell zu bestätigen. “Hätte man versucht, allein auf Basis der Daten eine Kurve zu entwickeln, wäre das wohl schwierig geworden.” Auch Michal Kucera von der Universität Tübingen hält die Frage, wie repräsentativ die Daten aus Nordamerika sind, für die “Achillesferse” der Studie. Wenigstens aber sei das Gebiet “eines der besten” für eine solche Untersuchung. Anderswo sei die Lage noch schwieriger.

Möglicherweise war also die Meeresspiegelanstiegsrate von North Carolina im 20. Jahrhundert doch nicht so beispielslos wie von Rahmstorf und seinen Kollegen angenommen. Und auch die Idee einer stetigen Beschleunigung des Meeresspiegelanstiegs in den kommenden Jahrzehnten wird nicht von allen Kollegen uneingeschränkt geteilt. Spiegel Online dazu:
Mojib Latif vom Leibniz-Institut für Meereswissenschaften (IFM-Geomar) bezeichnet den Beobachtungszeitraum von rund 2000 Jahren zwar als “eine Stärke der Studie”. Doch seien die langfristigen natürlichen Schwankungen des Meeresspiegels noch kaum verstanden: “Was in Zeiträumen von 300 bis 400 Jahren passiert, ist höchst umstritten.” […] Was aber die Prognosen über die künftige Entwicklung betrifft, hegt er ähnliche Zweifel wie Schröter: Wie viel Eis in der Arktis und der Antarktis in den kommenden Jahrzehnten und Jahrhunderten wirklich verloren gehe, wisse heute niemand genau. “Das”, meint Latif, “muss man ehrlich sagen.”

Unter sorgfältiger Abwägung aller verfügbaren Informationen entschied der Senat von North Carolina im Juni 2012 mit 35 zu 12 Stimmen, dass bei Küstenschutzplanungen zukünftig mit der historisch gut dokumentierten Meeresspiegelanstiegsrate kalkuliert werden muss. Eine Beschleunigung wie sie von der Rahmstorf-Gruppe für die Zukunft postuliert wird, soll nicht eingerechnet werden. (Siehe Berichte auf junkscience, Climatewire, WUWT, John Droz Jr.). NACHTRAG: Das Gesetz wurde Anfang Juli 2012 auch vom Repräsentantenhaus von North Carolina abgesegnet. Nun muss nur noch der Governeur zustimmen.
Pat McElraft hatte sich für die beschlossene Regelung eingesetzt und erklärte, dass sie eine zukünftige starke Beschleunigung des Meeresspiegelanstiegs als unrealistisch ansieht und dies lediglich Vermutungen darstellen …
Prof. Robert Dean von der University of Florida in Gainesville sieht bei einigen Ozeanographen einen ideologische Interessenskonflikt, bei dem es auch um die Sicherung von Forschungsfördergeldern geht, die vor allem bei alarmistischen Resultaten üppig sprudeln.

kaltesonne 27. Juli 2015: Neue Studie der Durham University verweist Rahmstorfs Sintflutszenarien für North Carolina in das Reich der Fabeln
Vor einigen Jahren reiste der Potsdamer Klimaforscher Stefan Rahmstorf durch die Salzwiesen North Carolinas an der Ostküste der USA. Gemeinsam mit einigen Gleichgesinnten wollte er dort das Geheimnis des Meeresspiegels ein und für allemal klären. Und er fand Ungeheuerliches: Aus den Kalkschalen von Einzellern las die Rahmstorf-Gruppe heraus, dass der weltweite Meeresspiegel heute schneller als je zuvor in den letzten zweitausend Jahren ansteigt. Ein großer Tag für die Unterstützer der Klimakatastrophe. Kurz darauf herrschte aber Katerstimmung. Fachkollegen konnten Rahmstorfs Behauptung nicht nachvollziehen. North Carolina eignet sich nämlich gar nicht als Stellvertreter für die weltweite Meeresspiegelentwicklung. Der Meeresspiegel großer Teile der US-Ostküste ist global nicht repräsentativ. Die Anstiegsrate in anderen Teilen der Erde ist viel geringer.

Auch die politische Führung North Carolinas reagierte prompt und entschied, dass die von Rahmstorf vermutete enorme Steigerung des Meeresspiegels selbst für North Carolina nicht plausibel ist und daher in Planungen nicht zu berücksichtigen sei (siehe unseren Blogartikel „Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage“). Bereits in den Vorjahren hatte es in Fachkreisen Kritik an den überzogenen Prognosen des Potsdamers gegeben, so zum Beispiel anlässlich einer Analyse einer Arbeit von Vermeer und Rahmstorf aus dem Jahr 2009 auf Climate Sanity.

Die Rahmstorf-Truppe stellte auf stur. Sie blieben bei ihrer fragwürdigen Darstellung und hoffte offenbar, das eine oder andere Paper bei IPCC-freundlichen Journalen unterzubringen. Im Juli 2012 schickten Rahmstorf und Kollegen ein weiteres Manuskript zu den Salzwiesen in North Carolina auf die Reise durch die wissenschaftliche Begutachtung. Das Paper ging jedoch im Kugelhagel der Gutachterkritik schnell unter und schaffte es nicht durch das Reviewsystem (siehe unseren Beitrag „Fachzeitschrift ‘Climate of the Past’ lehnt Meeresspiegel-Manuskript von Rahmstorf-Gruppe ab: Gutachter finden fundamentale Fehler in der Methodik“).

Ergebnisse vor, die im Januar 2015 im Fachblatt Quaternary Research publiziert wurden. Das Resultat des Brain-Teams unterscheidet sich dabei grundlegend von Rahmstorfs Vorstellungen: Laut den neuen Daten stieg der Meeresspiegel in North Carolina seit Ende der Kleinen Eiszeit 1845 um unspektakuläre 1,7 mm pro Jahr an. Dieser Anstieg vollzog sich ab 1900 relativ konstant, ohne Anzeichen für eine weitere Beschleunigung nach der initialen Anlaufphase …

Diese Darstellung klingt doch etwas anders als die im Buch und Zeitungsartikel vermittelte. Kommentar dazu erspart sich der Autor, mögen viele im Blog erscheinen.
Quellen
[1] Lokalausgabe der Nordbayerischen Nachrichten vom 8. Mai 2017, Artikel: Sein Kampf begann in einer Gletscherspalte
[2] EIKE 01.11.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2: So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben
[3] EIKE 26.08.2016: Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen – sofern es andere bezahlen
[4] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr
[5] EIKE 14.05.2017: Land unter im Norden ab 2050 – oder: Pünktlich zur Tagung des UN-Klimasekretariats in Bonn steigt der (simulierte) Meeresspiegel verstärkt




10 neue Studien: Meeres­spiegel lag vor 4000 bis 6000 Jahren 1 bis 6 Meter höher

Wissenschaftler wie Dr. James Hansen sind zu dem Ergebnis gekommen, dass präindustrielle CO2-Niveaus klimatisch ideal seien. Obwohl weniger optimal, wurde eine atmosphärische CO2-Konzentration bis zu 350 ppm noch als klimatisch „sicher“ charakterisiert. Allerdings wurden Konzentrationen über 350 ppm als gefährlich für das System Erde angesehen. Man glaubt, dass derartig „hohe“ Konzentrationen zu einer rapiden Erwärmung führen könnten, zur Schmelze von Eisschilden und Gletschern und vor allem zu einem katastrophalen Anstieg des Meeresspiegels um 10 Fuß [ca. 3 m] innerhalb von 50 Jahren.

Es ist wichtig, sich vor Augen zu führen, dass diese Voraussagen einer drohenden Sintflut auf der Hypothese beruhen, dass CO2-Konzentrationen ein Treiber von Fluktuationen des Meeresspiegels sind.

Wissenschaftler haben festgestellt, dass der CO2-Gehalt während des Interglazials vor etwa 400.000 Jahren mit sehr sicheren 280 ppm seinen Spitzenwert erreicht hatte. Trotz einer so niedrigen und „idealen“ CO2-Konzentration haben Wissenschaftler auch festgestellt, dass der Meeresspiegel während dieses Interglazials um 20 Meter höher lag als derzeit.

Guo et al., 2017

Der obere Teil des 250 Meter langen Sediment-Bohrkerns an der Stelle U1391 aus einer Wassertiefe von 1085 m vor Portugal im nordöstlichen Atlantik wurde für die benthonische Analyse von Foraminiferen herangezogen, um die Intensität der Variationen des Wasserausflusses aus dem Mittelmeer (MOW) während der letzten 900.000 Jahre zu erforschen. Der stärkste Wasserausfluss MOW während MIS 11 (vor 400.000 Jahren) bestätigt den klimatischen Einfluss des wellenförmigen Verlaufs des MOW, lag doch die Oberfläche während des Höchststandes um 20 Meter über dem gegenwärtigen Meeresspiegel.

CO2 graph courtesy of NASA.gov


Meeresspiegel lag vor 6000 bis 9000 Jahren um 6 bis 8 Meter höher (~260 ppm CO2)

Obwohl die meisten Wissenschaftler herausgefunden hatten, dass der Höchststand des Meeresspiegels während des Holozäns (von vor ~11.700 Jahren bis heute) um 1 bis 4 Meter höher lag als gegenwärtig, gibt es einige Wissenschaftler, die zu dem Ergebnis gekommen sind, dass der Meeresspiegel zu Beginn des Holozäns bis zu 6 – 8 Meter über dem Niveau des heutigen Meeresspiegels gelegen hatte.

Prieto et al., 2016

Eine Analyse der RSL-Datenbasis (RSL = relative sea level) zeigte, dass der RSL vor 7000 Jahren auf dem gegenwärtigen Niveau lag, während er vor 6000 bis 5500 Jahren einen Höchststand um 4 Meter über dem heutigen Niveau erreichte. Dieser RSL-Verlauf wurde von Gyllencreutz et al. 2010 reproduziert mittels der gleichen Indexpunkte und des gleichen qualitativen Verfahrens, jedoch unter Verwendung der kalibrierten Zeitalter. Er fand einen Anstieg des Meeresspiegels, welcher dem Ende der letzten großen Vereisung folgte, wobei der RSL vor 6500 Jahren bis über 6,5 Meter über dem heutigen Niveau lag, gefolgt von einem stufenweisen Absinken auf das heutige Niveau.


Hodgson et al., 2016

Rapider Anstieg des Meeresspiegels zu Beginn des Holozäns in der Prydz Bay in der Ostantarktis … Die Daten zeigen eine rapide Zunahme der Rate des relativen Meeresspiegel-Anstiegs um 12 bis 48 mm pro Jahr (+1,2 bis 4,8 Meter pro Jahrhundert) von vor 10.473 (oder 9678) und 9411 Jahren in den Vestfold Hills sowie von 8,8 mm pro Jahr von vor 8882 bis 8563 Jahren in den Larsemann Hills … Die geologischen Daten implizieren einen RSL-Höchststand von 8 Metern (über dem heutigen Niveau), welcher von vor 9411 bis 7564 Jahren dauerte. Diesem folgte eine Periode, in welcher der deglacial [?] Anstieg des Meeresspiegels fast genau aufgehoben wurde durch lokalen Rebound.

Der derzeitige Anstieg des Meeresspiegels ist nicht auffindbar, wenn man ihn in seinem langfristigen Zusammenhang betrachtet.

Trotz einer Flutwelle anthropogener CO2-Emissionen und der Zunahme des atmosphärischen CO2-Gehaltes seit Beginn des 20.Jahrhunderts hat das IPCC seine Erkenntnis verkündet, dass der globale Meeresspiegel nur mit einer mittleren Rate von 1,7 mm pro Jahr während des gesamten Zeitraumes von 1901 bis 2010 gestiegen war. Dies entspricht einer Rate von weniger als 17 cm pro Jahrhundert und einem Anstieg insgesamt von lediglich 0,19 Meter über 110 Jahre.

Wenzel und Schröter (2014) zufolge betrug die Beschleunigungsrate des Meeresspiegel-Anstiegs seit dem Jahr 1900 lediglich 0,0042 mm pro Jahr, was von den Autoren als „nicht signifikant“ und deutlich innerhalb der Unsicherheits-Bandbreite von ±0,0092 mm pro Jahr liegend eingestuft wurde. Im Vergleich dazu beträgt die Beschleunigung des Meeresspiegel-Anstiegs im 20./21. Jahrhundert fast Null.

Wie erwähnt kamen die meisten Wissenschaftler zu dem Ergebnis, dass der Meeresspiegel von vor 4000 bis 6000 Jahren um 1 bis 4 Meter höher lag als heute (als die CO2-Konzentration etwa 260 bis 265 ppm betragen hatte). Daher dürfte es aufschlussreich sein, den gesamten Anstieg von 0,19 Metern seit dem Jahr 1901 im langfristigen Zusammenhang (= über das Holozän) zu visualisieren. Nimmt man einen Meeresspiegel-Höchststand von etwa 2,5 Metern über dem heutigen Niveau während des Mittleren Holozäns an, zeigt sich, wie moderat der derzeitige Anstieg daherkommt.


———————————————–

Zehn weitere Studien belegen, dass der Meeresspiegel vor 4000 bis 6000 Jahren viel höher lag als heute

Während der letzten paar Jahre (2014 bis 2016) wurden in der begutachteten wissenschaftlichen Literatur mindestens 35 Studien veröffentlicht, in welchen nachgewiesen wird, dass der Meeresspiegel erst vor ein paar tausend Jahren substantiell höher lag als heute … als das CO2-Niveau als „sicher“ eingestuft worden war.

Im Jahre 2017 gab es bereits 10 weitere wissenschaftliche Studien, welche dieser immer weiter anwachsenden Liste hinzugefügt werden können.

1. Das et al., 2017 (Indien)

Angesichts des Fehlens jedweder Beweise der Änderung des Festlands-Niveaus zeigt die Studie, dass der Meeresspiegel von vor 6000 bis 3000 Jahren um 2 Meter höher lag als heute.

2. Fontes et al., 2017 (Brasilien)

Während des Anfangs und zur Mitte des Holozäns gab es einen Anstieg des RSL mit einem Höchststand von 2,7 ±1,35 Meter über dem heutigen Niveau, was zu einer maritimen Invasion entlang der flussartigen Täler führte.


3. Yoon et al., 2017 (Korea)

Songaksan ist das jüngste eruptive Zentrum auf Jeju Island, Korea, welches entstanden war durch eine phreatomagmatische Eruption [= Wasserdampf-Explosionen beim Eintritt von Lava in das Meer. Quelle. Anm. d. Übers.] vor etwa 3700 Jahren. Die 1 Meter dicke basaltische Schicht in dem Tuff zeigt einen ungewöhnlich gut konservierten Übergang. In den Uferregionen zeigt ein 1 m dicker Tuffring (vulkanisches Eruptivgestein, das sich verfestigte) einen ungewöhnlich gut erhaltenen Übergang der Gezeiten von Niedrig- bis Hochwasser bis in den Gischtbereich aus Paläogener Zeit. Insgesamt konnten 13 Hochwasser Ereignisse abgeleitet werden. Weitere Belege für Erosion und neuen Ablagerungen in der Mitte des Tuff-Ringes bis zu 6 Metern über dem heutigen Meeresspiegel-Niveau werden interpretiert als die Folge von Brandung während eines Sturmes, der etwa drei Gezeitenzyklen lang andauerte. … Die neuen Ablagerungen alternierten drei oder vier mal mit den primären Tuff-Betten der Einheiten B und C. Sie ereigneten sich bis zu 6 Meter über dem heutigen mittleren Meeresspiegel oder 4 Meter über dem Niveau bei Flut (based on land-based Lidar terrain mapping of the outcrop surface).


4. Marwick et al., 2017 (full pdf) (Thailand)

Sinsakul (1992) hat 56 Radiokarbon-Datierungen von Muscheln und Schlamm an Stränden und Tidenmesspunkten zusammengefasst, um den Verlauf des Meeresspiegel-Niveaus an der Thailändischen Halbinsel abzuschätzen. Er beginnt mit einem Anstieg des Meeresspiegels bis vor etwa 6000 Jahren bis zu einem Höchstwert von 4 Metern über dem heutigen Niveau. Dann sank der Meeresspiegel bis vor 4700 Jahren, um anschließend wieder bis vor 4000 Jahren um 2,5 Meter zu steigen. Von vor 3700 bis 2700 Jahren gab es eine regressive Phase mit einer vor 2700 Jahren beginnenden Transgression bis zu einem Maximum von 2 Metern vor 2500 Jahren. Die Regression setzte sich von da an fort, bis vor etwa 1500 Jahren das heutige Niveau erreicht wurde. … Tjia 1996 sammelte über 130 Radiokarbon-Daten aus geologischen Muschelablagerungen an ausgemusterten Plattformen, Meeresspiegel-Einbuchtungen und Austernbänken. Dabei fand er einen Höchststand von 5 Metern über dem heutigen Niveau vor etwa 5000 Jahren an der Thailand-Malaysia-Halbinsel. … Sathiamurthy und Voris 2006 fassen die oben beschriebenen Beweise zusammen und zeigen, dass von vor 6000 und 4200 Jahren der Meeresspiegel von 0 auf 5 Meter über dem heutigen Niveau gestiegen war entlang des Sunda Shelf (+2,8 mm pro Jahr), was den Hochstand im mittleren Holozän markiert. Nach diesem Höchststand fiel der Meeresspiegel graduell und erreichte vor etwa 1000 Jahren das heutige Niveau.

5. May et al., 2017 (W. Australien)

Der Meeresspiegel lag während des mittleren Holozän vor Westaustralien mindestens 1 bis 2 Meter höher als heute. … Von vor etwa 7000 bis 6000 Jahren erreichte der nacheiszeitliche Meeresspiegel einen Höchststand von 1 bis 2 Metern über dem heutigen Niveau, wonach eine maritime Regression folgte (Lambeck and Nakada, 1990; Lewis et al., 2013).

6. Kane et al., 2017 (Äquatorialer Pazifik)

Der Höchststand ist im äquatorialen Pazifik dokumentiert, wobei die höchsten Niveaus im Bereich von 0,25 bis 3 Meter über dem heutigen Meeresspiegel aufgetreten waren, und zwar von vor 1000 bis 5000 Jahren (Fletcher and Jones, 1996; Grossman et al., 1998; Dickinson, 2003; Woodroffe et al., 2012). Woodroffe et al. (2012) argumentieren, dass Meeresspiegel-Oszillationen während des Holozäns von einem Meter oder mehr eher die Folge lokaler als globaler Prozesse waren.


7. Khan et al., 2017 (Karibik)

Nur Surinam und Guayana zeigten ein höheres RSL als derzeit (Wahrscheinlichkeit 82%) mit einer maximalen Höhe von ~1 Meter vor 5200 Jahren. … Wegen des Eintrags von Schmelzwasser lagen die Raten der RSL-Änderung zu Beginn des Holozäns am höchsten mit einem Maximum von 10,9 ±0,6 Meter pro Jahrhundert in Surinam und Guayana sowie einem Minimum von 7,4 ±0,7 Meter pro Jahrhundert in Südflorida von vor 12.000 bis 8000 Jahren.

8. Meltzner et al., 2017  (Southeast Asia)

Meeresspiegel-Fluktuationen im Zeitmaßstab von Jahrhunderten, angezeigt von Korallen vor Südostasien aus dem Mittleren Holozän … Die RSL-Historie von vor 6850 bis 6500 Jahren zeigt zwei Fluktuationen um 0,6 Meter mit RSL-Änderungsraten bis zu 13 ±4 mm pro JahrHierbei stieg der RSL auf einen initialen Höchststand von 1,9 Metern über dem heutigen Niveau vor 6720 Jahren, um danach rapide zu sinken auf einen Tiefststand bei 1,3 Metern. Auf diesem Niveau verharrte er dann etwa 100 Jahre lang, bevor er auf einen weiteren Spitzenwert bei 1,7 Meter stieg vor etwa 6550 Jahren. Vor etwa 6480 Jahren scheint der RSL wieder gesunken zu sein bis auf 1,3 Meter , bevor er einen dritten Höchststand bei 1,6 Meter erreichte. … Die Höchstrate des RSL-Anstiegs aus dem 20-jährigen gleitenden Mittel während des Zeitraumes der Studie (von vor etwa 6850 bi 6500 Jahren) betrug 9,6 ±4,2 mm pro Jahr (2σ); die Höchstrate des RSL-Rückgangs betrug 12,6 (2σ)4,2 mm pro Jahr.Um die Fluktuationen von 0,6 Metern während des Mittleren Holozäns in den Zusammenhang zu stellen, betrachtet man den mittleren jährlichen Meeresspiegel im Zeitmaßstab von Jahren als mit 0,2 bis 0,3 Metern erfolgend. Die zentrale Erhebung eines jeden Mikroatolls wuchs, als der RSL hoch lag; als dieser danach rapide sank, gingen die oberen Teile der Korallen ein. Dann stabilisierte sich der RSL in niedrigerer Höhe, so dass sich eine Reihe niedriger konzentrischer Öffnungen bildete, welche etwa 0,6 Meter höher lagen als ihre heutigen Gegenstücke; der RSL stieg dann um etwa 0,6 Meter in weniger als einem Jahrhundert, was es den Korallen erlaubte, bis zu 1,2 Meter höher hinauf zu wachsen als heute lebende Korallen.

9. Leonard, 2017 (Great Barrier Reef)

Die resultierende Rekonstruktion des Paläo-Meeresspiegels zeigte ein rapides Absinken der RSL um mindestens 0,4 Meter von vor 5500 bis 5300 Jahren, welcher einem Höchststand von 0,75 Metern über dem heutigen Niveau von vor 6500 bis 5500 Jahren folgte. Der RSL erreichte dann erneut höhere Niveaus vor einem 2000 Jahre dauernden Stillstand beginnend vor 4600 Jahren. Die RSL-Oszillationen vor 5500 und 4600 Jahren fallen zusammen mit einer substantiellen Reduktion der Riffbildung. Dies zeigt, dass ein oszillierender Meeresspiegel der primäre Treiber war bzgl. des Verhaltens des Großen Barriere-Riffs.

10. Dechnik et al., 2017 (Tropical Western Pacific)

Es ist allgemein anerkannt, dass der Relative Meeresspiegel ein Maximum von 1 bis 1,5 Metern über dem heutigen Niveau erreichte, und zwar vor etwa 7000 Jahren. (Lewis et al. 2013).

Link: http://notrickszone.com/2017/05/08/10-new-papers-sea-levels-1-6-meters-higher-4000-6000-years-ago/
Übersetzt von Chris Frey EIKE




Land unter im Norden ab 2050 – oder: Pünktlich zur Tagung des UN-Klimasekre­tariats in Bonn steigt der (simulierte) Meeres­spiegel verstärkt

Wenn Klimaalarm zu melden ist, sind unsere Medien sofort zur Stelle. Zwar verkündet die Lokalzeitung des Autors beispielhaft in großen Anzeigen so etwas wie „jedes Wort in der Zeitung ist wahr“, doch wenn dafür extra geworben werden muss, ahnt man, dass darin wohl ein Mangel besteht.
Man muss wissen: Derzeit findet die jährliche Frühjahrstagung der Vereinten Nationen [1], eigentlich einem Ableger, dem Klimasekretariat, in Bonn statt. Eine mit ca. 2.800 Delegierten und zehn Tagen Dauer nicht gerade kleine Veranstaltung die zeigt, was für eine umfangreiche, schwierige, langwierige und teure Arbeit es wird, wenn man das Klima weltweit verwalten muss und wie aufwendig bereits die noch recht moderat gehaltenen Vorarbeiten dazu ausfallen.
Dem Bürger*in muss das als notwendig und zukunftsträchtig vermittelt werden, und so war zu erwarten, dass wieder pünktlich zu diesem Termin die Welt untergehen würde. Nur wo, war noch etwas offen. Doch nun ist es heraus und wurde von den Medien dankend und wie gewohnt kritiklos und zustimmend publiziert:

Bundesamt warnt vor steigendem Meeresspiegel

Man konnte es bereits ahnen. In der gerade veröffentlichten Rezension:
EIKE 10.05.2017: [2] Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel, wurde gezeigt, dass an der Nord und Ostsee keinerlei Hinweis auf einen verstärkten Meeresspiegelanstieg besteht, ein von der EU geförderter NGO-Verein aber darauf besteht und das PIK in Simulationen einen solchen aktuell „erzwingt“:
[2] … Die (vom Autor) zusätzlich eingezeichnete rote Linie im Bild 3 weist seit 4.500 Jahren einen Anstieg von 0,9 mm / pa aus und belegt, dass der derzeit gemeldete Anstieg von “etwa 1 mm pro Jahr am stärksten“ ausschließlich belegt, dass sich daran nichts verändert hat. Trotzdem sind unsere Politiker darüber höchst besorgt. Am 28. April kam die dpa-Meldung in der Zeitung: „Mini-Inseln droht große Gefahr“.
Mit der Erderwärmung steigt der Meeresspiegel und bedroht deutsche Inseln und Halligen. Den Schutz ihrer Heimat beraten rund 25 Bürgermeister und Gemeindevertreter … sie weigern sich, die Inseln einfach aufzugeben …
Was ist passiert? Das PIK lancierte wieder einmal eine ihrer typischen Meldungen: „Die Meeresspiegelzahlen sind beunruhigend, da wir frühere Schätzungen eher nach oben als nach unten korrigieren mussten“, sagt der Potsdamer Klimaforscher Anders Levermann.
Es ist immer das gleiche Spiel: Wenn es die Natur nicht macht, wird der Klimawandel-Untergang eben simuliert – denn auf nichts anderes bezieht sich die Aussage des bekannten PIK-„Klimaapokalyptikers“ Levermann.
Es war somit nur ein Warten auf den Anlass, bis diese Information in breiterem Rahmen zum medial richtigen Zeitpunkt gestreut werden würde. Übernommen hat es aber wohl eine bisher für so etwas unbekannte Behörde, das BSH Hamburg – leider ohne die Quelle(n) ihrer Information zu nennen (Anmerkung: Es könnte deshalb noch ein Restrisiko bestehen, dass sich das UBA auf eine andere Quelle – oder zusätzliche – als das PIK bezieht. An den Fakten würde sich dadurch aber nichts ändern).
Die Seite der Berliner Klimaberaterin – dank vieler Redakteur*innen mit viel Vorbildung in Agitation – wie so oft genauer informiert, publizierte ein Highlight gleich in der Überschrift und wollte damit wohl an die unvergessene Qualität des Spiegel vom Jahr1986 – als der Kölner Dom „unter Wasser gesetzt wurde“ – anknüpfen.
klimaretter.info: [8] Land unter im Norden ab 2050, bezieht sich dabei aber ausdrücklich auf den Bericht des NDR.
In der NDR-Information heißt es:
NDR.de: [3] ... Bisher orientieren sich die norddeutschen Küstenländer an einem Maximalszenario von einem Anstieg des Meeresspiegels bis zu 98 Zentimetern bis zum Ende des Jahrhunderts. Doch laut BSH könnte das zu knapp bemessen sein. Vielmehr sei ein maximaler Anstieg „deutlich über einen Meter hinaus bis hin zu 1,70 Metern“ nicht mehr ausgeschlossen, heißt es in dem Schreiben, das der NDR einsehen konnte. Das BSH stützt seine Einschätzung auf mehrere aktuelle Klimastudien und warnt davor, dass ein weiter steigender Meeresspiegel an den Küsten von Nord- und Ostsee zu Problemen führen könnte …
Bei einem aktuellen Anstieg der Ostsee von ca. 10 cm in 100 Jahren und der Nordsee von ca. 20 cm im selben Zeitraum liegt diese Vorhersage mehr als weit über allem, was man realistisch erwarten kann. Dieser Überzeugung ist auch der im NDR-Video befragte Dr. Johannes Öhlerich, Direktor des Landesbetriebs Küstenschutz.

Bild 2 Screenshot vom NDR-Video: [3] Abschnitt mit der Befragung des Dr. J. Öhlerich

Im Video erklärt er der penetrant alarmistisch besorgten Interviewerin in einem betont höflichem und sachlichen Ton, dass er die Angaben (im Gegensatz zu ihr) für Unsinn hält und wie sich die seinem Amt bekannten (aus Messungen ermittelten) darstellen:
NDR-Vido [3]. Dr. Johannes Öhlerich, Landesbetrieb Küstenschutz: … wir können ganz beruhigt hinter unseren Deichen leben … wenn wir heute einen Deich konzipieren, dann rechnen wir mit einem zukünftigen Anstieg des Meerespegels von 50 cm in den nächsten einhundert Jahren. In den letzten 70 Jahren haben wir dafür 20 cm ermitteln können
Nun beharrt die Interviewerin aber darauf, dass der Pegel in den nächsten 100 Jahren auf 2 m steigen könnte:
Dr. Öhlerich: … na ja, also wir kennen ja aus den vergangenen Jahren auch schon immer Prognosen der Klimaforscher, die deutlich über 1 m gelegen haben. … wir müssen uns bei der Bemessung und dann auch dem Bau der Deiche natürlich auch darauf einrichten dass wir diese Bauwerke heute bezahlen müssen und heute den Menschen vermitteln müssen, dass sie notwendig sind. Und von daher halten wir die Art und Weise wie wir bemessen und wie wir einen nachhaltigen Deich bauen … heute sowohl ökonomisch als auch ökologisch für angemessen …
Dass dieser Dr. weiß, wovon er redet – und dies jeder wissen kann -, zeigt eine Rekonstruktion des Nordseepegels. Seit ca. 4.000 Jahren steigt der Nordseepegel – mit teils stärkeren Schwankungen – um die besagten 20 cm in 100 Jahren. Anstelle der gemeldeten 100 Jahre haben die Anwohner also immerhin noch 1000 Jahre Zeit bis zu den simulierten zwei Metern. Und wichtig – dies hing bisher nicht von der CO2-Emission ab, sondern war schon immer ein Klima-natürlicher Vorgang.

Bild 3 Meerespegelverlauf an der südlichen Nordsee in den letzten 7500 Jahren. Aus Behre (2004)


Hoffentlich bekommt dieser Direktor nun nicht Probleme mit der Politik und den um die Welt besorgten Verbänden, die solche rationalen und Vernunft ausweisenden Betrachtungen – und den Mut, sie öffentlich auszusprechen – überhaupt nicht ausstehen können.
Interessant ist, dass klimaretter.info – also die Seite der hochkompetenten Klimaberaterin für Berlin – „weiß“, dass das „Land unter“ im Jahr 2050 stattfindet.
Weder in der NDR-Information noch im Begleitvideo finden sich darüber auch nur ein Wort und auch kein sonstiger Hinweis. Aber sicher wird jemand aus deren umfangreichem Redaktionsteam auf EIKE mitlesen und im Blog die Hintergründe (er)klären. Ansonsten müsste man beim von ihr unterstützten Klima-Lügendetektor nachsehnen, da dort die vom Autor übersehenen Fehler bestimmt akribisch und fundiert „auseinander genommen“ werden.
Solange solche Belege nicht vorliegen, wagt der Autor die Vermutung, dass die Klimaberaterin aufgrund ihrer guten Beziehungen vom Minister Maas aus dessen „Fake-News-Erlaubnispool“ eine für ihren Blog abzweigen konnte.
Im klimaretter.info-Blog hat es jemand ebenfalls (noch) nicht verstanden und gewagt, eine kritische Bemerkung einzutragen. Die erklärende Reaktion kam prompt.

Bild 4 Screenshot vom Kommentarblog zum klimaretter.info-Artikels [8]

Leider sucht man auf der Seite des Bundesamtes für Seeschiffahrt und Hydrographie in Hamburg ebenfalls vergeblich nach weiter gehender Information. Nicht einmal unter der Rubrik Pressemitteilungen lässt sich etwas finden. Ganz offensichtlich psychologisch äußerst kompetent, will man die Bevölkerung nicht weiter verunsichern.
Nur im Archiv trifft man auf einen 315 Seiten langen Bericht „Nordseezustand 2008-2011“ [9]. Darin findet man zum Pegelanstieg der Nordsee das folgende Bild:

Bild 5 Langfristiger Pegelverlauf Nordsee [9]

und im Begleittext steht dazu:
(Anmerkung: Bild 5) deutlich zeigt, wechseln kurze Zeiten eines beschleunigten Anstiegs mit Zeiten eines gebremsten Anstiegs ab. Insgesamt ergeben sich keine Anzeichen eines länger anhaltenden beschleunigten Meeresspiegelanstiegs am Pegel Cuxhaven, auch nicht während der letzten Dekaden.
Aber der Bericht ist natürlich schon historische sechs Jahre alt. Und er basiert alleine auf schnöden Messdaten, die ein moderner Klimawissenschaftler längst nicht mehr akzeptiert, da sie viel zu ungenau sind. Das Klima-Vorauswissen verändert sich inzwischen doch fast täglich. Die Rechner werden immer leistungsfähiger und die Klimawandelsimulierer haben den Mut, immer neue Daten einzugeben, deren Ergebnisse dann immer genauer und viel aufschlussreicher als die in der Wirklichkeit werden, vor allem da sorgfältig auf Toleranz – und Wahrscheinlichkeitsangaben geachtet wird, die der (vom Menschen programmierte) Computer dazu ausspuckt.
Allerdings ist die Meldung selbst nicht neu. Das PIK „bietet“ solche „Wunschpegel“ seit Langem wie Sauerbier an. Auch völlig ohne Klimakenntnis kann man im Bild 6 ahnen, wie (un-)wahrscheinlich diese Simulationsvorhersagen sind. Aber das PIK hat einen der notwendigen Supercomputer und mit dessen Rechenleistung schafft er alles, was dem Klima aufgrund seiner Trägheit selbst wohl nie gelingen wird.

Bild 6 [4] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt

„Angepriesen“ werden diese in Pressemitteilungen, bei denen jeder einigermaßen mit dem Thema betraute sich an den Kopf fasst und fragt, ob man diese „Simulationstruppe“ zum Schutz der noch verbliebenen, stark reduzierten Klimawissenschaft nicht besser in eine Anstalt einliefern sollte, zumindest den Geldhahn rigoros zudrehen.
[5] PIK Pressemitteilung vom 10.03.2016. [6] Ein Schutz gegen die kommende Klimasintflut ist selbst im Computer nicht mehr möglich.
„ Der Anstieg des Meeresspiegels könnte in Zukunft so massiv werden, dass ihn sogar ein noch nie da gewesener technischer Eingriff ins Erdsystem nicht lösen könnte – nämlich Wassermassen auf den Antarktischen Kontinent zu pumpen. Diese Idee von Geo-Engineering haben jetzt Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung durchgerechnet.“
Doch in Deutschland wird man damit Regierungs- und zur besonderen Ehrung Papstberater.
Inzwischen werden auch andere Institute neidisch, dass man (in Deutschland) mit so viel Unsinn – am besten seiner Steigerung -immer mehr Fördermittel bekommt und seine Mannschaft fast beliebig aufblähen kann. Und so springen solche – ehemals noch leidlich seriös agierenden Institute – inzwischen auf den Zug auf und geben ebenfalls Meldungen ab:
PRESSEMITTEILUNG Alfred-Wegener-Institut: Eine unumkehrbare Ozeanerwärmung bedroht das Filchner-Ronne-Schelfeis
AWI-Klimaforscher entschlüsseln Antriebsprozesse eines irreversiblen Wärmeeinstroms unter das Schelfeis, der schon in wenigen Jahrzehnten
einsetzen könnte.
Bremerhaven, 11. Mai 2017. Der Anstieg der Lufttemperatur über dem antarktischen Weddellmeer
könnte bereits in der zweiten Hälfte dieses Jahrhunderts einen sich selbst verstärkenden Wärme- und Schmelzwasserkreislauf unter dem Filchner-Ronne-Schelfeis in Gang setzen und langfristig dazu führen, dass das zweitgrößte Schelfeis der Antarktis dramatisch schrumpft. … Diese Veränderungen im Kleinen markieren möglicherweise den Anfang eines grundlegenden und unumkehrbaren Wandels im südlichen Weddellmeer. Dessen spürbaren Auftakt sagen die Wissenschaftler für den Zeitraum um das Jahr 2070 vorher. „Unsere Modellsimulationen zeigen, dass es kein Zurück mehr geben wird, sobald die warmen Wassermassen unter das Schelfeis gelangen, denn ihre Wärme wird das Schmelzen an der Eisunterseite stark beschleunigen. Das dabei entstehende Schmelzwasser wiederum verstärkt eine Umwälzbewegung, die weiteres warmes Wasser aus dem Weddellwirbel unter die Eisplatte saugt. Die Hoffnung, dem Ozean würde irgendwann die Wärme ausgehen, ist unseren Berechnungen zufolge also vergebens“, erläutert Hartmut Hellmer. …
Die Vorhersagen der Bremerhavener Wissenschaftler basieren auf Berechnungen des AWI-Modells BRIOS (Bremerhaven Regional Ice-Ocean Simulations). Dieses gekoppelte Eis-Ozean-Modell fütterten die Forscher mit Atmosphärendaten des Klima-Modellaufes SRES-A1B vom britischen Met Office Hadley Centre in Exeter. Dieser Datensatz enthält zum Beispiel Angaben zur zukünftigen Entwicklung des Windes und der Temperatur in der Antarktis. Er basiert zudem auf der Annahme, dass die Kohlendioxidkonzentration in der Atmosphäre im Jahr 2100 die Grenze von 700 parts per million erreichen wird…
Zum Glück ist alles im Konjunktiv getextet und das Wichtigste: Derzeit auf der wahren Erde gar nicht messbar:
AWI: … Bis wir anhand dieser aktuellen Daten jedoch Veränderungen sicher nachweisen können, werden noch ein paar Jahre vergehen“, so Hartmut Hellmer …
Aber schön schauerlich klingt es schon.
Irgendwie beschleicht einen der Verdacht, dass das Hamburger Institut ähnliche Ambitionen hat.
Einmal simuliert es ebenfalls, wenn auch im verhältnismäßig recht bescheidenen Rahmen:
BSH-Homepage: Das operationelle Modellsystem des BSH: Das BSH betreibt ein umfangreiches numerisches Modellsystem zur Berechnung von Wasserstand, Temperatur, Salzgehalt und Meereis in Nord- und Ostsee, das mit interaktiv gekoppelten Gitternetzen rechnet. Mit diesem Modellsystem werden täglich vollautomatisch Vorhersagen für die nächsten Tage erstellt und archiviert. Auf der Basis der archivierten Modellergebnisse werden dann bei Bedarf Ausbreitungsrechnungen für verschiedene Anwendungsbereiche durchgeführt.
MUSE: Modellgestützte Untersuchungen zu Sturmfluten mit sehr geringen Eintrittswahrscheinlichkeiten an der Deutschen Nordseeküste …
Und dann richtet es sich eben auch modern aus, wie man es vergleichbar vom Deutschen Wetterdienst bereits kennt:
Das BSH ist heute ein zentraler maritimer Dienstleister, bei dem Kunden- und Produktorientierung im Vordergrund stehen. Kunden sind Schifffahrt und andere Branchen, der maritimen Industrie sowie alle, die Daten und Informationen über die Meere benötigen – Wirtschaft und Wissenschaft, Bundes- und Landesbehörden, Ressorts, Politik.
Zudem wurde die Präsidentin zur „maritimen Botschafterin“ ernannt.
BSH-Homepage: 20. Dezember 2016 Internationale Seeschifffahrts-Organisation beruft BSH-Präsidentin zur maritimen Botschafterin‘
Sicher ist es da sehr hilfreich, gleich zu zeigen, dass man weiß, was die Kunden hören wollen und man termingerecht liefern kann.
Was hätten die Propheten im Alten Testament wohl für Computer nicht alles gegeben. Und bestimmt wäre es dann wegen der vielen, leicht und schnell simulierbaren Prophezeiungen um ein Mehrfaches dicker geworden. Die ganz wichtige Frage, ob diese durch die dank Computer ausgegebenen, statistischen Wahrscheinlichkeits- und Fehlerangaben, genauer geworden wären, kann man leider nicht beantworten, weil sie eben keine hatten.
Nachdem der Anlass der ganzen Aufregung die Antarktis ist, dazu etwas unverbindliche Information.
Wie es in der Antarktis wirklich ist – sofern man den Computermonitor einmal verlässt – zeigen viele Artikel von kaltesonne [7]: Keine Erwärmung in der Antarktis. Südlicher Ozean kühlt sich ab (9.5.2015)
Westantarktis erwärmt sich schneller als gedacht – allerdings kein bisschen in den letzten 25 Jahren
Antarktisches Schelfwasser hat sich in den letzten 50 Jahren abgekühlt (18.8.2013)
Antarktisches Schelfeis doch stabiler als gedacht: Potsdamer Alarmgeschichte vor dem aus (29.7.2013)
Klimamodellierer haben ein riesiges Problem: Modelle können Zunahme des antarktischen Meereises nicht reproduzieren (17.6.2015)
Psychische Störungen als Folge des Klimawandels, Stefan Rahmstorf auf einem Maurerkongress und eine wegen Kälteschaden abgebrochene antarktische Klimaexpedition (12.4.2013)
Quellen
[1] FAZ, 08.05.2017: Treffen in Bonn Klimakonferenz unter Störfeuer aus Washington
[2] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel
[3] NDR.de, 10.05.2017: Bundesamt warnt vor steigendem Meeresspiegel
[4] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren
[5] EIKE 01.04.2016: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen
[6] PIK Pressemeldung vom 10.03.2016: Meeresspiegelanstieg: Zu groß zum Wegpumpen
https://www.pik-potsdam.de/aktuelles/pressemitteilungen/meeresspiegelanstieg-zu-gross-zum-wegpumpen
[7] kaltesonne-Artikel zur Antarktis:
Keine Erwärmung in der Antarktis. Südlicher Ozean kühlt sich ab (9.5.2015)
Westantarktis erwärmt sich schneller als gedacht – allerdings kein bisschen in den letzten 25 Jahren
Antarktisches Schelfwasser hat sich in den letzten 50 Jahren abgekühlt (18.8.2013)
Antarktisches Schelfeis doch stabiler als gedacht: Potsdamer Alarmgeschichte vor dem aus (29.7.2013)
Klimamodellierer haben ein riesiges Problem: Modelle können Zunahme des antarktischen Meereises nicht reproduzieren (17.6.2015)
Psychische Störungen als Folge des Klimawandels, Stefan Rahmstorf auf einem Maurerkongress und eine wegen Kälteschaden abgebrochene antarktische Klimaexpedition (12.4.2013)
[8] klimaretter.info, 10.05.2017: Land unter im Norden ab 2050
[9] Amt für Seeschiffahrt und Hydrographie in Hamburg, Bericht „Nordseezustand 2008-2011“