Und plötzlich wird die Zukunft glücklicher

Bisher verließ man sich auf falsche Annahmen

War es bisher ein Sakrileg, dass Extremereignisse mit dem Klimawandel zunehmen müssen [3] und ein Beleg dafür das Wissen: Früher wären die Klimaveränderungen noch nie so schnell gewesen [4], haben Wissenschaftler des AWI nun herausgefunden, dass diese bisher unumstößlichen „Wahrheiten“ schlichtweg auf falschen Annahmen beruhen:
AWI 05.02.2018 Pressemeitteilung: [2] Klimaschwankungen in Vergangenheit und Zukunft
Bislang ging man davon aus, dass die Temperaturen während der letzten Eiszeit extrem schwankten, und unsere gegenwärtige Warmzeit in der Regel nur sehr kleine Temperaturausschläge zeigte …
Das Team… hat durch einen Vergleich der grönländischen Daten mit denen aus Sedimenten verschiedener Meeresgebieten der Welt sowie aus Eisbohrkernen der Antarktis zeigen können, dass das Phänomen starker Temperaturschwankungen während einer Eiszeit keineswegs global gleichförmig auftrat, sondern regional unterschiedlich ausgeprägt war. In den Tropen etwa waren zum Höhepunkt der letzten Eiszeit die Temperaturschwankungen dreimal stärker ausgeprägt als heute, während die Eiskerne auf 70-fach höhere Schwankungen in Grönland hinweisen.
„Die Eisbohrkerne aus Grönland sind ohne Zweifel ein wichtiger Baustein, um das Klima vergangener Zeiten zu verstehen.
Gleichzeitig belegt unsere Studie, dass die für Grönland ermittelten Schlussfolgerungen nicht immer repräsentativ für die ganze Welt sind“,

Jungforscher*innen schauen einmal über „den Tellerrand“ …

Wenn es stimmt, was die Jungforscher*innen [7] beim AWI herausgefunden haben, muss man sich schon fragen, was die vielen „Experten“ in Deutschland und rund um die Welt eigentlich an wirklichem „Erkenntnisgewinn“ generieren, beziehungsweise, ob diese nicht vorwiegend reihum voneinander abschreiben (was wohl so sein dürfte). Um darauf zu kommen, Klimarekonstruktionen global zu betrachten, muss man wirklich nicht überragend intelligent sein. Zudem wird es von vielen klimawandel-kritischen Forschern längst durchgeführt, siehe die weltumspannende Recherche zur mittelalterlichen Warmzeit von „kaltesonne“ [5].

AWI: [2] …Die Leistung von Erstautorin Kira Rehfeld und ihren Kollegen besteht darin, dass sie erstmals Daten aus verschiedenen Klimaarchiven und von insgesamt 99 unterschiedlichen Orten zusammengebracht und verglichen haben.
Dass es zur Eiszeit stärkere Schwankungen gegeben hat, liegt daran, dass der Temperaturunterschied zwischen den vereisten Polargebieten und den Tropen damals stärker ausgeprägt war, was zu einem dynamischeren Austausch von warmen und kalten Luftmassen führte.

… und schon muss man (wieder) „gesichertes Wissen“ als unsicher verwerfen

AWI: [2] … „Wenn wir dieser Idee weiter folgen, kommen wir zu dem Schluss, dass die Schwankungen langfristig mit der Erderwärmung weiter abnehmen“, sagt Rehfeld – einfach deshalb, weil der Temperaturunterschied zwischen dem sich erwärmenden Norden und den Tropen geringer wird …

Sind die Klimamodelle auch bei diesem Parameter falsch programmiert?

Liest man bis zum Schluss weiter, fragt man sich nicht, sondern erkennt (wieder), warum die Klimamodelle so massiv versagen. Das Klima ist einfach noch viel zu wenig verstanden – und es fehlen nach wie vor verlässliche Daten zur Kalibrierung -, um mit Simulationen glaubhafte Zukunftsprojektionen durchführen zu können:
AWI: [2] … Klimamodellierer hatten den Mechanismus geringerer Variabilität unter wärmeren Klimabedingungen bereits im Jahr 2014 vorgeschlagen. Rehfeld, Laepple und Kollegen ist es mit ihrer Analyse nun erstmals gelungen, diesen Zusammenhang mit weltweiten Klimadaten aus der Vergangenheit zu untermauern.

Forscht man weiter, könnte man in den kommenden Jahren (vielleicht) Genaueres zum Klima sagen

Lautet der Extrakt. Dummer Weise wird seit über 20 Jahren für die nicht gesicherten – angeblich trotzdem über alle Zweifel erhabenen [8] – Theorien das Geld bereits zum Fenster hinaus geworfen, ohne Hoffnung, dass sich daran schnell etwas ändern könnte.
AWI: [2] Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.

Aber es keimt damit eine Hoffnung: Während sich beim AWI ebenfalls die Klimahysterie-Unterstützer tummeln [6] [8], scheint es dort einen Nachwuchs zu geben [7], welcher eigene Gedanken entwickelt und auch verfolgt.
Es bleibt abzuwarten, welche Forscherfraktion beim Kampf um Fördermittel überlebt. Unter Frau Hendricks mit ihrer fast manischen und durch keine Fakten verrückbaren Klimahysterie [8] war das eindeutig (und falls die GroKo kommt, wird es wohl auch so bleiben).

Stimmen die Ergebnisse des 2k-Projektes damit nicht?

Vor einigen Jahren wurde ein großes, weltweites Projekt zur Erstellung eines „richtigen“ Temperatur-Proxikataloges durchgeführt, bei dem der Autor schon mit wenig Aufwand gravierende Mängel entdecken konnte.
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Was Herrn Rahmstorf vom PIK nicht davon abhält, diese Projekt zu loben, vor allem die (hirnrissige) Auswertung davon, welche angeblich den Hockeystick bestätigen soll (was immer der Fall ist, wenn man Statistik falsch anwendet):
Rahmstorf: [10]Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.
Die Auswertung des AWI würde die Zweifel des Autors an der Datenqualität nun auch aus anderen Gründen bestätigen.

Anmerkung: Der Autor dankt „kaltesonne“ für den Hinweis zur AWI-Pressemeldung

Quellen

[1] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller

[2] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft

[3] FOCUS 22.09.2017: Extremwetter werden zunehmen – schuld daran sind wir selbst
Tagesschau 5. August 2017: 50 Mal mehr Extremwetter-Tote bis 2100?
Umweltbundesamt: Wird das Klima extremer? Sind die sich häufenden Überschwemmungen ein Indiz dafür?

[4] Buch: Mut zur Nachhaltigkeit: … Die im Vergleich zur Klimageschichte extrem schnelle Erwärmung, die derzeit beobachtet wird .

[5] kaltesonne: Das Projekt Kartographie der Mittelalterlichen Wärmeperiode: Online-Atlas einer noch immer unverstandenen Hitzephase

[6] EIKE: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu

[7] AWI: ECUS Bestimmung der Klimavariabilität durch die Quantifizierung von Proxyunsicherheit und die Synthese von Informationen zwischen Klimaarchiven.

[8] AWI 11. Mai 2017: PRESSEMITTEILUNG Alfred-Wegener-Institut: Eine unumkehrbare Ozeanerwärmung bedroht das Filchner-Ronne-Schelfeis
AWI-Klimaforscher entschlüsseln Antriebsprozesse eines irreversiblen Wärmeeinstroms unter das Schelfeis, der schon in wenigen Jahrzehnten einsetzen könnte.

[8] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[9] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[10] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte




Überzogene Behaup­tungen bzgl. Temperatur-Rekorden

„Fast niemals wird in diesen alarmistischen Pressemeldungen erwähnt, dass die angebliche Änderung lediglich um ein paar hundertstel Grad von den Messungen zuvor abweicht. Niemals wird erwähnt, dass die Fehlerbandbreite bei diesen Messungen viel größer ist als die angebliche Zunahme. Niemals auch wird erwähnt, dass ein wenig mehr Wärme viel besser wäre als eine kältere Welt mit weniger urbarem Land und kürzeren Wachstumsphasen. Und mit Sicherheit werden niemals die gewaltigen Defizite unseres Wissens über das System erwähnt, welches die Temperaturen der Erde bestimmt … sondern immer werden die Menschen und fossile Treibstoffe für irgendwelche Änderungen verantwortlich gemacht.

Der folgende Beitrag Von Dr. Tim Ball und Tom Harris spricht all diese hoch relevanten, aber oft absichtlich ignorierten Realitäten an“.

—————————-

Nach dem Abklingen allen Geschreis hinsichtlich der Nachricht, dass das Jahr 2017 hinsichtlich der Temperatur eines der wärmsten jemals auf der Erde gewesen ist, ist es an der Zeit, darüber noch einmal in Ruhe und angemessen nachzudenken.

Bedeutet die entsprechende Verlautbarung der NOAA, dass nämlich 2017 das drittwärmste Jahr seit 1880 war, irgendetwas?

Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit.

Obwohl die Los Angeles Times das Jahr 2017 als ein „Top-3-Hitzejahr für den Planeten Erde“ bezeichnete, sind weder die NASA- noch die NOAA-Rekorde in irgendeiner Weise signifikant. Es ist trivial, dass die wärmsten Jahre auf natürliche Weise während der jüngsten Jahre mit einem Erwärmungstrend auftreten. Und Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit zum Ende des 17. Jahrhunderts! Damals war die Themse mit meterdickem Eis überzogen, wie das Gemälde „The Great Frost“ von Jan Grifier 1683 illustriert.

Wie auch immer, jüngste Änderungen waren sogar noch zu gering, um selbst von den meisten Thermometern noch erfasst zu werden. Noch wichtiger ist, dass die Änderungen fast durchweg geringer sind als die Schätzungen der Regierung bzgl. Unsicherheiten in den Messungen hergeben. Tatsächlich fehlen uns Daten, um die heutigen Temperaturen angemessen und wissenschaftlich mit den Temperaturen der Vergangenheit zu vergleichen.

Ursache hierfür ist, dass bis Ende der sechziger Jahre die Temperaturdaten mit Quecksilber-Thermometern erfasst worden sind, welche sich an Wetterstationen zumeist in den USA, Europa, Teile der ehemaligen Sowjetunion, Chinas, Japan, UK und Ostaustralien befanden. In fast allen übrigen Gebieten der Welt gab es nur sehr wenige Messpunkte. Und aus keinem der Ozeangebiete der Erde, welche 70% der Erdoberfläche bedecken, gibt es mehr als höchstens gelegentlich einmal eine Messung, tausende Kilometer entfernt von der nächsten Messung.

Die an den so spärlichen Messpunkten gesammelten Daten hatten im besten Falle eine Genauigkeit von ±0,5°C. In den meisten Fällen lag die Genauigkeit sogar nur um ±1°C. Die Mittelung so weniger Daten, um globale Bedingungen zu bestimmen, kann nichts Bedeutsames hervorbringen. Die Darstellung der globalen mittleren Temperatur auf Zehntel- oder sogar Hundertstel Grad genau vergewaltigt eindeutig den gesunden Menschenverstand.

Heute werden Temperaturdaten an Wetterstationen mittels Präzisions-Thermoelementen gemessen. Aber mit Beginn in den siebziger Jahren fanden immer weniger am Boden gemessene Temperaturdaten Eingang in die Plots von NOAA und NASA. Ursprünglich hatte man nämlich gedacht, dass Satelliten-Monitoring die Daten besser erfassen kann.

Aber leider haben die Satelliten die gewünschte Erwärmung in keiner Weise gezeigt, weshalb Bürokraten die meisten der kälteren Messpunkte ausgesondert haben, um die gewünschte Erwärmung doch noch zu bekommen.

Dass die Satelliten die von den Computermodellen prophezeite Erwärmung, welche so entscheidend für Klima-Studien und Energiepolitik war, nicht zeigten, war den Bürokraten ein Dorn im Auge. Also schlossen diese die kälteren ländlichen Stationen – also die am weitesten von wärmeren Stadtgebieten entfernt liegenden Stationen – und konnte so doch noch die gewünschte Erwärmung vorweisen, ausschließlich für politische Zwecke.

Heutzutage gibt es praktisch keine Daten aus etwa 85% der Erdoberfläche. Tatsächlich werden heute weniger Stationen betrieben als im Jahre 1960.

Berechnungen von NOAA und NASA nach etwa 1980 sind bedeutungslos

Dies bedeutet, dass Temperatur-Berechnungen von NOAA und NASA nach dem Jahr 1980 bedeutungslos sind. Kombiniert man diesen Umstand mit den Problemen früherer Daten, ergibt sich eine unvermeidliche Schlussfolgerung: Es ist unmöglich festzustellen, wie die so genannte mittlere globale Temperatur über die vergangenen eineinhalb Jahrhunderte hinweg variiert hat.

Die Daten sind daher nutzlos, um als Input für Computermodelle zu dienen. Und doch bilden diese die Grundlage der politischen Empfehlungen des IPCC, und sie werden oftmals herangezogen, um die Eliminierung fossiler Treibstoffe zu rechtfertigen und diese durch erneuerbare Energie zu ersetzen.

Aber mit dem Fehlen geeigneter Daten von der Erdoberfläche fängt das Problem erst an. Die Computermodelle, auf welchen die Klima-Angst fußt, sind mathematische Konstruktionen, welche den Input von Daten über der Oberfläche erfordern, ebenso wie solche an der Oberfläche. Die Modelle unterteilen die Atmosphäre in übereinander gestapelte Würfel, idealerweise mit den Verhältnissen von Wind, Feuchtigkeit, Wolkenbedeckung und Temperatur in verschiedenen geographischen Breiten. Aber gegenwärtig gibt es über der Oberfläche sogar noch weniger Daten als von der Oberfläche, und definitiv gibt es aus höheren Schichten keine historischen Daten.

Viele Menschen glauben, dass der Planet gleichmäßig von Satelliten-Beobachtungen erfasst wird; Daten, welche global über 24 Stunden an 7 Tagen der Woche gemessen werden. Dies soll weitaus genauer sein, als irgendetwas an Wetterstationen Gemessenes. Aber die Satelliten können keine Daten aus den Polargebieten erfassen, also aus Gebieten, welche das IPCC, die NOAA und die NASA als so entscheidend für das Verständnis der globalen Erwärmung hinaus posaunen. Außerdem begannen Temperaturaufzeichnungen via Satellit erst im Jahre 1979, und 30 Jahre mit Wetterdaten sind erforderlich, um auf einer Klimagraphik nur einen einzigen Datenpunkt zu erzeugen.

Folglich sind die Satelliten-Aufzeichnungen viel zu kurz, um brauchbare Schlussfolgerungen hinsichtlich Klimawandel ziehen zu können.

Tatsächlich weisen alle Daten große Unzulänglichkeiten auf – Temperatur, Land- und Meereis, Gletscher, Meeresspiegel, Extremwetter, Ozean-pH und so weiter –, so dass es unmöglich ist zu sagen, wie sich das heutige Klima von dem der Vergangenheit unterscheidet. Angesichts des Fehlens so grundlegender Daten haben die von den Klimaaktivisten ausgegebenen Prophezeiungen keinerlei Bezug zur realen Welt.

Der britische Professor Hubert Lamb wird oftmals als der Begründer der modernen Klimatologie angesehen. In seiner umfassenden Abhandlung aus dem Jahr 1972 mit dem Titel Climate: Past, Present and Future zeigt er eindeutig, dass man Klimawandel unmöglich verstehen kann ohne große Mengen genauer Wetterdaten über lange Zeiträume. Lamb schreibt auch, dass die Finanzierung der Verbesserung der Datengrundlage verschwindend gering war im Vergleich zu den Geldern, welche für Computermodelle und Theoretisierungen ausgegeben worden sind. Er warnte, dass dieser Umstand zu wilden und gehaltlosen Theorien und Behauptungen führen wird, während sich Prognosen nicht verbessern. Und genau das ist ja auch geschehen.

Jede einzelne Prophezeiung seitens der vom IPCC verwendeten Computermodelle hat sich ohne eine einzige Ausnahme als falsch erwiesen.

Tatsächlich lagen die ersten ihrer Prognosen für den 1. IPCC-Zustandsbericht so meilenweit von der Realität entfernt, dass das Gremium diese Prophezeiungen „Projektionen“ zu nennen begann. Mit ihnen wurden niedrige, mittlere und hohe „Vertrauens“-Intervalle für zukünftige Prophezeiungen angeboten. Dennoch haben Journalisten, Politiker und Andere diese als absolut zuverlässige Prognosen für zukünftiges Wetter und Klima ausgegeben.

IPCC-Mitglieder scheinen zu folgern, dass – sofern nur die Bandbreite für Vorhersagen groß genug ist – diese schon stimmen werden. Aber selbst das war zu optimistisch. Alle drei vom IPCC prophezeiten Bandbreiten haben sich als falsch herausgestellt.

Der neue EPA-Chef Scott Pruitt hat recht, wenn er von dem Recht der Öffentlichkeit auf eine offene und umfassende öffentliche Debatte spricht – unter Wissenschaftlern über die Gründe und Konsequenzen des Klimawandels. In einem Fernsehinterview vom 6. Februar erklärte Mr. Pruitt:

„Es gibt viele sehr wichtige Fragen bzgl. des Themas Klima, welche sich den Menschen nicht richtig erschließen. Und das ist einer der Gründe, warum ich von einer ehrlichen, offenen, transparenten Debatte spreche über das, was wir wissen und was wir nicht wissen. Damit kann sich die amerikanische Bevölkerung informieren und anfangen, eigene Entscheidungen unter Berücksichtigung dieser Dinge zu treffen“.

Am 3. Januar erklärte Pruitt vor dem Senate Environment and Public Works Committee, dass man über „ein rotes und ein blaues Team“, also eine von der EPA gesponserte Debatte nachdenkt zwischen Klimawissenschaftlern mit unterschiedlichen Standpunkten. Es ist von entscheidender Bedeutung, dass es zu einer solchen Debatte kommt.

Die meisten der den Klima-Befürchtungen zugrunde liegenden Hypothesen sind entweder zweifelhaft oder schlicht und ergreifend falsch.

Der Öffentlichkeit muss genau dieser Punkt vor Augen geführt werden! Die Kampagne, welche Amerika, Kanada, Europa und den Rest der Welt vom Verbrauch reichlicher und bezahlbarer Kohle und anderer fossiler Treibstoffe wegführen soll – hin zu teuren, unzuverlässigen und land-intensiven Alternativen, um das sich ewig ändernde Klima der Erde vermeintlich zu kontrollieren – wird sich dann als das herausstellen, was sie wirklich ist: der größte und schädlichste Betrug aller Zeiten.

—————————-

Dr. Tim Ball ist Umweltberater und ehemaliger Professor der Klimatologie an der University of Winnipeg in Manitoba. Tom Harris ist Direktor der in Ottawa ansässigen Denkfabrik International Climate Science Coalition.

Link: https://www.iceagenow.info/overheated-claims-temperature-records/

Übersetzt von Chris Frey EIKE




Der Klimawandel macht dumm

Dieser – so sind sich zum Klimawandel wirklich kompetente Forscher und Fachpersonen einig –, macht nämlich dumm. Und Deutschland ist nach Überzeugung von Frau Hendricks besonders stark und täglich vom Klimawandel getroffen [7], in Bayern kann man ihn sogar „mit den Händen greifen“ (laut der bayerischen Umweltministerin), womit sich der Teufelskreis schließen könnte.

Dank des Wissens vom Klimawandel lösen sich viele Rätsel

Bekannt war (EIKE-Lesern) schon, dass Parteien infolge des Klimawandels immer weniger Einfluss auf das Wahlergebnis haben: EIKE 30.11.2016: [2] Ist die Wahl von Trump eine Auswirkung des Klimawandels?
In Wirklichkeit ist es jedoch noch viel schlimmer: Der Klimawandel beeinflusst nicht nur, wo das Kreuzchen bei der Wahl hin fällt, auch die Intelligenz und Entscheidungsfähigkeit leidet darunter.
Zumindest haben es unermüdliche Forscher – diesmal aus Harvard – mittels einer wieder besonders tief zum Erkenntnisgewinn schürfenden Studie entdeckt.
THE DAILY CALLER 10/27/2015: [1] Scientists Claim High CO2 Levels Are Making People Dumber
A new study by the Harvard School of Public Health claims “carbon dioxide (CO2) has a direct and negative impact on human cognition and decision-making,” according to ThinkProgress,
Dank der zum Klimawandel-forschenden Wissenschaftlern oft eigenen Präzision und Qualität – beispielhaft auch im kürzlich erschienenen Artikel über die Eisbären [3] nachlesbar – ließ sich (mit dem untrüglichen Wissen über den Klimawandel im Hinterkopf) schon nach kürzester Zeit Signifikantes feststellen:
Studie: [1] … 24 Menschen wurden in Büroumgebungen mit unterschiedlich hohen Konzentrationen an flüchtigen organischen Verbindungen sowie unterschiedlichen Kohlendioxidwerten an sechs Arbeitstagen ausgesetzt. Die Studie fand heraus, dass bei sieben der neun kognitiven Funktionsbereiche die durchschnittlichen kognitiven Werte bei jedem höheren CO2-Wert abnahmen“.

Dass höhere Temperatur dumm macht, ist bereits bekannt [6]. Ausgerechnet die Fähigkeit, von guten Beispielen zu lernen, wird dadurch beeinträchtigt. Es könnte vielleicht ein Grund sein, warum unsere südlichen EU-Länder nicht mit Geld umgehen können, und dies auch nie mehr lernen werden, obwohl Deutschland darin immer versucht(e) ein Beispiel zu geben.
Erschreckend ist jedoch, dass in der Studie aus Harvard der Wirkmechanismus direkt das als giftig bekannte CO2 ist. Der schlimme Einfluss wirkt demnach unerbittlich überall rund um unseren Globus – und damit auch in unseren Breiten.

Vieles wäre nicht mit solcher Präzision bekannt

Studie: [1] … Die Ergebnisse der kognitiven Funktion waren 15% niedriger für den moderaten CO2-Tag (~ 945 ppm) und 50% niedriger am Tag mit CO2-Konzentrationen um 1400 ppm …
Für diese Ergebnispräzision reichten 24 Probanten.
In der Studie zum Temperatureinfluss [6] reichten 13 ausgebrütete Eier aus und zu den Eisbären [3] bereits 9 Beobachtungen.
Es bestätigt, dass der unheilvolle Klimawandel-Einfluss wirklich überall eine Größenordnung erreicht haben muss, der alles bisher Bekannte weit in den Schatten stellt. Jedoch mit dem enormen Vorteil für die Klimawissenschaftler, dadurch die Mühsal lang dauernder und damit teurer Beobachtungsreihen, sowie die früher wirklich schwierige – und auch fehleranfällige – Anwendung der Statistik gar nicht mehr zu benötigen. Wo damals in Auswertungen vielleicht zwei Stellen als Ergebnis erschienen, spucken moderne Computer lange Zahlenreihen aus und belegen alleine dadurch schon die Präzision ihrer Berechnungen.

Wer so forsch forscht, kann sich des Lobes besonders sachkundiger Personen sicher sein

Der „Klimawandelprophet“ Al Gore, verkündete diese wichtige Information seiner gläubigen Anhängerschar:

Auch der bekannte Wissenschaftsjournalist und Verfasser klimaalarmistischer Bücher, Joe Romm, nahm Ergebnisse der Harvard-Studie auf, auch, um sein neues Buch zum Klimawandel zu promoten [1].
THINK PROGRESS Joe Romm Oct 26, 2015: [8] Exclusive: Elevated CO2 Levels Directly Affect Human Cognition, New Harvard Study Shows

Er und eine dazu befragte „Fachperson“ waren von der Studie begeistert:
[8] … She considers the Harvard study “an absolutely important study.”
Liest man seine Darstellung bis zum Ende, kommen interessante Aspekte zum Vorschein:
Die Studie wurde gar nicht zum Klimawandel erstellt und bezog sich als medizinisch orientierte Studie auf Personen in Innenräumen.
[8] … The researchers explain, “The largest effects were seen for Crisis Response, Information Usage, and Strategy, all of which are indicators of higher level cognitive function and decision-making.”
Interestingly, the authors of all of these studies — the direct CO2 studies and the CO2-as-a-proxy-for-ventilation studies — are generally public health researchers focused on indoor environmental quality (IEQ). As a result, their published work does not examine the implications these findings have for climate policy.
Eine Verbindung zum Klimawandel ist damit rein hypothetisch. Aber wie fast immer: Gerade deshalb besteht eine mögliche „Wissenslücke“, die man selbstverständlich dringend füllen muss, wozu aber Forschungsmittel erforderlich wären.
[8] The risks of doing nothing
… But the implications for climate policy are stark. We are at 400 parts per million (ppm) of CO2 today outdoors globally — and tens of ppm higher in many major cities. We are rising at a rate of 2+ ppm a year, a rate that is accelerating. Significantly, we do not know the threshold at which CO2 levels begin to measurably impact human cognition.
So the impact threshold may be quite below 930 ppm.
Clearly more research needs to be done to solve this detective story.
… We do not know the threshold at which CO2 levels begin to measurably impact human cognition

Sind damit die Ergebnisse bisheriger Studien überholt?

Wer auf die Daten gesehen hat, dem viel auf, dass mit ppm-Werten von 945 …. 1.400 ppm „gemessen“ wurde. Diese Konzentration kann die Erde durch anthropogenen Einfluss kaum jemals erreichen, weil die fossilen, verbrennbaren Ressourcen die Menge nicht hergeben. Sollte in vielen hundert Jahren trotzdem eine Verdopplung auf 945 ppm erfolgt sein, hat die menschliche Population (angeblich) 15 % Intelligenz „verloren“ – und damit viel weniger, als der Kompetenzwertunterschied an Gymnasien zwischen den deutschen Bundesländern [5]. Damit dürfte die Weltbevölkerung problemlos leben können, sofern es das einzige Problem bleibt.
Anmerkung: Wer Gegenteiliges lesen möchte, beziehungsweise wissen will, warum es doch (vielleicht, zumindest nicht vollkommen ausgeschlossen) durch den Klimawandel ein Problem werden (könnte), kann dies in [8] tun.

Doch selbst so weit muss es nicht kommen. Es gibt anscheinend wenig bis keinen Mangel an Wissen über den CO2-Einfluss auf den Menschen. Allerdings gab es einen eklatanten Mangel an alarmistischen Ergebnissen.

THE DAILY CALLER: [1]es gibt auch Studien, die zeigen, dass der CO2-Gehalt extrem hoch sein muss, um für die menschliche Gesundheit schädlich zu sein. Interessant ist auch, dass die US Navy durchschnittliche CO2-Konzentrationen von 3.500 Teilen pro Million (ppm) angibt – das ist fast zehn Mal höher als das, was Harvard für sicher hält.
„Daten, die über neun nuklear betriebene U-Boote … gesammelt wurden, geben eine durchschnittliche CO2-Konzentration von 3.500 ppm mit einer Bandbreite von 0-10.600 ppm an.
Die Daten von 10 atomgetriebenen Angriffs-U-Booten geben eine durchschnittliche CO2-Konzentration von 4.100 ppm mit einem Bereich zwischen 300-11,300 ppm“, so
ein Bericht des National Research Council aus dem Jahr 2007 über Expositionsprobleme von U-Boot-Besatzungen.
Interessanterweise stellte das NRC fest, dass „eine Anzahl von Studien darauf hinweist, dass CO2-Expositionen im Bereich von 15.000 bis 40.000 ppm die neurologische Verhaltensweise nicht beeinträchtigen.“
Eine Studie aus dem Jahr 1961 ergab: „23 Besatzungsmitglieder, die 42 Tage lang CO2 bei 15.000 ppm in einem U-Boot ausgesetzt waren“. Die Männer „zeigten keine psychomotorischen Testwirkungen, zeigten aber moderate Zunahmen von Angst, Apathie, Unkooperativität, Verlangen zu gehen und sexuelles Verlangen.“
Eine weitere Studie aus dem Jahr 1967 hat sieben Männer einer CO2-Konzentration von 30.000 ppm ausgesetzt. Die Personen berichteten keine Auswirkungen auf motorische Fähigkeiten, Aufmerksamkeit, Hörfähigkeit, Gedächtnis oder arithmetische und Problemlösungsleistung.“ …

Ein Blick in bayerische Klassenzimmer

Die beim DAILY CALLER gelisteten Werte sind großteils an durchtrainierten, jungen Personen in Extremsituationen gemessen. Das gilt für Schüler*innen sicher nicht. Doch auch bei diesen gelten verblüffend hohe Konzentrationen als weitgehend unbedenklich.

Fraunhofer-Institut für Bauphysik, Schrift: Luftqualität und Geruchsbelastung in Schulen

Eine passender Artikel für den Anlass und die Bewertung solcher Wissenschaft und deren Studien erschien gerade bei Novo Argumente:
Novo Argumente12.02.2018: Wissenschaft im Gleichschritt

Dummheit gibt es wirklich, nur die genaue Ursache und die Richtung sind unklar

Wenn die Studienergebnisse Wirkung hätten, wären die Weltkriege und die schlimmsten Massenausrottungen (auch die in sozialistischen Ländern) zu klimatischen Zeiten „größerer Intelligenz“ erfolgt. Anscheinend lassen sich aber wirklich Auswirkungen erkennen:
EIKE 07.10.2016:
[9] Was haben der Schauspieler Di Caprio und Claudia Roth gemeinsam: Beide sind fest davon überzeugt, dass jemand, der dem Klimawandel skeptisch gegenüber steht, dumm sein muss

Quellen

[1] THE DAILY CALLER 10/27/2015: Scientists Claim High CO2 Levels Are Making People Dumber

[2] EIKE 30.11.2016: Ist die Wahl von Trump eine Auswirkung des Klimawandels? Wenn es wärmer ist, werden die etablierten Parteien abgewählt, wie eine Studie belegt

[3] EIKE 11. Februar 2018: Eisbären benötigen 1,6 Mal mehr Energie als bisher bekannt und deshalb werden sie am Klimawandel untergehen

[4] EIKE 12. Februar 2018: Erwärmung könnte die Persönlichkeit der Menschen verändern – bis hin zur Kriminalität

[5] WAXMANN: IQB-Bildungstrend 2015 Sprachliche Kompetenzen am Ende der 9. Jahrgangsstufe im zweiten Ländervergleich

[6] National Geographic: Klimawandel macht Bartagamen dümmer

[7] Die Welt 01.04.14: Den Klimawandel mit wärmenden Textilien bekämpfen

[8] THINK PROGRESS Joe Romm Oct 26, 2015: Exclusive: Elevated CO2 Levels Directly Affect Human Cognition, New Harvard Study Shows

[9] EIKE 07.10.2016: Was haben der Schauspieler Di Caprio und Claudia Roth gemeinsam: Beide sind fest davon überzeugt, dass jemand, der dem Klimawandel skeptisch gegenüber steht, dumm sein muss




Die immer neu aufstei­genden und unter­gehenden Inseln wie zum Beispiel Tuvalu

Tuvalu nimmt stetig an Fläche zu

Während in deutschen „Qualitätsmedien“, bezeugt durch das spezielle Wissen von NGO-Vertreter*innen, die Atolle stetig weiter sinken:
BR2 11.05.2017: [2] Fluchtgrund Klimawandel Wenn die Erderwärmung eine ganze Insel bedroht
… Tuvalu droht im Meer zu versinken – noch ist der Inselstaat ein Extrembeispiel für die Folgen des Klimawandels, Sabine Minninger, Klimaexpertin von Brot für die Welt, fordert, die Folgen der Erderwärmung als Fluchtgrund anzuerkennen …
werden Bürger außerhalb der deutschen „Nachrichtenmauer“ (ab und zu) darüber informiert, wie es um solche Atolle wirklich steht: Die Landflächen der Pazifikinseln nehmen zu – trotz (angeblich drastisch) steigendem Meeresspiegel:
Mail Online 9 February 2018: [1] ‚Sinking‘ Pacific nation Tuvalu is actually getting bigger, new research reveals

Scientists have long thought the Pacific nation of Tuvalu would disappear …
– But, new research has found that the atoll has actually grown by about 3%
Anmerkung: Die Darstellung auf WUWT zu dieser Studie wurde von Herrn Demmig für EIKE übersetzt: EIKE: Die Landflächen der Pazifikinseln nehmen zu – trotz steigendem Meeresspiegel
Die hier zitierten, englischsprachigen Passagen (und viele weitere) finden sich dort übersetzt.

Für EIKE-Leser ist das ein „alter Hut“, denn es ist schon seit Langem bekannt und in mehreren Studien festgestellt:
kaltesonne 23. Juni 2015: [4] Spektrum der Wissenschaft über angeblich vom Untergang bedrohte Südseeatolle: “Noch keine der betroffenen Inseln ist in nächster Zeit von Überflutung bedroht. Einige vergrößern sich sogar auf Grund natürlicher ökologischer Vorgänge”

Und immer wieder beruhigend ist es, wenn sich die Einschätzung aus jahrelanger „Beobachtung“ immer neu bestätigen: Die Südseeatolle können untergehen: Wegen Überbevölkerung, Geldmangel, Zerstörung der Umwelt an Land, den Stränden und im Wasser, durch die extreme Überpopulation, schlechte Regierungen, Krankheiten, Staatsbankrott, Wetterunbilden, unsachgemäße Bebauung, natürlich auch in Klimasimulationen. Aber derzeit nicht wegen des angeblichen Klimawandels.

Mail Online 9 February 2018: [1] … The Pacific nation of Tuvalu — long seen as a prime candidate to disappear as climate change forces up sea levels — is actually growing in size, new research shows.
A University of Auckland study examined changes in the geography of Tuvalu’s nine atolls and 101 reef islands between 1971 and 2014, using aerial photographs and satellite imagery. It found eight of the atolls and almost three-quarters of the islands grew during the study period, lifting Tuvalu’s total land area by 2.9 percent, even though sea levels in the country rose at twice the global average.

Bild 1 Bilder der Landzunahmen aus der Studie [1] An analysis of aerial photographs and satellite imagery between 1971 and 2014 suggests the island isn’t being swallowed up, as previously thought – instead, it appears to be growing. Examples of its changing size can be seen above, with dates indicated as different color lines

Was ist mit dem Meerespegel bei Tuvalu?

Trotz im Ausland freierer Berichterstattung „gilt“ auch dort in vielen Regionen natürlich die „Klimawandel-Doktrin“. Dies dürfte der Grund sein, warum im Mail Online-Artikel noch erzählt wird, der Seepegel bei Tuvalu würde doppelt so schnell steigen wie normal: [1] … even though sea levels in the country rose at twice the global average …

Aber auch dies lässt sich klären, sobald auf die nachsehbaren Fakten geschaut wird. Die Pegeldaten des von der Australischen Regierung durchgeführten Monitoringprojektes dürften wenig angreifbar sein. Und diese zeigen für Tuvalu seit Beginn der Messreihe um ca. 1994 nicht die geringste Spur eines Pegelanstieges. Einen flacheren, als diesen schnurgerade horizontalen Verlauf kann man sich kaum vorstellen.
Nun sind diese Tidenpegel nicht isostatisch bereinigt. Es könnte also immer noch sein, dass der Pegel dort wirklich steigt. Dann muss sich das Land genau mit diesem „doppelten Anstieg“ mit heben – etwas unwahrscheinlich. Zudem: Auf den Atollen wirkt alleine der Tidenpegel – und dieser stieg seit dem Beginn der Messreihe jedenfalls nicht.
Ende 2017 war der Tidenpegel-Mittelwert genau an dem Punkt, wie zu Beginn der Messreihe um 1993 … 1994.

Bild 2 TUVALU Pegelverlauf Mittelwert seit 1994. Quelle Australien Government: Pacific Sea Level Monitoring Project

Es war anzunehmen, dass die Veröffentlichung dieser Studie (obwohl es längst bekannt ist) nicht allen gefällt:
[12] … Der Premierminister von Tuvalu, Enele Sopoaga, zeigte sich gegenüber der „Fiji Times“ nicht besonders glücklich über die Veröffentlichung. „Die Ausweitung unserer Küstenlinien bedeutet nicht, dass unsere Menschen auch wirklich mehr Lebensraum haben.“ Er kritisierte die Art und Weise, wie der Bericht in „Nature Communications“ veröffentlicht wurde – ohne dass einheimische Wissenschaftler dazu ihre Meinung äußern konnten. Zudem gehe der Artikel nur auf ein Problem ein, das durch den Klimawandel droht; andere Probleme, die das Leben auf den Inseln unmöglich machen könnten, übergehe er dagegen.
Die Gefahr, dass zum Beispiel Frau Hendricks davon Kenntnis nimmt und die Überweisungen deutscher Klimaschutzgeldern an solche Länder stoppen würde, dürfte jedoch gering sein. Dass die ungefähr 25.000, regelmäßig auf Spesen zu Klimagipfeln Reisenden es zur Kenntnis nehmen, kann man ebenfalls fast mit Sicherheit ausschließen. Der Premierminister braucht sich deshalb also bestimmt keine großen Sorgen zu machen (rein persönliche Meinung des Autors).

Vergleiche von Tidenpegel und Satellitenmessung

Bild aus dem EIKE-Artikel von K. Puls

Neben dem, dass bei Tidenpegeln der Interpretation verblüffend viel „Spielraum“ bleibt:
EIKE 13.08.2017:
Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug,
wird der gemeldete, hohe Pegelanstieg (ca. doppelt so viel wie der Tidenpegelanstieg) nur von Satelliten gemessen. Und hierbei stellt sich natürlich die Frage, warum Pegelmessungen direkt am Objekt ungenauer sein sollen, als die aus 1.340 km (Jason-Reihe) bis 840 km (Sentinel-3A) gemessenen von Satelliten.
Man kann nach vielen Korrekturen und Anwendung von „Algorithmen“ Werte finden, von denen angenommen wird, sie würden so etwas wie den Meerespegel repräsentieren – beginnend in etwa 100 km Entfernung von Küsten, davor „versagt“ das Satellitenverfahren. Und wie schon bei den Temperaturmessungen, ist damit der passenden „Adjustierung“ Tür und Tor geöffnet.
Klaus Puls hatte es einstmals in einem EIKE-Artikel: Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht

Bild aus dem EIKE-Artikel von K. Puls

und für „kaltesonne“ zusammengefasst:
kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All

Bild aus dem „kaltesonne“-Artikel von K. Puls

Und die Daten der Pegelmessungen wurden aktuell wieder bestätigt [8]. Eine umfangreiche Zusammenfassung zur Problematik und Historie der Tidenpegel findet sich bei:

Climate Etc, Judith Curry February 10, 2018: [9] Sea level rise acceleration (or not): Part III – 19th & 20th century observations

Der Pegelforscher, Herr Prof (em) Mörner geht in seiner neuesten Studie so weit, der Satellitenauswertung manipulierte Daten vorzuwerfen, weil Tiden-Pegelmessungen und Satellitenwerte einfach zu weit auseinanderliegen:
Nils-AxelMörner August 2017: [7] Sea Level Manipulation
Abstract: Sea level changes is a key issue in the global warming scenario. It has been widely claimed that sea
is rising as a function of the late 20th’s warming pulse. Global tide gauge data sets may vary between +1.7
mm/yr to +0.25 mm/yr depending upon the choice of stations. At numerous individual sites, available tide
gauges show variability around a stable zero level. Coastal morphology is a sharp tool in defining ongoing
changes in sea level. A general stability has been defined in sites like the Maldives, Goa, Bangladesh and Fiji.
In contrast to all those observations, satellite altimetry claim there is a global mean rise in sea level of about
3.0 mm/yr. In this paper, it is claimed that the satellite altimetry values have been “manipulated”. In this
situation, it is recommended that we return to the observational facts, which provides global sea level records
varying between ±0.0 and +1.0 mm/yr; i.e. values that pose no problems in coastal protection.

Bild [7] Vergleich Satellitenpegel und Tidenpegel aus der Studie Mörner

Wie immer beim AGW-Klimawandel: Es gibt auch die genau gegensätzliche Belegung

Herr Professor Rahmstorf vom PIK sagt zu den Pegeln folgendes:
[10] Der Anstieg des Meeresspiegels Stefan Rahmstorf
Der Meeresspiegel steigt, er steigt schneller als erwartet, und der Anstieg hat sich beschleunigt. Dies sind drei der Kernaussagen des neuen IPCC-Berichts. Seit 1870 ist der globale Meeresspiegel um rund 20 cm angestiegen – dies zeigen die weltweiten Pegelmessungen an den Küsten (Abb. 1). Dabei kann man mit hoher Konfidenz sagen, dass die Anstiegsrate sich über diesen Zeitraum erhöht hat. Satellitenmessungen zeigen für den Zeitraum 1993-2003 einen Anstieg um 3,1 mm/Jahr – berücksichtigt man die neuesten Daten bis 2006, sogar um 3,3 mm/Jahr (Rahmstorf et al., 2007). Zudem zeigen geologische Daten und historische Quellen, dass in den Jahrtausenden zuvor der Meeresspiegel nahezu stabil war.

Zu den „neuesten Daten“ ist in: Climate Etc, Judith Curry February 10, 2018: [9] Sea level rise acceleration (or not): Part III – 19th & 20th century observations.
fast alles zusammengestellt. Zum „ … nahezu stabilen“ Meeresspiegel gibt es ebenfalls eine kleine Zusammenfassung:
EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren,
wonach dieser mindestens um ca. zwei Meter schwankte. Bezogen auf das Ende der letzten Eiszeit vor ca. 20.000 Jahren mit ca. 130 m tieferem Meerespegel ist das sicher nahezu stabil. Aber nicht auf die heutzutage als Alarm „gehandelten“ Millimeter. Viele andere Experten gehen (aufgrund ihrer Proximessungen) davon aus, dass der Meerespegel früher sogar zwischen ein – bis zwei Meter höher war.

Und das „Wissen“ darüber überschlägt sich gerade (wieder)

Vor fast drei Jahren kam eine Studie heraus, in welcher zugestanden wurde, dass die Satelliten-Pegelwerte aus bestimmten Gründen systematische Fehler hatten und korrigiert werden müssen. Das Besondere daran war: Zu einem geringeren Pegelanstieg hin:
Nature 11 May 2015: Unabated global mean sea-level rise over the satellite altimeter era
The rate of global mean sea-level (GMSL) rise has been suggested to be lower for the past decade compared with the preceding decade as a result of natural variability1, with an average rate of rise since 1993 of +3.2 ± 0.4 mm yr−1 (refs 2, 3). However, satellite-based GMSL estimates do not include an allowance for potential instrumental drifts (bias drift4,5). Here, we report improved bias drift estimates for individual altimeter missions from a refined estimation approach that incorporates new Global Positioning System (GPS) estimates of vertical land movement (VLM). In contrast to previous results (for example, refs 6, 7), we identify significant non-zero systematic drifts that are satellite-specific, most notably affecting the first 6 years of the GMSL record. Applying the bias drift corrections has two implications. First, the GMSL rate (1993 to mid-2014) is systematically reduced to between +2.6 ± 0.4 mm yr−1 and +2.9 ± 0.4 mm yr−1, depending on the choice of VLM applied …

Man brauchte kein Hellseher zu sein, um zu wissen, dass was nicht sein darf, nicht sein kann und unermüdlicher Forscherfleiß bald das Gegenteil herausfinden würde. Und so kam es:
Die aufsehenerregende Studie erschien gerade und das Ergebnis: Nach neuem, diesmal besonders sorgfältigem Nachrechnen kommt heraus, dass mit mehr als zuverlässiger Sicherheit der Meerespegel noch viel schneller steigt als bisher angenommen:
SPON 12.02.2018: [11] Satellitenmessungen Meeresspiegel steigt immer schneller
Der Meeresspiegel steigt jedes Jahr etwas schneller – und der Zuwachs könnte deshalb bis zum Jahr 2100 mehr als das doppelt so groß sein, als wenn man von einem linearen Anstieg ausgeht. Das haben Wissenschaftler anhand von Satellitenmessungen errechnet.
Seit 1993 stieg der Meeresspiegel im weltweiten Durchschnitt jährlich um etwa drei Millimeter. Die nun gemessene Beschleunigung könnte dazu führen, dass der Anstieg im Jahr 2100 zehn Millimeter pro Jahr beträgt. Das berichtet die Forschergruppe um Steve Nerem von der University of Colorado in Boulder
in den „Proceedings of the National Academy of Sciences“.
Bis zum Ende des Jahrhunderts könnte demnach der Durchschnittspegel an den Küsten um 65 Zentimeter höher liegen als im Jahr 2005. „Und das ist mit ziemlicher Sicherheit eine vorsichtige Schätzung“, wird Nerem in einer Mitteilung seiner Universität zitiert.

Dabei ist der Pegel nicht gestiegen. Er hätte aber stärker steigen können

Inzwischen gewöhnt man sich daran, dass sich beim Klimawandel das „Wissen“ in wirklich atemberaubendem Tempo ändert und auch plötzlich drehen kann. Vor allem, seitdem dank moderner Computer die Statistik, welche früher so maximal zwei Stellen signifikant ermitteln konnte, inzwischen fast beliebig viele nach dem Komma produziert. Auch gelingt es inzwischen meisterhaft, Einflüsse herauszurechnen und Fehler rückwirkend genau zu erkennen, die wie bei den Temperaturmessungen komischer Weise (fast) immer in Richtung zu mehr Alarm führen (bitte die bittere Ironie des Absatzes bemerken):
SPON 12.02.2018: [11] Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus … So seien zahlreiche Effekte, die nichts mit dem Klimawandel zu tun haben, herausgerechnet worden.

Es wurde also eine inzwischen beliebte Methode verwendet, um zusätzlichen Anstiegsalarm zu erzeugen: Man rechnet nach, wie es ohne Klimawandel gekommen wäre und die Differenz packt man dann oben drauf. Ob man es berechnen kann, ist ziemlich nebensächlich, wichtig ist eigentlich nur, dass es mehr wird.
Wie man weiß, wie es ohne „Klimawandel“ gekommen wäre? Das weiß man natürlich nicht, aber Klimasimulationsprogramme können es doch ganz genau berechnen.

Solchem Vorgehen, vor allem, dass nach so langer Zeit endlich jemand „sehr gründlich ausgewertet“ hat, gebührt Lob, und es kam – wohl nicht rein zufällig – aus einem Institut, welches dank dem „Klimawandel“ geradezu „explodiert“ ist und ohne diesen wohl den Großteil seiner Mitarbeiter entlassen müsste:
[11] „Die Studie stellt sehr glaubhaft dar, dass es eine Beschleunigung des Anstiegs gibt“, urteilt Ingo Sasgen vom Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Forscher hätten nicht nur neue Messdaten verwendet, sondern diese auch sehr gründlich ausgewertet.
Anbei die letzten Forschungsthemen am Institut des Dr. I. Sasgen:
Wie groß sind die Verluste der kontinentalen Eismassen (insbesondere von Grönland) und wie reagiert der Meeresspiegel auf Schmelzwasser und Erwärmung?
Forschungsthema des Monats Juni 2017: Untersuchungen zum Aufbau und Zerfall des Laurentidischen Eisschildes und mögliche Implikationen für den zukünftigen Meeresspiegelanstieg
Forschungsthema des Monats Dezember 2015: Wechselwirkungen zwischen Eisschilden und der festen Erde: Können schnelle Landhebungen eine Katastrophe in der Westantarktis verhindern?

Welchen Meerespegel wünschen Sie?

Der Autor verheimlicht nicht, dass er nach orientierender Sichtung dieser Studie [11] zu einer anderen Meinung als Herr Dr. Sasgen gekommen ist. Vielleicht tippt er darüber noch einen Artikel. Auf Achgut wurde ein Teil davon bereits vorweggenommen:
Achgut 17.02.2018: Höchste Pegelstände in der Volkserziehung

Unabhängig davon kann jeder Bürger inzwischen fast schon demokratisch wählen, welcher Meerespegelanstieg im am besten liegen würde:
Den unscheinbaren mit 1,7 mm/pa, als Tidenpgegel an den Küsten gemessenen,
den doppelt so hoch ansteigenden mit ca. 3 mm/pa der Satelliten,
oder den ganz genau aus Satellitendaten berechneten, welcher mit zusätzlichen 0,08 mm/pa im Quadrat seit 1993 bis ins „unendliche“ ansteigt [11].
Die vielen, auf anderem Weg vom PIK simulierten, welche bis zu 60 m reichen, nicht zu vergessenen

Wie der Pazifikstaat Tuvalu unterging – beinahe

Anbei Wiederholungen aus früheren Pegelartikeln des Autors, um neueren Lesern aufzuzeigen, wie Klimawandelmärchen entstehen (können) und nicht mehr verschwinden – im Gegenteil, sogar Eingang in Fachbücher finden:

Zu Tuvalu: [5] … Trotzdem gilt TUVALU weiterhin als ein Paradebeispiel für den Untergang eines Südsee-Atolls. Vorwiegend jedoch durch endloses Kopieren und wiederholen einer Falschmeldung, die nie berichtigt wurde. Man würde kaum etwas darüber erfahren, hätte der Spiegel nicht einstmals etwas dazu geschrieben (Anmerkung: In [2] ist ein weiterer, ähnlicher Fall geschildert).
Leider ist der Artikel nur zur Verlinkung freigegeben. Er beschreibt, wie die Meldung über den angeblichen Untergang von Tuvalu entstand und als dessen „Zeuge“ ein nie mehr auffindbarer Bewohner angegeben (und für ausreichend befunden) wurde.
SPIEGEL 22.12.2001:
Die Südsee-Ente Wie der Pazifikstaat Tuvalu unterging – beinahe
… „Ich wurde ebenfalls von Journalisten aus der ganzen Welt belästigt, die erfahren wollten, ob die Einwohner Tuvalus auswandern nach Neuseeland und Australien. Bitte sag allen Journalisten, dass diese Berichte unwahr sind.“ Schmidt ist erleichtert. Er ist noch Honorarkonsul. Eine Erklärung für die Falschmeldung hat er nicht.
In Deutschland wurde die Meldung vom Untergang des Südseestaats, dem ersten Land, das der Klimakatastrophe zum Opfer fallen würde, von der Deutschen Presse-Agentur verbreitet und unter anderem in der „tageszeitung“, der „Frankfurter Allgemeinen“, der „Frankfurter Rundschau“ und dem „Tagesspiegel“ gedruckt. Als Quelle nennt dpa das Earth Policy Institute in Washington D. C.
Seit diesem gemeldeten, und damit allgemein bekanntem, falschen Untergang versinkt diese Insel geradezu exemplarisch ständig neu, sogar auf Seiten, welche es wirklich besser wissen müssen:
klimaretter.info, 01. November 2016: „
Wer Tuvalu aufgibt, gibt die Welt auf“.
Auch darüber wurde ein (Propaganda-)Film gedreht:
Film ThuleTuvalu:
Text aus der Ankündigung: Thule in Grönland und Tuvalu im Pazifik verbindet eigentlich nichts. Nur wenn der Meeresspiegel weiter steigt, werden die Inuit ebenfalls bald untergehen.
Umweltministerin Frau Hendricks, wie oft unbelastet von ausreichendem Wissen, fand diesen reinsten Propagandafilm ergreifend und meinte, ihn loben zu müssen:
Frau Hendricks: [8]
„Der Film Thule Tuvalu veranschaulicht in sehr berührender Art und Weise die Konsequenzen der Erderwärmung, die wir Bewohner vom „Festland“ oft nicht genug vor Augen haben. Es ist höchste Zeit, dass alle Menschen über die ökologischen Auswirkungen des Klimawandels aufgeklärt werden: den Verlust von Lebensräumen, das Artensterben und klimabedingte Auswanderung – um nur einige Beispiele zu nennen. Es muss im Interesse der internationalen Gemeinschaft liegen, Ökosysteme wie Thule und Tuvalu streng zu schützen. Ich bedanke mich bei den Machern für diese bewegende Geschichte.“

Deshalb ist es auch nicht verwunderlich, dass sich hinter dem „Erstmals werden Klimaflüchtlinge anerkannt“ im Kern ganz andere Beweggründe als der Klimawandel verbergen, worüber auf der BMUB-Homepage erst in einem Unterdokument informiert wird:
Umweltmigration.org: Die Familie Alesana zog 2007 von Tuvala nach Neuseeland. Dort hatten sie seit 2009 keinen legalen Einwanderungsstatus mehr – sie verloren ihre Arbeitsvisa und reichten daraufhin ihren Asylantrag 2012 ein. Im folgenden Jahr wurde der Antrag noch abgelehnt, ein Einspruch ebenso. Letztendlich wurde nun dem Antrag der Familie stattgegeben.
Letztendlich siegte die Familie, weil „außergewöhnliche humanitäre Gründe“ von den Neuseeländischen Immigrationsbehörden als Fluchtgrund anerkannt werden. Außerdem lebten bereits 6 Schwestern des Vaters in Neuseeland sowie seine Mutter, die Pflege brauchte. Die Kinder der Familie galten zudem als besonders schutzbedürftig.
Der Klimawandel stellte für die Entscheidung nur einen von zahlreichen weiteren Gründen für die Genehmigung des Asylantrags dar, wie der Richter zum Schluss noch einmal betonte.

Weitere Inseln, die aufgrund von Erzählungen sogar in Fachbüchern „untergehen“

Im Buch „Klimawandel im Pazifik“, Ausgabejahr 2013 der Reihe „Beiträge zur Pazifik-Forschung“ der Österreichisch-Südpazifischen Gesellschaft sind Beispiele zu den Schlagzeilen über „Inseluntergänge“ und daraufhin angeblich folgenden Umsiedlungen gelistet. Die Herausgeber des Buches wahren mehrmals in den beschriebenen Regionen vor Ort und sind keinesfalls klimakritisch – jedoch erkennbar faktenkritisch – eingestellt (der Autor hat bisher keine fundierteren gefunden).

Beurteilt werden von den Autoren die Angaben in dem Buch: Weltatlas des Klimawandels, 2. Erweiterte Auflage von 2007 (Herr. Prof. Schellnhuber, Leiter des Potsdamer PIK, hat dazu das Vorwort geschrieben).

Die Carteret-Inseln
Listung aus „Klimawandel im Pazifik“, Kapitel: Migration und Umsiedlung: die Carteret-Inseln in Papua-Neuguinea
Im „Weltatlas des Klimawandels“ steht:
… Umsiedlung von Inselbewohnern: Die 2.000 Bewohner der Carteret-Inseln in Papua-Neuguinea mussten auf eine benachbarte Insel umsiedeln, weil der zunehmende Salzgehalt im Wasser ihre Obstbäume abgetötet hatte und ihre Häuser von Hochwasser und Strurmfluten weggespült worden waren.
Auslöser dieser Information, welche vorher global in praktisch allen Medien erschien
(Anm.: Einfach googeln, es erscheinen „tausende“ Einträge), war ein Artikel aus dem „Jamaica Gleaner Online“.
Im Buch wird dazu gelistet, dass die Probleme der Inseln bereits in den 60er Jahren vorhanden waren, also weit vor der „Ausrufung“ des Klimawandels und bereits damals die (inzwischen nicht mehr) zuständige Australische Regierung Umsiedlungen erwog, vor allem auch, da die Inseln überbevölkert wurden. Und, dass wissenschaftliche Untersuchungen zur Umweltproblematik dieser Inselgruppe nicht bekannt sind.
Weiter steht dann:
„Das Defizit an wissenschaftlicher Forschung und gesicherten Erkenntnissen hat die globalen Medien keineswegs daran gehindert, die Bewohner der Carteret-Inseln zu „some of the world`s first climate-refugees“ zu stilisieren.
Fakt ist: Eine Umsiedlung erfolgte bisher nicht (2010 sollen es zwei Familien gewesen sein, eventuell auch 20 Familien zusätzlich).
Fazit: Die Angaben im Klimaatlas sind falsch. Es wurden Zeitungsmeldungen abgeschrieben.

Die Inseln Bikemann und Tebua Tarawa in Kiribati
Weitere Listung aus „Klimawandel im Pazifik“, Kapitel: Die Inseln Bikemann und Tebua Tarawa in Kiribati
Im Weltatlas des Klimawandels steht in der Rubrik „untergehende Inseln“ der Text: „Zwei unbewohnte Inseln der Inselgruppe Kiribati verschwanden 1999 unter dem gestiegenen Meeresspiegel. Die verbleibenden 33 Inseln der Gruppe mit 103.000 Einwohnern werden voraussichtlich ebenfalls untergehen“. Als Quelle geben die Autoren einen BBC-Bericht des Umweltkorrespondenten Alex Kirby vom 15. Juni 1999 an.
Fakt ist: Die „untergegangene“ Insel Bikemann sieh man heute noch. Zudem wurde 1987 ein Damm mit Straße zwischen den Inseln Bikemann und Bairiki gebaut. Dieser führte zu einer drastischen Veränderung der Strömungsdynamik und damit den wichtigen Sandablagerungen in der Lagune, welche sich vor allem auf die Insel Bikemann auswirkte. Zum Schluss legt das Kapitel klar, dass die genannten Inseln nicht einem steigenden Meeresspiegel zum Opfer fielen.

Die Inseln Tegua und Vanuatu

Weitere Listung aus „Klimawandel im Pazifik“, Kapitel: Die Inseln Tegua und Vanuatu
Im Weltatlas des Klimawandels steht: „Der Anstieg des Meeresspiegels zwang die 100 Einwohner von Tegua, einer Insel der Vanuatu-Inselgruppe, ihre Inseln im Dezember 2005 zu verlassen“.
Das Buch schreibt dazu: „…. Viel wesentlicher ist jedoch die Tatsache, dass die Schilderung der Situation der Situation auf Tegua wie sie im Weltatlas des Klimawandels wiedergegeben wird, jeder Grundlage entbehrt. Sie wurden im Rahmen eines Hilfsprojekts zur Anpassung an den Klimawandel vielmehr bei dem Vorhaben unterstützt, von der Küste weg in eine höhere Region überzusiedeln. Im Hinblick darauf ist auch die Kategorie „Verlassene Inseln“ unzutreffend   … so kann auch hier von einer dringlichen Fluchtbewegung nicht die Rede sein.
Dazu kommt noch eine ergänzende Information: „… nachdem die Inselbewohner ihre Hilfsgelder aus einem Klimafonds kassiert hatten, wollten sie nicht einmal innerhalb des Atolls auf eine höhere Geländestufe umziehen“. Eine neuere Studie weist darauf hin, dass die Probleme auf Tegua weniger mit dem Klimawandel, als vielmehr mit Erdbeben und vertikalen, tektonischen Bewegungen in der Region zu tun haben.

Quellen

[1] Mail Online 9 February 2018: ‚Sinking‘ Pacific nation Tuvalu is actually getting bigger, new research reveals

[2] BR2 11.05.2017: Fluchtgrund Klimawandel Wenn die Erderwärmung eine ganze Insel bedroht

[3] EIKE 04.11.2016: Tuvalu versinkt mal wieder– rechtzeitig zum Klimagipfel in Marrakesch

[4] kaltesonne 23. Juni 2015: Spektrum der Wissenschaft über angeblich vom Untergang bedrohte Südseeatolle: “Noch keine der betroffenen Inseln ist in nächster Zeit von Überflutung bedroht. Einige vergrößern sich sogar auf Grund natürlicher ökologischer Vorgänge”

[5] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert

[5] Basler Zeitung 01.02.2018: «Diese Forscher haben eine politische Agenda» Der Ozeanograph Nils-Axel Mörner stellt sich gegen den Weltklimarat und die Warnungen vor versinkenden Inseln.

[6] EIKE 14. Februar 2018: Meeresspiegel-Hysterie: Spekulationen vs. Fakten

[7] Nils-AxelMörner August 2017: Sea Level Manipulation; Intern. J. Engineering Science Invention, ISSN (Online): 2319 – 6734, ISSN (Print): 2319 – 6726

[8] AMS, Thomas Frederikse Department of Geoscience and Remote Sensing, Delft University of Technology, Delft, Netherlands: A Consistent Sea-Level Reconstruction and Its Budget on Basin and Global Scales over 1958–2014

[9] Climate Etc Judith Curry February 10, 2018: Sea level rise acceleration (or not): Part III – 19th & 20th century observations

[10] Buch: Der UN-Weltklimareport (2007), 1. Auflage, Verlag Kiepenheuer & Witsch, 440 Seiten, ISBN-10: 3462039601, ISBN-13: 978-3462039603, herausgegeben von Michael Müller, Ursula Fuentes und Harald Kohl

[11] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller

[12] Spektrum.de 16.02.2018: Tuvalu geht nicht unter – im Gegenteil




Stromüber­fluss ist eines der Kernpro­bleme der Energie­wende

Ein Interview der gleichen Meinungen

Jochen Homann, Präsident der Bundesnetzagentur im Gespräch mit Georg Ehring. Das sogenannte Interview handelte über den Ausbau der Energienetze, streifte dabei aber die gesamte EEG-Thematik. Interview kann man dazu eigentlich nicht sagen, denn der Redakteur gab im Wesentlichen die (offiziell bekannte) Meinung vor und der Präsident der Bundesnetzagentur ergänzte diese mit wohlwollenden Kommentaren.
Anbei das gekürzte Interview ohne Kommentierung, aber mit strukturierenden Überschriften ergänzt.
Deutschlandfunk 04.01.2018: [1] Energieversorgung in Deutschland

Vorspann: Die Stromversorgung ist gesichert

Deutschlandfunk: [1] … Die Bundesnetzagentur bemängelt einen zu langsamen Ausbau der Stromnetze. Die Stromversorgung in Deutschland sei zwar gesichert, sagte Jochen Homann, Präsident der Bundesnetzagentur … Ein Risiko gebe es jedoch bei der Netzstabilität, denn der Strom komme nicht immer da hin, wo er gebraucht werde.

Nur der „Übererfolg“ macht noch etwas Probleme

Redakteur: [1] … Es ist ziemlich windig in diesen Tagen, und für die Besitzer von Windrädern ist das eine gute Nachricht. Sie laufen auf vollen Touren, und das kann dazu beitragen, dass im gerade begonnenen Jahr 2018 Rekordmengen an Strom aus erneuerbaren Quellen produziert wird …
… Kopfzerbrechen bereiten diese Erfolge den Betreibern der Stromnetze. Sie müssen immer wieder Anlagen abregeln, weil die Netze sonst überlastet wären, und sie müssen immer häufiger Strom ins Ausland verschenken und manchmal dafür sogar noch eine Prämie zahlen, weil er im Inland nicht gebraucht wird. Negative Strompreise gab es 2017 während 146 Stunden. Dass ist rund zehnmal so viel wie 2008.
Redakteur: [1] … sind die Stromnetze an Tagen wie diesen denn überfordert?
BNetzA Präsident: [1] … Ja, es ist immer häufiger vorgekommen in den letzten Jahren schon und aktuell auch, dass die Stromnetze nicht mehr in der Lage sind, den Strom zu transportieren, der an der Börse verkauft wird. Und das ist eines der Kernprobleme im Rahmen der Energiewende.

Doch die Lage entspannt sich

Redakteur: [1] … Seit Jahren reden wir ja vom Ausbau der Netze. Wie kommt der denn voran?… „Bis 2025 sollen die großen Leitungen stehen“
BNetzA Präsident: [1] … Es geht etwas langsam … Aktuell haben wir die großen … Gleichstromübertragungsleitungen in den Verfahren drin. Wir hoffen, dass wir in diesem Jahr da den einen oder anderen Fortschritt dann haben werden.
Redakteur: [1] … Und wann wird sich die Lage entspannen? Wagen Sie da eine Prognose?
BNetzA Präsident: [1] … Die Lage wird sich dann entspannen, wenn der Stromnetzausbau weiter vorangeschritten ist, und da ist ja die Planung, dass bis zum Jahr 2025 die großen Leitungen stehen sollen. Ich hoffe, dass das gelingt.
Redakteur: [1] … Und es gibt ja dann auch Ausbaubedarf auf mittlerer Ebene, weil die Energiewende zum Teil auch dezentral läuft. Sind Sie da im Plan?
BNetzA Präsident: [1] … Auf der Spannungsebene unterhalb der Höchstspannung, in der Tat, da im Verteilnetz muss auch reichlich ausgebaut werden. Das trifft zu. Dort findet das Ganze sehr viel geräuschloser statt …

Negative Strompreise an sich sind ja nichts Schlechtes

Redakteur: [1] … Gibt es denn kurzfristige Lösungen, um negative Strompreise vermeiden zu können?
BNetzA Präsident: [1] … Erst mal, negative Strompreise an sich sind ja nicht Schlechtes, sondern sie zeigen ja eigentlich etwas an, nämlich, dass am Markt nicht genug Flexibilität im Kraftwerkspark ist. Insofern ist das schon ein wichtiges Zeichen, was da kommt. Und was natürlich getan wird, ist … Dass man versucht, die Netze zu entlasten durch verschiedenste Maßnahmen, das Ab- und Aufregeln von Kraftwerken, das Abregeln auch von Windanlagen im Notfall. Da gibt es also eine ganze Reihe von Maßnahmen, die gemacht werden.

Prinzip: Das Netz muss dem Ausbau der Erneuerbaren folgen

Redakteur: [1] … Die Forderung ist in diesen Tagen laut geworden, den Ausbau der erneuerbaren Energien zu drosseln, bis die Netze fertig ausgebaut sind?
BNetzA Präsident: [1] … Das passiert im Prinzip schon, denn natürlich muss immer gelten, dass das Netz dem Ausbau der Erneuerbaren folgen muss, und nicht umgekehrt, als Prinzip. Aber wir haben Situationen, wo das einfach nicht so funktioniert. Und deswegen hat die Politik ja schon vor über einem Jahr sogenannte Netzausbaugebiete beschlossen, das sind Gebiete, in denen der Ausbau der Erneuerbaren ein Stück weit gedrosselt wird, um dem Netzausbau die Chance zu geben, aufzuholen.
Redakteur: [1] … Besonders gefördert wurde ja in letzter Zeit der Ausbau von Offshore-Wind, also vor der Küste. Ist der auch betroffen?
BNetzA Präsident: [1] … Ja, der ist natürlich auch betroffen, aber gerade beim Offshore-Wind gilt, dass die Ausschreibungen gezeigt haben, dass dort relativ preisgünstig inzwischen Strom erzeugt werden kann. Das heißt, der Druck wird in Zukunft dann auch noch zunehmen, weil viel Windstrom kommen wird.

Die Energiewende ist schon dezentral

Redakteur: [1] … Das heißt, der Druck auf den Netzausbau wird immer stärker. Es wird ja verschiedentlich auch diskutiert, dass man die Energiewende etwas dezentraler gestalten sollte, um den Druck davon zu nehmen.

BNetzA Präsident: [1] … Die Energiewende ist, was die Erzeugung angeht, ja schon längst dezentral. Die Windräder stehen ja überall im Land und die Fotovoltaikanlagen. Aber die Schlussfolgerung, die gelegentlich daraus gezogen wird, dass dann weniger Netzausbau benötigt wird, ist schlicht falsch. Denn Strom muss ja eingesammelt werden, wenn Sie so wollen, und muss dorthin transportiert werden, wo er gebraucht wird.

Stromausfälle? Aktuell und auf Sicht nicht

Redakteur: [1] … Ist denn die Versorgungssicherheit gefährdet, weil die Netze immer ungleichmäßiger ausgelastet sind?
BNetzA Präsident: [1] … Man muss sehr aufpassen bei dieser Diskussion. Die Versorgungssicherheit im Sinne von „Haben wir genug Kapazitäten“, die Stromerzeugung ist nicht gefährdet. Wo wir ein Risiko haben, ist bei der Netzstabilität, das heißt, die Frage, kann der Strom auch immer dorthin gebracht werden, wo er gebraucht wird. Und das führt wieder zu Ihrer Anfangsfrage zurück, dass die Netze an verschiedenen Stellen stark überlastet sind, täglich die Netzbetreiber Eingriffe in den Betrieb von Anlagen machen müssen, und dies hat natürlich nicht nur Kosten zur Folge, sondern ist auch auf Dauer riskant.
Redakteur: [1] … Als Verbraucher fürchtet man Stromausfälle. Ist die Befürchtung begründet?
BNetzA Präsident: [1] … Nein, aktuell und auf Sicht nicht.

Aktuell gibt es für Stromspeicher keinen Bedarf

Redakteur: [1] … Eine Perspektivfrage: Wann werden auch mehr Stromspeicher gebraucht? Nicht nur Netze, sondern auch Speicher, und wann stehen die zur Verfügung?
BNetzA Präsident: [1] … Sie haben es angedeutet. Das ist auch aus meiner Sicht eine Perspektivfrage. Das heißt, auf Dauer und auf längere Sicht werden wir sicherlich Speicher brauchen. Aktuell gibt es dafür keinen Bedarf, zumal ja die Speicher immer nur für einen zeitlichen Ausgleich sorgen zwischen Stromnachfrage und Stromangebot. Unser Problem ist der regionale Ausgleich, und da tragen Speicher natürlich nichts dazu bei.

Fazit

Der „Präsident“ ist entweder vollkommen unbedarft und hat die „Energiewende“ noch gar nicht wirklich verstanden (im „Merkeldeutschland“ eher ein Bonus, wenn nicht gar Bedingung für höhere Positionen in Berlin, oder wahrscheinlicher: Er spielt ganz bewusst alle Probleme des EEG herunter (siehe dazu das folgende Kapitel „Koalitionsvertrag“). Im gesamten „Interview“ vermeidet er Betrachtungen zum weiteren EEG-Ausbau und der Abschaltung konventioneller (grundlastfähiger) Kraftwerke. Ob die anderen EU-Partner die EEG-Ausbaustrategie wirklich mittragen (wollen), auf die inzwischen die „Lösungen“ basieren [5], wird nicht angesprochen, die Kosten sowieso nicht.
Wie bei unseren Medien üblich, vermeidet es der Redakteur konsequent, (unangenehm) nachzufragen.

Wer sich einen Überblick verschaffen möchte, was der Präsident der Bundesnetzagentur alles (bewusst) nicht gesagt hat, aber auf Deutschland bis zum Jahr 2050 beim EEG wirklich (auch an Kosten) zukommt, sollte die BDI-Strategiestudie „Klimapfade für Deutschland“ [6] lesen und dabei über die Auswirkungen des Umbaus von Deutschland in eine grün angestrichene Energieerzeugungslandschaft nachdenken.
Rezensionen dazu:
EIKE 16. Februar 2018: Klimapfade für Deutschland (BDI-Studie) – eine erschreckende Unkenntnis hinsichtlich der Verfügbarkeit von Wind- und Solaranlagen
EIKE 01.02.2018: Den Klimaschutz vorantreiben und gleichzeitig den Industriestandort Deutschland stärken

Deutschland als „Energielandschaft“ nach 95 % Treibhausgasreduktion [6]

Ansonsten gibt es dazu genügend weitere „Literatur“:
EIKE 14.01.2018: Am Neujahrsmorgen hat sich Deutschland zum ersten Mal in der Geschichte komplett mit Ökostrom versorgt
EIKE 25. 11 2017: Der Beginn der Offenbarung – Das EEG wird 2 Billionen EUR kosten (erst mal als Anfangsbudget)

Was steht darüber im Koalitionsvertrag

Manche Leser werden sich vielleicht noch an den folgenden Artikel erinnern:
EIKE 10.08.2016: Tollhaus Berlin – Forscher sollen nachträglich die „Wissens- und Entscheidungsbasis“ für das verabschiedete 1,5 Grad Ziel suchen
Dass sich am Vorgehen – zuerst nach rein ideologischen Wünschen und Vorstellungen zu entscheiden und nachträglich verzweifelt versuchen, diese „rational“ zu begründen – praktisch nichts geändert hat, kann man im aktuellen Koalitionsvertrag nachlesen.

„kaltesonne“ hat sich die Mühe gemacht, in den Koalitionsvertrag zu sehen und zu berichten. Daraus ein stark gekürzter Auszug (bitte im Original vollständig lesen):
kaltesonne 16. Februar 2018: Die Sonne im Januar 2018 und der GroKo-Vertrag klimatisch
Der GroKo-Vertrag und Eulenspiegeleien
Da weder Einsparungen, Netze noch Digitalisierung Strom erzeugen können, ruht die Erzeugung allein auf Erneuerbaren, und in der Tat ruht sie des Nachts, was die Photovoltaik betrifft und bei Windflaute – immerhin zwei Drittel des Jahres. Aber die Lösung der Versorgung mit Flatterstrom ist in Sicht: die Bundesregierung wird eine Batteriezellproduktion (S.14) unterstützen! …
… Grund für eine Verstärkung des Zubaus in 2019 und 2020 von jeweils 4000 MW Photovoltaik und Wind (S. 71) ist die Nichterreichung der CO
2 Minderungsziele von 2020. Dann macht man zum Ausgleich ein bisschen mehr Wind. Dann folgt aber ein kluger Satz, der mit Sicherheit in keinem Jamaika-Papier gestanden hätte: „Voraussetzung ist die Aufnahmefähigkeit der entsprechenden Netze“. Da muss ein Eulenspiegel am Verhandlungstisch dabei gewesen sein, der das hereingeschmuggelt hat. Denn schon heute ist die Aufnahmefähigkeit des Netzes bei Starkwind nicht mehr gegeben. Für Redispatch- Maßnahmen oder Abregelung von Windkraftanlagen wurden im letzten Jahr rund 1 Milliarde € bezahlt. Der Netzbetreiber schaltet also Windkraftanlagen bei zu viel Wind ab, um den Zusammenbruch des Netzes zu vermeiden und der Windkraftbetreiber bekommt Geld, als ob das Windrad gedreht hätte. Die 4000 MW zusätzlicher Windenergiekapazität führen also nur dazu, dass bei Starkwind bestehende Windkraftanlagen in dieser Größenordnung abgeschaltet werden. Wie gesagt: Eulenspiegelei.
Eine Reform der Netzentgelte soll die Kosten „unter angemessener Berücksichtigung der Netzdienlichkeit verteilen“. (S.72) Wer weiß schon, worum es dabei geht? Heute bezahlen diejenigen Bürger, in deren Gegend mehr Windkraftanlagen stehen, als die Netze und der regionale Bedarf verkraften können, die Kosten der Abschaltung sowie die Kosten der Eingriffe über die Netzkosten. Das ist ein brisantes Thema in Ostdeutschland – viel Windkraft, wenig Verbrauch führt zu den höchsten Netzkosten. Brandenburg hat daher mittlerweile die höchsten Stromkosten in Deutschland. Und wenn der Ministerpräsident nicht aufpasst, entsteht dort eine explosive Stimmung durch die Zerstörung der Landschaft und der Natur, Entwertung der Grundstücke und die höchsten Stromrechnungen.
… Wie groß die Not der politisch Handelnden ist, sieht man an folgendem Prüfauftrag: „Wir werden prüfen, inwieweit zukünftig nicht mehr benötigte Kraftwerksstandorte für große thermische Speicher-Kraftwerke genutzt werden können.“ (S.73) Da will man also überschüssigen Strom nehmen, zu Wärme degenerieren (indem man die Entropie erhöht!) und über Nah-oder Fernwärmenetze zur Beheizung einspeisen. Vielen Energiefachleuten sträuben sich da die Nackenhaare.
Auf S. 73 ist dann auch das Kernstück der Klimapolitik, über das so viel berichtet wurde, nachzulesen:
„Wir werden eine Kommission „Wachstum, Strukturwandel und Beschäftigung“ unter Einbeziehung der unterschiedlichen Akteure aus Politik, Wirtschaft, Umweltverbänden, Gewerkschaften sowie betroffenen Ländern und Regionen einsetzen, die auf Basis des Aktionsprogramms Klimaschutz 2020 und des Klimaschutzplans 2050 bis Ende 2018 ein Aktionsprogramm mit folgenden Elementen erarbeiten soll:
–Maßnahmen, um die Lücke zur Erreichung des 40 Prozent-Reduktionsziels bis 2020 so weit wie möglich zu reduzieren,
–Maßnahmen, die das 2030-Ziel für den Energiesektor zuverlässig erreichen, einschließlich einer umfassenden Folgenabschätzung,
–einen Plan zur schrittweisen Reduzierung und Beendigung der Kohleverstromung, einschließlich eines Abschlussdatums und der notwendigen rechtlichen, wirtschaftlichen, sozialen und strukturpolitischen Begleitmaßnahmen und
–die finanzielle Absicherung für den notwendigen Strukturwandel in den betroffenen Regionen und einen Fonds für Strukturwandel aus Mitteln des Bundes“ …
Der oben genannte Eulenspiegel hat dann auch noch folgenden Satz reingeschmuggelt. „Die laufende Hochtemperatur-Plasmaforschung in Deutschland wollen wir angemessen finanziell absichern.“(S.35) Das wäre der erhitzten Karin Göring-Eckhardt und ihrem Hofreiter nicht durchgeflutscht. Denn dahinter versteckt sich schamhaft, aber immerhin, die Fusionsforschung in Greifswald und Garching, die weltweit exzellenteste Wirkungsstätte hunderter Forscher, die sich um die Verwirklichung der Zukunftsenergie Fusion bemühen -und das erste Plasma erfolgreich zünden konnten. Und dann gibt es noch den schönen Satz: „Wir stehen weiterhin für eine wissenschaftlich fundierte, technologieoffene und effiziente Klimapolitik“. Das weiterhin sagt alles …
Quellen

[1] Deutschlandfunk 04.01.2018: Energieversorgung in Deutschland „Ein Risiko gibt es bei der Netzstabilität“

[2] ntv Samstag, 24. Juni 2017: Kein Gepoker um Abfindungen“ Tennet warnt vor Maut für Stromtrassen
Nach jetzigem Planungsstand soll sie 2025 fertig werden, falls Klagen den Bau nicht aufhalten.

[3] BMWi: Die nächste Phase der Energiewende: Das EEG 2017

[4] BMWi: Netze fit für die Energiewende machen

[5] BMWi, Publikation: „Strom 2030 – Langfristige Trends, Aufgaben für die kommenden Jahre“

[6] BDI Studie Januar 2018: Klimapfade für Deutschland (BCG; prognos)