Wärmer oder kälter? AWI-Studie zur Klimageschichte Sibiriens der letzten 7000 Jahre gibt Rätsel auf

Die Ergebnisse der Untersuchungen gab das AWI am 26. Januar 2015 per Pressemitteilung bekannt:

Winter in sibirischen Permafrostregionen werden seit Jahrtausenden wärmer
Wissenschaftlern des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist es erstmals gelungen, mit einer geochemischen Methode aus der Gletscherforschung Klimadaten aus Jahrtausende altem Permafrost-Grundeis zu entschlüsseln und die Wintertemperatur-Entwicklung im russischen Lena-Delta zu rekonstruieren. Ihr Fazit: In den zurückliegenden 7000 Jahren ist die Wintertemperatur in den sibirischen Permafrostregionen langfristig gestiegen. Als Grund für diese Erwärmung nennen die Forscher eine sich ändernde Stellung der Erde zur Sonne, verstärkt durch den steigenden Ausstoß von Treibhausgasen seit Beginn der Industrialisierung. Die Studie erscheint als Titelgeschichte der Februar-Ausgabe des Fachmagazins Nature Geoscience und heute vorab schon einmal online.

Was bedeuten diese Resultate? Zugegeben handelt es sich um eine für Laien komplexe Thematik. Es geht um schwierige geochemische Methoden, schwer fassbare lange Zeiträume, eine behauptete Verknüpfung mit der anthropogenen Klimaerwärmung sowie Milankovic-Zyklik. All das spielt im fernen Sibirien, das vermutlich kaum einer der Leser genauer kennt. Hängenbleiben wird beim ersten Überfliegen der Pressemitteilung „Klimaerwärmung seit tausenden von Jahren, Industrialisierung, Treibhausgase“. Seht her, da ist ein weiterer Beweis für unser frevelhaftes Tun und die unaufhaltbare Klimakatastrophe in Zeitlupe. Aber nicht so schnell. Lassen Sie uns die Komponenten der Studie einzeln diskutieren und auf ihre Gültigkeit und Bedeutung überprüfen.

Langfristige Erwärmung der Winter im Verlauf der letzten 7000 Jahre

Ein übraus interessantes Resultat: Eine langfristige, natürliche Erwärmung der Winter im Untersuchungsgebiet in den letzten Jahrtausenden. Exakte Temperaturwerte können die AWI-Forscher nicht angeben, wie das AWI in seiner Pressemitteilung erläutert:

Um wie viel Grad Celsius genau die arktischen Winter wärmer geworden sind, können die Wissenschaftler nicht in absoluten Zahlen sagen: „Das Ergebnis der Sauerstoff-Isotopenanalyse verrät uns zunächst nur, ob und wie sich das Isotopenverhältnis verändert hat. Steigt es, sprechen wir von einer relativen Erwärmung. Wie groß diese allerdings genau ausgefallen ist, können wir noch nicht ohne Weiteres sagen“, erklärt Thomas Opel.

Aber es wäre sicher ganz nett gewesen, wenn eine ungefähre Temperaturabschätzung erwähnt worden wäre. Die heutigen Wintertemperaturen betragen im Lenadelta minus 30 Grad bis minus 40 Grad, wie die Encyclopaedia Brittanica weiß:

The climatic features of the Lena River basin are determined by its location, with its upper course well inside the continent and its lower course in the Arctic. In winter the powerful Siberian anticyclone (high-pressure system) forms and dominates all of eastern Siberia. Because of the anticyclone, the winter is notable for its clear skies and lack of wind. Temperatures fall as low as −60 to −70 °C, with average air temperature in January ranging from −30 to −40 °C. In July averages range between 10 and 20 °C.

Nun war es laut AWI vor ein paar tausend Jahren also noch etwas kälter, sagen wir einfach mal minus 45 Grad, nur um einen Wert zu haben. Es geht also in der ganzen Geschichte um eine Winter-„Erwärmung“ die sich von „sehr, sehr super saukalt“ hin zu „immer noch sehr super saukalt“ entwickelt hat. Bei Nennung dieser Temperaturen hätte vielleicht dem einen oder anderen Leser die Idee kommen können, dass die Winter-Erwärmung der Gegend zweitrangig ist und möglicherweise sogar ganz gut getan hätte.
Nun könnte man sagen, ja, im Winter ist die Entwicklung wohl eher weniger interessant. Wie sieht es denn im Sommer aus, wo laut Encyclopaedia Brittanica heute mit bis zu 20°C zu rechnen ist? Müssen wir hier Angst vor einer „arktischen Turboerwärmung“ haben? Die AWI-Pressemitteilung erklärt etwas verklausuliert, dass Rekonstruktionen der Sommertemperaturen eine gegenteilige Entwicklung anzeigen: In den letzten Jahrtausenden ist es in Sibirien immer kälter geworden:

Die neuen Daten sind die ersten eindeutig datierten Wintertemperaturdaten aus der sibirischen Permafrostregion und zeigen einen klaren Trend: „In den zurückliegenden 7000 Jahren sind die Winter im Lena-Delta kontinuierlich wärmer geworden – eine Entwicklung, die wir so bisher aus kaum einem anderen arktischen Klimaarchiv kennen“, sagt Hanno Meyer. Denn: „Bisher wurden vor allem fossile Pollen, Kieselalgen oder Baumringe aus der Arktis genutzt, um das Klima der Vergangenheit zu rekonstruieren. Sie aber speichern vor allem Temperaturinformationen aus dem Sommer, wenn die Pflanzen wachsen und blühen. Die Eiskeile stellen eines der wenigen Archive dar, in denen reine Winterdaten gespeichert werden“, erklärt der Permafrost-Experte.  Mit den neuen Daten schließen die Wissenschaftler zudem eine wichtige Lücke: „Die meisten Klimamodelle zeigen für die zurückliegenden 7000 Jahre in der Arktis eine langfristige Abkühlung im Sommer sowie eine langfristige Erwärmung im Winter an. Für letztere aber gab es bisher keine Temperaturdaten, eben weil die meisten Klimaarchive hauptsächlich Sommerinformationen speichern. Jetzt können wir zum ersten Mal zeigen, dass Eiskeile ähnliche Winterinformationen enthalten wie sie von den Klimamodellen simuliert werden“, so AWI-Modellierer und Ko-Autor Dr. Thomas Laepple.

Noch klarer wird es in der offiziellen Kurzfassung der Arbeit (Auszug):

Relative to the past 2,000 years12, the Arctic region has warmed significantly over the past few decades. However, the evolution of Arctic temperatures during the rest of the Holocene is less clear. Proxy reconstructions, suggest a long-term cooling trend throughout the mid- to late Holocene345, whereas climate model simulations show only minor changes or even warming67,8

Bei den genannten Literaturzitate 3 bis 5 handelt es sich um:

3. Marcott, S. A., Shakun, J. D., Clark, P. U. & Mix, A. C. A reconstruction of regional and global temperature for the past 11,300 years. Science 339, 1198_1201 (2013).
4. Vinther, B. M. et al. Holocene thinning of the Greenland ice sheet. Nature 461, 385_388 (2009).
5. Wanner, H. et al. Mid- to Late Holocene climate change: An overview. Quat. Sci. Rev. 27, 1791_1828 (2008).

Gerne hätte an dieser Stelle auch einer Arbeit einer internationalen Forschergruppe um Benoit Lecavalier von der University of Ottawa aus dem März 2013 in den Quaternary Science Reviews erwähnt werden können. Die Forscher fanden, dass sich Grönland in den letzten 8000 Jahren um etwa 2,5°C abgekühlt hat (siehe „Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute”).
Die Sommer wurden in den letzten 7000 Jahren kälter und die Winter wärmer. So kann man den aktuellen Erkenntnisstand zusammenfassen. Ursache für diesen Langzeittrend sind die Milankovic-Zyklen, die auf Veränderungen der Erdbahnparameter zurückzuführen sind. Dies sind langfristige Zyklen im Bereich von 20.000 bis 100.000 Jahre, die für die aktuelle Klimadiskussion keine große Rolle spielen. Sie sind auch die Ursache für das sogenannte mittelholozäne Klimaoptimum, als die globalen Temperaturen vor 7000 Jahren um zwei Grad höher lagen als heute.
Während die Hauptstory, nämlich die Erwärmung der sibirischen Winter in den letzten Jahrtausenden, durchaus plausibel erscheint, muss man sich doch wundern, weshalb die zeitgleiche Sommer-Abkühlung nicht besser in der AWI-Pressemitteilung herausgearbeitet wurde. Letztendlich geht es neben den Jahreszeiten doch auch darum, wie sich der Jahresmittelwert entwickelt hat. Dazu kein Kommentar vom AWI.
Zu klären wäre auch, weshalb die AWI-Presseabteilung nicht schon einige Monate zuvor aktiv geworden ist, als ein ebenfalls von Hanno Meyer angeführtes Forscherteam im September 2014 im Fachblatt Global and Planetary Change eine Studie zu Kamschatka publizierte. Die Forscher rekonstruierten die Temperaturen in der Region für die vergangenen 5000 Jahren und fanden interessanterweise einen langfristigen Abkühlungstrend. Über lange Zeiten war Kamschatka während der letzten Jahrtausende offenbar wärmer als heute, eine überraschende Erkenntnis (eine genaue Besprechung der Arbeit gibt es auf The Hockey Schtick). Das wäre eine schöne Schlagzeile geworden:

Kamschatka hat sich in den letzten 5000 Jahren abgekühlt.

Aber offenbar war dem AWI diese Schlagzeile zu heiß. Beim weiteren Stöbern wird man das böse Gefühl nicht los, dass man in der AWI-Pressestelle bewusst Studien ausspart, die nicht so recht in die Klimakatastrophengeschichte zu passen scheinen. Bereits im Mai 2013 waren erste Ergebnisse zum Kamschatka-Projekt in den Quaternary Science Reviews publiziert worden, zu denen die Öffentlichkeitsabteilung des AWI keinen Mucks machte (siehe unseren Blogbeitrag „Überraschende Forschungsergebnisse des AWI aus dem subarktischen Kamtschatka: In den letzten 4500 Jahren war es bis zu 4 Grad wärmer als heute”). Die unheimliche Serie setzte sich im September 2013 fort, als im Fachmagazin Palaeogeography, Palaeoclimatology, Palaeoecology  eine AWI-Studie eines internationalen Forscherteams um Juliane Klemm erschien. Auch diese Forschergruppe hatte Unerhörtes herausgefunden, etwas was man auf keinen Fall mit der Presse teilen wollte (siehe unseren Blogbeitrag: „Neue AWI-Studie: Heutige Sommertemperaturen in der sibirischen Arktis unterscheiden sich kaum von denen der letzten Jahrtausende”).

Was hat nun die Klimakatastrophe mit all dem zu tun?

Zurück zum aktuellen Paper über das Lena-Delta. Die Erwärmung der Wintertemperaturen in den letzten 7000 Jahre mag interessant sein, ist aber lediglich die Hinleitung zur eigentlichen „Pointe“ der Studie, nämlich, dass der menschengemachte Klimawandel der letzten 150 Jahre die Wintertemperaturen im Studiengebiet nach oben gejagt hätte. In der AWI-Pressemitteilung liest sich das so:

Deutliche Hinweise fanden die Wissenschaftler bei der Suche nach den Ursachen der Erwärmung. Hanno Meyer: „Wir sehen in unserer Kurve eine klare Zweiteilung. Bis zum Beginn der Industrialisierung um das Jahr 1850 können wir die Entwicklung auf eine sich ändernde Position der Erde zur Sonne zurückführen. Das heißt, damals haben die Dauer und Intensität der Sonneneinstrahlung von Winter zu Winter zugenommen und auf diese Weise zum Temperaturanstieg geführt. Mit dem Beginn der Industrialisierung und dem zunehmenden Ausstoß von Treibhausgasen wie Kohlendioxid aber kam dann noch der vom Menschen verursachte Treibhauseffekt hinzu. Unsere Datenkurve zeigt ab diesem Zeitpunkt einen deutlichen Anstieg, der sich wesentlich von der vorgegangenen langfristigen Erwärmung unterscheidet.“

Leider versäumt es das AWI, der Pressemitteilung die Temperaturkurve bzw. die Isotopen-Proxy-Kurve beizufügen. Wie muss man sich diesen „deutlichen Anstieg“ im Detail vorstellen? Stattdessen werden der Presse stimmungsvolle Expeditionsfotos angeboten. Das schönste hiervon wollen wir auch hier im Blog nicht vorenthalten (Abbildung 1).
Abbildung 1rechts oben:. Die Wissenschaftler Alexander Dereviagin, Dr. Thomas Opel und Dr. Hanno Meyer (v.l.) machen eine kurze Mittagspause. Foto: Volkmar Kochan/rbb. Quelle: AWI.
Wirklich ein schönes Foto. Aber trotzdem wäre die Kurve doch um einiges informativer gewesen. Wir schauen daher in die Originalpublikation, wo die gesuchte Kurve abgedruckt ist (Abbildung 2).

Abbildung 2: Winter-Temperaturentwicklung des sibirischen Lena-Deltas während der letzten 8000 Jahre auf Basis von Sauerstoffisotopenmesssungen an Eiskeilen. Abbildung aus Meyer et al. 2015.
Der langfristige Winter-Erwärmungstrend ist gut erkennbar. Ganz am Ende der Kurve, in der industriellen Phase ab 1850, springen die letzten drei Datenpunkte steil nach oben. Offensichtlich handelt es sich um einen Nachfahren der berühmten Hockeystick-Kurve. Nie waren die Sauerstoff-Isotopenwerte höher als in den letzten anderthalb Jahrhunderten.
Es drängen sich sogleich einige wichtige Fragen auf:
–Spiegelt die Isotopenkurve tatsächlich die Temperaturen wieder? Isotopenverschiebungen können vielerlei Gründe haben und müssen nicht unbedingt Temperaturen abbilden. In vielen Fällen sind Niederschlagsänderungen Hauptkontrollfaktor für Veränderungen der Sauerstoffisotopen.
–Gibt es andere Winter-Temperaturrekonstruktionen aus der Region, die den behaupteten Verlauf mit anderen Methodiken betätigen könnten?
– Wie sehen die real gemessenen Winter-Temperaturen sowie Jahresmittelwerte des Lena-Delta-Gebiets für die letzten 150 Jahre aus?
Schauen wir uns hierzu die GISS-Temperaturkarte des New Scientist an, in welcher der Temperaturverlauf in der Lenadelta-Region für die vergangenen 130 Jahre angegeben ist (Abbildung 3). Fazit: Ja es ist wärmer geworden, so wie in fast allen Teilen der Erde nach Beendigung der Kleinen Eiszeit. Dabei fiel die Wiedererwärmung in den arktischen Gebieten stärker aus als zum Beispiel in den Tropen. Soweit ist das Resultat also nachvollziehbar.

Abbildung 3: GISS-Temperaturverlauf der Lenadelta-Region für die vergangenen 130 Jahre. Quelle: New Scientist.
Nun wissen wir aber leider auch, dass die GISS-Datenbank lange vom bekennenden Klimaaktivisten James Hansen geführt wurde und die Temperaturrohdaten arg nachbearbeitet wurden. Daher schauen wir lieber auf einen Rohdatensatz des Ortes Tiksi, der seit 1936 Messdaten liefert. Die Daten stammen aus dem BEST-Projekt der University of California in Berkeley, sollten also relativ vertrauenswürdig sein (Abbildung 4). Der Ort Tiksi ist auf der Landkarte in Abbildung 3 eingezeichnet.
Die Überraschung ist groß: Der im GISS-Datensatz dargestellte starke Erwärmungstrend ist in den Originaldaten kaum zu erkennen. Anstatt einer GISS-Erwärmung von 2 Grad pro Jahrhundert verzeichnet BEST lediglich eine Erwärmungsrate von etwa 0,5 Grad nach Qualitätsüberprüfung.

Abbildung 4: Temperaturdaten der Wetterstation Tiksi im Lena-Delta laut BEST-Projekt.
Die wirkliche Frage muss jedoch sein, auf welchem Niveau sich die Temperaturen während der Mittelalterlichen Wärmeperiode (MWP) im Lena-Delta bewegten. In einer zusammenfassenden Darstellung zur MWP für den asiatischen Teil Russlands auf co2science.org stoßen wir bei unseren Recherchen auf eine Veröffentlichung von Matul et al., die 2007 im Fachblatt Oceanology erschien. CO2 Science fasst die Ergebnisse der Arbeit wie folgt zusammen:

What was done
The authors studied the distributions of different species of siliceous microflora (diatoms), calcareous microfauna (foraminifers) and spore-pollen assemblages found in sediment cores retrieved from 21 sites on the inner shelf of the southern and eastern Laptev Sea, starting from the Lena River delta and moving seaward between about 130 and 134°E and stretching from approximately 71 to 78°N, which cores were acquired by a Russian-French Expedition during the cruise of R/V Yakov Smirnitsky in 1991.
What was learned
In the words of the five Russian researchers, this endeavor revealed “(1) the warming at the beginning of the Common Era (terminal epoch of the Roman Empire) during ~1600-1900 years BP; (2) the multiple, although low-amplitude, coolingepisodes at the beginning of the Middle Ages, 1100-1600 years BP; (3) the Medieval Warm Period, ~600-1100 years BP; (4) the Little Ice Age, ~100-600 years BP, with the cooling maximum, ~150-450 years BP; and (5) the ‘industrial’ warming during the last 100 years.”
What it means
“Judging from the increased diversity and abundance of the benthic foraminifers, the appearance of moderately thermophilic diatom species, and the presence of forest tundra (instead of tundra) pollen,” Matul et al. conclude that “the Medieval warming exceeded the recent ‘industrial’ one,” and that “the warming in the Laptev Sea during the period of ~5100-6200 years BP corresponding to the Holocene climatic optimum could be even more significant as compared with the Medieval Warm Period.” Once again, therefore, we have another example of a paleoclimate study that challenges the contention of Hansen et al. (2006) that “probably the planet as a whole” is “approximately as warm now as at the Holocene maximum.”

Die Autoren um Matul rekonstruierten also mithilfe von Mikroorganismen die holozäne Klimageschichte des Lena-Deltas und der vorgelagerten Laptevsee. Matul und Kollege fanden dabei für die vergangenen 2000 Jahre die bekannte Millenniumszyklik bestehend aus Römischer Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlicher Wärmeperiode, Kleiner Eiszeit und Moderner Wärmeperiode. Interessanterweise war die Mittelalterliche Wärmeperiode offenbar deutlich wärmer als heute. Zudem war das mittelholozäne Klimaoptimum im Untersuchungsgebiet vor 6000 Jahren sogar noch wärmer.
Nun wundert es doch sehr, dass die AWI-Gruppe diese wichtige Arbeit in ihrer neuen Lena-Delta Arbeit mit keiner Silbe erwähnt. Selbst wenn Matul et al. wohl überwiegend Sommertemperaturen rekonstruiert haben, hätte die Arbeit doch auf jeden Fall Berücksichtigung finden müssen. Sind die Sommertemperaturen nicht vielleicht viel wichtiger als die sowieso unterkühlten Winterwerte?
Bill Illis konnte in einer Diskussion zum AWI-Paper auf WUWT zeigen, dass die AWI-Autoren zwei möglicherweise wichtige Datenpunkte aus der Betrachtung ausschlossen (Abbildung 5). Einer davon zeigte während der Römischen Wärmeperiode eine bedeutende Winter-Erwärmung an, die sich etwa auf heutigem Temperaturniveau bewegte. Der Wert wurde unter Hinweis auf „oberflächennahe Kontaminierung“ aus dem Rennen geschmissen und in der Auswertung ignoriert.

Abbildung 5: Plot der Temperatur-Proxy-Wert aus Meyer et al. 2015, mit zwei zusätzlichen Werten, die die Autoren wegen „möglicher Kontaminierung“ verworfen hatten. Plot: Bill Illis/WUWT.

Unterm Strich

Was bleibt unterm Strich? Eine paläoklimatologische Studie findet eine unerwartete Entwicklung, die sogleich als Beleg für die drohende Klimakatastrophe missbraucht wird. Wichtige anderslautende Befunde aus der gleichen Region sowie andere AWI-Arbeiten werden totgeschwiegen. Der auffällige Hockeyschläger-Charakter der approximierten Temperaturentwicklung lässt die Alarmglocken schrillen: Ist die verwendete Methodik zuverlässig? Weshalb wurden möglicherweise wichtige Datenpunkte bei der Bearbeitung ignoriert? Wie wichtig ist die ultrakalte Wintertemperaturentwicklung wirklich im Vergleich zum Sommerverlauf? Weshalb können andere Messreihen und Temperaturrekonstruktionen den rasanten Hockeyschläger-Anstieg nicht reproduzieren? Immerhin geben sich die AWI-Forscher ergebnisoffen, wie sie in der Pressemitteilung betonen:

In einem nächsten Schritt wollen die Forscher nun überprüfen, ob dieselben Anzeichen für eine langfristige Winter-Erwärmung der Arktis auch in anderen Permafrostregionen der Welt zu finden sind. Thomas Opel: „Wir haben Daten aus einem Gebiet 500 Kilometer östlich des Lena-Deltas, die unsere Ergebnisse stützen. Wir wissen allerdings nicht, wie es zum Beispiel in der kanadischen Arktis aussieht. Wir vermuten, dass die Entwicklung dort ähnlich ist, belegen aber können wir diese Annahme noch nicht.“

Siehe auch den Blog-Beitrag „Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen
Zuerst erschienen bei "Die kalte Sonne" hier




85 PROZENT FEHLZEIT – WINDKRAFTANLAGEN SIND FAULPELZE

In den folgenden Abbildungen ist die installierte Kapazität, d.h. die kumulierte Nennleistung aller deutschen Windkraftanlagen, als hellblaue Hintergrundfläche dargestellt. Wie unschwer zu erkennen ist, wurde diese kontinuierlich ausgebaut – es wurden immer mehr Anlagen aufgestellt. Darin besteht der gefeierte “Rekord”.
Die dunkelblaue Vordergrundflläche gibt die tatsächlichen Einspeisungen wieder. Wie ebenfalls unschwer zu erkennen, ist die Windkraft extrem volatil. An einigen Viertelstunden des Jahres liefern alle rund 25.000 Anlagen viel, an anderen zusammen fast nichts.
Nicht im Ansatz ist eine Sockelbildung – also eine Art verlässliche Mindestgröße im Sinne einer Grundlastabdeckung – erkennbar. Der Grundsatz “viel hilft viel” gilt ganz offenkundig nicht. Dass dieser auch künftig nicht gelten wird, haben wir hier mathematisch bewiesen. 
 
Das gesamte Jahr 2014.

Januar-April

Mai-August

September – Dezember
Abgesehen von der partout nicht geringer werden wollenden Volatilität/Erratik der Einspeisung, sprich der Qualität der Stromlieferung,  ist auch die Menge des produzierten Stroms frappierend gering: Die durchschnittliche Einspeisung (arithmetisches Mittel) beträgt über alle 25.000 Anlagen hinweg gerade einmal 14,8 Prozent der Nennleistung.  

Die ehrlichen Zahlen.
Man stelle sich vor, eine Consulting Agentur rät einem international erfolgreichen Unternehmen, eine “Beschäftigungswende” durchzuführen. Das Konzept sieht vor, die Stammbelegschaft sukzessive durch sogenannte Fair-Arbeiter zu ersetzen. Den Fair-Arbeitern wird nämlich nachgesagt, dass sie sozial vorteilhaft sind.
Per Einstellungserleichterungsgesetz (EEG) wird festgelegt, dass die Fair-Arbeiter – einmal eingestellt – stets den vollen  Lohn bekommen, egal, ob sie arbeiten oder nicht. Allerdings ist ihre Arbeitsmoral von Wankelmut und Faulheit geprägt. Mal kommen sie fast pünktlich und “klotzen richtig ran”, mal kommen sie tagelang gar nicht. Es muss also stets ein Kollege aus der Stammbelegschaft auf Abruf bereit stehen, um die Fehlzeiten des gut bezahlten Drückebergers zu ersetzen.
Zehn Jahre später feiert die Unternehmensleitung zusammen mit den Consultants und der Gewerkschaft der Fair-Arbeiter, dass in 2014 so viele Fair-Arbeiter wie nie zuvor unter Vertrag genommen wurden – wobei die beschriebenen Konditionen auf 20 Jahre fixiert sind.
Die unabhängige Analyse eines Arbeitsmarktforschers ergibt nun, dass die Fair-Arbeiter über das Rekordjahr hinweg 14,8 Prozent der tariflichen Arbeitszeit im Dienst waren. Die “Lastesel der Beschäftigungswende” arbeiteten also deutlich weniger als eine Ein-Tage-Woche. 
Wenn dieses Unternehmen Deutschland heißt, so heißen die Fair-Arbeiter Ökostromanlagen, die Consulting Agentur AGORA und die Gewerkschaft Bundesverband Windenergie – wobei sich die Gründer der Consulting-Agentur mittlerweile in der Geschäftsführung des Unternehmens eine einflussreiche Position gesichert haben. 
Wem diese Analogie zu weit hergeholt ist, dem sei der Sachverhalt anhand eines vom zuständigen Bundesminister gern gebrauchten Verweises auf die Tierwelt illustriert:
Bundesminister Gabriel, der mit vielen Äußerungen bereits sehr richtig lag, irrt nämlich vollkommen, wenn er die Windkraft als “Lastesel der Energiewende” preist. Zoologisch zutreffender sind die Subventionspropeller mit dieser Spezies gleichgesetzt: Windkraft – das Faultier der Energiewende




Hatte das IPCC schon immer Recht?

Es drängt sich die Frage auf, warum im Jahre 2015 eine Begründung für die Richtigkeit von Klimamodellen aus den 90er Jahren des vergangenen Jahrhunderts veröffentlicht werden muss und man nicht einfach weiterentwickelte Klimamodelle vorstellt, die stattdessen die jüngere Vergangenheit zutreffend abbilden und einen verbesserten Blick in die Zukunft erlauben.
o Weil das IPCC schon immer Recht hatte?
o Geht es hier um die klimapolitisch existenzielle Frage nach der Unfehlbarkeit?
o Kann das IPCC tatsächlich ein Primat über das globale Klimageschehen beanspruchen?
Die Geschichte hat gezeigt, dass die Entwicklung der Wissenschaften niemals abschließend für beendet erklärt werden kann. Auch die mittelalterliche Kirche konnte die historische Entwicklung der Wissenschaften und damit die Abspaltung eines wissenschaftlichen Weltbildes von ihrer in sich geschlossenen Lehrmeinung schließlich nicht verhindern. Am Ende dieser Entwicklung stehen heute zwei völlig unvereinbare Weltsichten, zwischen denen ein Austausch von Erkenntnissen gar nicht mehr stattfinden kann.
Die modernen Wissenschaften konnten sich nur auf ihren aktuellen Stand entwickeln, weil der fortlaufende wissenschaftliche Erkenntnisprozess immer einen Nettogewinn an Wissen erzielt hat. Die Wissenschaft ist dynamisch, auf eine permanente Weiterentwicklung ausgelegt und kann niemals fertiggestellt werden. Die Gesellschaft finanziert die Wissenschaft und garantiert ihr die Freiheit von Forschung und Lehre. Es liegt dafür in der Verantwortung der Wissenschaft, der Gesellschaft aufrichtige und ungefilterte wissenschaftliche Erkenntnisse zurückzugeben. Das Paradoxon der institutionalisierten Klimaforschung ist daher heute die implizite oder explizite Forderung nach einem „Ende der Diskussion“, die den iterativen wissenschaftlichen Erkenntnisprozess negiert und jede weitere Entwicklung in der Klimaforschung kategorisch ausschließen will. Das läuft im Ergebnis aber auf die Verkündung eines statischen Glaubens an die Klimakatastrophe hinaus. Ein Galileo Galilei würde darin vermutlich deutliche Parallelen zur Inquisition seiner mittelalterlichen Kirche erkennen, und tatsächlich finden sich hier denn auch sämtliche Elemente, die eine religiös geprägte Weltanschauung ausmachen:
o Die Heilslehre von einer dekarbonisierten Weltgemeinschaft,
o die Bedrohung durch ein klimatisches Höllenfeuer
o und ein CO2-Ablass, mit dem sich der Gläubige von seiner persönlicher Emissionsschuld frei kaufen kann.
Die eigentliche Frage lautet also, wie sich die politisch korrekte Klimaforschung überhaupt in ein geschossenes Glaubensgebäude zurückziehen konnte. Gehen wir einmal ganz an den Anfang zurück. Wenn der Mensch unvermittelt einer Gefahr gegenübersteht, hier also der Anstieg des CO2-Gehaltes der Luft und ein befürchteter Anstieg der globalen Durchschnittstemperatur, dann ist es, evolutionär gesehen, sicherlich erfolgreicher, diese Gefahr zunächst einmal zu überschätzen. Alle, die sich in der Menschheitsgeschichte anders verhalten haben, dürften damit auch ihre statistische Überlebenschance verringert haben. Es setzt sich dann ein Erkenntniszyklus in Gang, um diese unbekannte Gefahr zu überwinden:
o Übersicht gewinnen: Einfache Plausibilitäten bestimmen und Gesetzmäßigkeiten ableiten.
o Maßnahmen ergreifen: Einen Maßnahmenkatalog und eine Prioritätsliste erstellen und abar-beiten.
o Prüfung und Anpassung der Maßnahmen: Stimmen die Gesetzmäßigkeiten und greifen die Maßnahmen?
Ein solcher iterativer Zyklus wiederholt sich dann, bis als Ergebnis dieses Warnprozesses eine Problemlösung erzielt wird oder eine Entwarnung stattfindet. Zunächst tritt also die Überhöhung einer unbekannten Gefahr ein, die sich dann für gewöhnlich im Verlauf zunehmender Erkenntnisse auf eine realistische Einschätzung reduziert. Und am Ende gibt es für ein Warnsystem nur zwei alternative Endstadien, den Übergang in ein Lösungssystem (=Konvergenz) oder einen Niedergang (=Divergenz), der dann gewisse innere Widerstände mit sich bringen mag. In der Klimadiskussion gilt heute offenbar, dass alarmistische Erkenntnisse, beispielsweise die ominöse Hockeystick-Temperaturkurve, trotz ihrer Widerlegung irgendwie in der Argumentationskette verbleiben und entwarnende Erkenntnisse, beispielsweise der Svensmark-Effekt, vom Klima-Mainstream grundsätzlich ignoriert, marginalisiert oder gar bekämpft werden.
Wie kommt es zu diesem eigenartigen Beharrungsvermögen des Klima-Mainstreams? Schauen wir uns einmal die Beteiligten an, um zu verstehen, wo sich hier Trägheitsmomente gegen eine Divergenz des Warnsystems aufgebaut haben könnten:
·       Die Protagonisten einer Klimakatastrophe haben gut bezahlte und sichere Arbeitsplätze in Behörden und Forschungseinrichtungen, ungeahnte Forschungsbudgets, modernste Hochleistungscomputer und höchste Aufmerksamkeit in Politik und Öffentlichkeit gefunden.
·       Politik, Industrie, Medien, NGOs und Einzelpersonen mit unterschiedlichsten Motivationen sehen durch planwirtschaftliche Maßnahmen gegen eine Klimakatastrophe ihre eigenen säkularen Ziele befördert.
·       Eine „schweigende Mehrheit“, die wirtschaftlich für alle Forschungsbudgets und Klimaschutzmaßnahmen aufkommt, sich aber keine unabhängige Meinung über das Problem bilden kann und in die staatlichen und wissenschaftlichen Institutionen vertrauen muss.
Die vorstehend Erst- und Zweitgenannten profitieren also ganz erheblich von diesem Warnsystem, und offensichtlich hat sich daraus inzwischen ganz zwanglos eine „Große Koalition zur Rettung der Welt“ formiert. Eine klare Trennung von primären und säkularen Zielsetzungen scheint hier nämlich schon deshalb nicht mehr möglich zu sein, weil durch personelle Überschneidungen zwischen wissenschaftlicher Forschung, politischer Beratung und NGOs eine globale Klima-Lobby entstanden ist, die mit ihrem monokausalen CO2-Klimatismus gleichzeitig das Problem und seine Lösung propagiert. Die Zielgruppe „schweigende Mehrheit“ kann deshalb auch gar nicht mehr erkennen, in welcher Funktion ihr einzelne Vertreter dieser Lobby tatsächlich gegenübertreten. Bei einer derart unklaren Beratungslage und den exorbitanten Kosten für die angestrebte Energiewende würde Otto Normalverbraucher im täglichen Privatleben jedenfalls sofort einen unabhängigen Sachverständigen hinzuziehen…
Das Klima-Warnsystem hat sich durch seine Verflechtungen mit Säkularinteressen inzwischen zu einer statischen Weltanschauung entwickelt, in der wesentliche gesellschaftliche und wissenschaftliche Kontrollfunktionen gar nicht mehr wahrgenommen werden können. Im Gegenteil, der Klima-Mainstream bedient sich in seiner ideologischen Auseinandersetzung mit entwarnenden Einzelerkenntnissen zunehmend einer abwehrenden medialen Inquisition gegen deren Erkenntnisträger, anstatt aktiv eine wissenschaftliche Überprüfung und gegebenenfalls Einbeziehung solcher Erkenntnisse in sein Paradigma zu betreiben. Üblicherweise spielen sich wissenschaftliche Auseinandersetzungen nämlich nicht auf der Ebene von beweis- oder widerlegbaren Einzelerkenntnissen ab, sondern auf einer Metaebene der Lösungssysteme oder Paradigmen. Je geringer die Summe der gesi-cherten Erkenntnisse ist, umso größer ist die Anzahl der möglichen Paradigmen. In einem normalen wissenschaftlichen Erkenntnisprozess steigt die Summe der Einzelerkenntnisse kontinuierlich an und damit wird gleichzeitig auch die Zahl der plausiblen Paradigmen reduziert. Am Ende eines solchen wissenschaftlichen Erkenntnisprozesses bleibt schließlich ganz zwanglos ein einziges Paradigma übrig, das sich dann als gesicherte Lehrmeinung bezeichnen darf.
Um nun seinen verfrühten Lösungsansatz zu verteidigen, fordert der weltanschaulich geprägte Klima-Mainstream in einem fundamentalistischen Alleinvertretungsanspruch eben diese Lehrmeinung für seinen von neueren Erkenntnissen bedrohten CO2-Klimatismus ein, während er die jüngere Klimaentwicklung seit 1850 einfach von den natürlichen Klimaschwankungen der paläoklimatischen Vergangenheit abkoppelt. Die gesellschaftlich verantwortliche Aufgabe der Klimawissenschaft wäre es aber gewesen, den iterativen Erkenntnisprozess über unsere Klimagenese weiter voranzutreiben und damit die Anzahl der plausiblen Paradigmen auf das Gesamtbild einer wirklichen Lehrmeinung hin zu reduzieren.
Der iterative wissenschaftliche Erkenntnisprozess über die Ursachen der vorhergesagten Klimakatastrophe wurde also offenbar von einer ganz zwanglos entstandenen globalen Klima-Koalition vorzeitig außer Kraft gesetzt, und zwar zugunsten der überstürzten Einführung eines monokausalen CO2-Klimatismus. Nutznießer sind in erster Linie weltanschauliche und wirtschaftliche Säkularinteressen, die jetzt in den westlichen Industrienationen auf Kosten der Allgemeinheit und unserer Marktwirtschaft umgesetzt werden. Während sich die Schwellenländer gegen eine solche Entwicklung heftig zur Wehr setzen, um den eigenen Lebensstandard weiter steigern zu können, spielen dabei die Interessen der Dritten Welt, subsummiert unter dem Stichwort E10, überhaupt keine Rolle mehr.
Am Ende dieser Betrachtung könnte man schließlich dem Eindruck erliegen, bei der prophezeiten Klimakatastrophe handele es sich um eine moderne Weltuntergangsideologie mit kaufkraftgetriebenen Betroffenheiten.
—————————
Uli Weber ist Geophysiker und Autor des Buches ”Klimahysterie ist keine Lösung”, das bei BOD für € 18,50 erhältlich ist.
Zuerst erschienen bei Die kalte Sonne
  




Offshore-Windkraft: Eine Grafik killt die Märchenstunde

Leider fragte offenbar keiner der Medienvertreter, ob denn diese neuen Offshore-Anlagen auch tatsächlich Strom abliefern.  Für den Netzanschluß der Nordseeanlagen ist der Netzbetreiber TenneT verantwortlich. Daher ist es relativ einfach, sich einen Überblick über die Nordseeanlagen zu verschaffen (Die Windenergie Offshore wird sowohl in der Nordsee, als auch in der Ostsee betrieben, die Anlagen in der Ostsee werden hier nicht betrachtet).
Ich lade in monatlichen Abständen das Anlagenregister aktuell herunter. Hieraus kann man die Offshoreanlagen herausfiltern und eine Zeitreihe mit der kumulierten Nennleistung bilden. Dies wird in der grünen Fläche dargestellt. Ab dem veröffentlichten Datum der Inbetriebnahme haben die Betreiber, nach meinem Stand der Erkenntnis nach einen Anspruch auf Vergütung, auch wenn die Energie nicht in das Netz eingespeist werden kann. Aus welchem Topf dies geschieht, ( Offshore-Haftung oder EEG-Konto) kann ich nicht beurteilen. Die Einspeiseleistung der Windenergie Offshore werden von mir Dunkelblau dargestellt.
Diese beiden Zeitreihen, optisch übereinander gelegt, zeigen meiner Einschätzung nach große technischen Probleme in der Nordsee, die, so wie es scheint, bisher nicht gelöst sind.  Dividiert man die Einspeiseleistung ( blau) durch die Nennleistung (grün) erhält man einen Leistungsäquivalent, das darstellt, wieviel Prozent der Nennleistung tatsächlich in das Netz geliefert wurden. Der lineare Trend zeigt eine negative Tendenz in Richtung 20 Prozent der Nennleistung. Will sagen: Trotz der 2014 massiv gestiegenen Kapazität der Anlagen, wird am Ende des Jahres kaum mehr Strom geliefert als am Anfang. Nur ein Fünftel der installierten Leistung wird tatsächlich bereitgestellt.
Hieraus ziehe ich folgende Schlüsse. Erstens: Es gibt Probleme mit der Anlagentechnik der Offshoreanlagen. Hier können Fundamentunterspülungen, Korrosion, Überlastung der Anlagentechnik oder ein Mix dieser Ursachen zu Ausfällen der Anlagen führen.
Zweitens: Scheinbar hat man die Problem der HGÜ-Technik (Hochspannungsgleichstromübertragungsleitung) nach wie vor nicht im Griff, da sich scheinbar komplette Windparke vom Netz trennen. Deshalb sollte man sich fragen, ob eine Umsetzung der Stromautobahnen zur Zeit ein Vabanquespiel für die deutsche Energieversorgung darstellt.
Rolf Schuster ist als Betriebsmittelkonstrukteur tätig. In seiner Freizeit hat er begonnen eine Windkraft-Datenbank anzulegen, um die Behauptungen der Windkraft-Lobby überprüfen zu können. Mittlerweile werden seine Grafiken auch von der Fachwelt beachtet.
Übernommen von ACHGUT hier




Analyse der Leitgrafik im IPCC Synthesis Report, SYR-AR5 und der Trend zu Alarmismus beim IPCC

von Albrecht Glatzle
Der Leitgrafik des 5. Sachstandsberichts des IPCC AR5 ist nachfolgende Abbildung (Fig SPM.5b) aus dem Synthesis-Report 2014 (http://ipcc.ch/report/ar5/syr/). Diese Abbildung erscheint in diversen Kombinationen und Modifikationen im genannten Synthesis Report insgesamt 4-mal (Fig. SPM5; Fig. SPM10; Fig. 2.3; Fig. 3.1). Es ist auffällig, dass diese Abbildung den beobachteten, bzw. erwarteten anthropogenen Temperaturanstieg als Funktion der kumulativen CO2-Emissionen seit Beginn der industriellen Revolution darstellt und die daraus folgenden CO2-Konzentrationen mit den entsprechenden Fehlerbereichen nur in Form verschiedenfarbiger Ellipsen angibt. Diese Darstellung ist ungewöhnlich, da fast niemand mit kumulativen CO2-Emissionen umgeht, aber jeder interessierte Laie die diversen modellierten Abhängigkeiten zwischen CO2-Konzentration und proklamiertem Temperaturanstieg kennt.

From IPCC: Climate Change 2014 Synthesis Report

 

 


Macht man sich die Mühe, oben genannte Abbildung (Fig. SPM5b) in eine Temperatur-CO2-Konzentrations-Beziehung zu setzen, indem man die den Ellipsenzentren zugehörigen Temperaturwerte abliest und gegen die mittleren CO2-Konzentrationen, die den Ellipsen zugeordnet wurden, aufträgt, erhält man folgende Abbildung 1 (Kurve 1, blau: Werte abgelesen aus Fig. SPM5b).

Abb. 1: Erwarteter bzw. angeblich beobachteter Temperaturanstieg in Anhängigkeit von der CO2-Konzentration mit logarithmischer Kurvenanpassung (schwarze Linien).
1. (Blau) Werte wurden in Fig. SPM5b abgelesenen. 2. (Kastanienbraun) Nur die Werte für 280 und 400 ppm wurden aus Fig. SPM5b übernommen, die einem anthropogenen Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung entsprechen, und logarithmisch extrapoliert. 3. (Türkis) Logarithmische Fortschreibung eines angenommenen anthropogen bedingten Temperaturanstiegs von 0,6ºC seit Beginn der Industrialisierung (vom IPCC in Fig. 1.10, SYR-AR5 als wahrscheinlichster Wert dargestellt). 

Tab. 1: Klimasensitivität und CO2-Konzentration bei Erreichen des 2-Grad-Ziels bei logarithmischer Fortschreibung der angenommenen, seit Beginn der Industrialisierung anthropogen verursachten Erwärmung (bzw. in Abhängigkeit des in Fig. SPM5b dargestellten IPCC-Szenarios).

Szenario

Anthropogener

Temp.-Anstieg seit 1880 (ºC)

Klimasensitivität: (Temp.-Anstieg bei CO2-Verdopplung)

ppm CO2 bei Erreichen des 2ºC-Grad-Ziels

IPCC, Abb. 1; Fall 1

0,73

2.21

534

Abb. 1; Fall 2

0,73

1.42

744

Abb. 1; Fall 3

0.6

1.17

919

Non-IPCC- Autoren

0.3

0.58

3019

Bei der blauen Kurve in Abb. 1, die aus den aus FigSPM5b abgelesenen Werten rekonstruiert wurde, fallen 3 Dinge auf:
1)    Das IPCC hat eine exponentielle Phase des Temperaturanstiegs eingebaut zwischen 400 und 450 ppm. Nichts aber auch gar nichts (außer einem vom IPCC beabsichtigten Alarmismus) spricht dafür, dass die Temperatur exponentiell mit der CO2-Konzentration ansteigt (siehe auch Punkt 3 dieser Auflistung) – und dies ausgerechnet in den kommenden 3 Jahrzehnten, in denen wir uns voraussichtlich der 450 ppm-Marke nähern werden. Hat das IPCC die ungewöhnliche Darstellung aus Fig. SPM5b gewählt, um den konstruierten völlig unbegründeten exponentiellen Schlenker nach oben zu kaschieren?
2)    In genannter Abbildung (Fig. SPM5b) geht das IPCC von einem anthropogen verursachten Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung aus (begleitet von einem CO2-Anstieg von 280 auf 400 ppm). Dieser Wert ist mit sehr hoher Wahrscheinlichkeit deutlich zu hoch gegriffen. Er entspricht der Differenz zwischen dem lt. IPCC beobachteten Temperaturanstieg seit 1880 von 0,85ºC, was nach Ansicht diverser Autoren auch zu hoch gegriffen ist, und dem untersten Zipfel des Konfidenzintervalls der „natural forcings“ in Fig. 1.10 SYR-AR5 (Global Average: Land and ocean surface). Der wahrscheinlichste Wert für den menschengemachten Anteil dieser Erwärmung ist laut IPCC (Fig. 1.10 SYR-AR5) 0,6ºC, was der Differenz von 0,85ºC Gesamterwärmung abzüglich der wahrscheinlichsten Erwärmung aufgrund „natural forcings“ (Mitte des Konfidenzintervalls in Fig. 1.10) von 0,25ºC entspricht. Gehen wir also in Übereinstimmung mit dem IPCC von dem Erwartungswert einer anthropogen verursachten Erwärmung von 0,6ºC seit Beginn der Industrialisierung aus, dann erreichen wir die 2-Grad-Erwärmung nicht schon bei einer CO2-Konzentration von 534 ppm (Tab. 1 und Kurve 1 mit blauen Werten in Abb. 1), sondern erst bei 919 ppm (Tab. 1 und Kurve 3 (türkis) in Abb1). Selbst wenn wir nur den vom IPCC hinzugeschusterten exponentiellen Schlenker weglassen (vgl. Punkt 1 dieser Auflistung), würden wir das 2-Grad-Ziel erst bei 744 ppm erreichen (Tab. 1 und Kurve 2 (kastanienbraun) in  Abb.1). Also kein Grund zu Hysterie, Eile oder Aufregung, die uns das IPCC ganz offensichtlich einreden will.
3)    Die Analyse von Fig. SPM5b ergibt, dass die theoretisch-physikalisch gut begründete und in jedem IPCC-Bericht bestätigte logarithmische Abhängigkeit des Temperaturanstiegs von der Konzentration von Treibhausgasen (d.h. konkret: Abnehmende Temperaturzunahme bei linearem CO2-Anstieg) erst bei hohen CO2-Werten einsetzt (Abb. 1, blaue Kurve). Bei niedrigen CO2-Werten wird vom IPCC entgegen der von ihm selbst akzeptierten Grundsätze (z.B. AR4, WG1 Chapter 2(1), p. 140: „For CO2, radiative forcing increases logarithmically with mixing ratio“) von einer exponentiellen Abhängigkeit ausgegangen (siehe auch Punkt 1 dieser Auflistung). Die logarithmische Kurvenanpassung (schwarz) an die Werte aus Fig. SPM5b (blau in Abb.1) zeigt einen für aktuelle CO2-Werte viel zu hohen theoretischen, menschengemachten Temperaturanstieg von 1.1ºC (fast das Doppelte von dem Wert, den das IPCC selbst für den wahrscheinlichsten hält).
Nach Ansicht vieler Experten ist auch der Wert von 0,6ºC als durch Treibhausgase verursachter, menschengemachter Anteil an der leichten Erwärmung der Erde seit Beginn der Industrialisierung zu hoch gegriffen. Vor allem verträgt er sich schlecht mit der Tatsache, dass kein einziges IPCC-Modell den Erwärmungsstillstand seit den letzten 18 Jahren trotz weiter steigender CO2-Werte vorhergesehen hat. Die Tatsache, dass die aktuellen mittleren Temperaturwerte außerhalb, d.h. unterhalb der Konfidenzintervalle aller früheren IPCC-Projektionen liegen (Abb. 2), spricht massiv gegen die Validierung der IPCC-Modelle (so würde ein vergleichbares Ergebnis jedenfalls in jeder studentischen Arbeit gehandhabt: Es würden die Modelle verworfen und nicht die Grafik, die die Unzulänglichkeit der Modelle zeigt: Die hier gezeigte Abb. 2 wurde von den IPCC-Funktionären für die endgültige Fassung des AR5 herauszensiert). Für den durchaus wahrscheinlichen Fall, dass die bisherige menschengemachte Erwärmung nur 0,3ºC oder weniger beträgt, würden wir eine menschengemachte Temperaturerhöhung von 2ºC erst bei mehr als 3000 ppm CO2 erreichen. Die fossilen Energieträger würden bestimmt vorher zu Ende gehen.

Abb 2: Die derzeit beobachteten Temperaturen (schwarze Punkte) liegen unterhalb der Konfidenzintervalle aller Temperaturprojektionen, die in den ersten 4 IPCC Berichten veröffentlicht wurden (FAR, SAR, TAR AR4). Quelle: 2nd order draft of AR5. The Washington Times, Dec. 18th 2012: Editorial: Chilling Climate-Change News. New leak shows predictions of planetary warming have been overstated. http://www.washingtontimes.com/news/2012/dec/18/chilling-climate-change-news/
Schlussfolgerung: Diese kritische Untersuchung des Leitgrafik des SYR-AR5 (Fig. SPM5b) legt nahe, dass die festgestellten Übertreibungen, die Darstellungsart, die Datenauswahl bis hin zum offensichtlichen Bemühen, interne Wiedersprüche zu vertuschen, nur in eine Richtung weisen, die Neigung des IPCC zum Alarmismus. Sie bestätigt, dass offenbar mehr Gewicht auf das Erscheinungsbild der Dringlichkeit des Handelns (Dekarbonisierung) gelegt wird als auf Solidität und wissenschaftliche Konsistenz in den Darstellungen.