Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]

Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]

Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.

Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)

Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/




Obsolete Klimawissenschaft zu CO2

Greenstone und Sunstein haben ein großes Interesse in diesem Spiel: Während ihrer Jahre in der ersten Obama-Regierung riefen sie eine inter-ministerielle Arbeitsgruppe IWG ins Leben, deren Mitglieder aus verschiedenen Regierungsagenturen berufen wurden, die sich mit den sozialen Kosten von Kohlenstoff (SCC) befasst hatten – oder den marginalen Kosten der Freisetzung einer Tonne CO2 in die Atmosphäre. Diese IWG befand, dass man die Kosten mit 36 Dollar pro Tonne schätzen sollte (für 2015). Man lege diese Zahl zugrunde, und man hat viel Rechtfertigung für wesentliche politische Schritte, um die CO2-Emissionen zu kappen. Greenstone und Sunstein hofften, dass die Arbeitsgruppe sich auf die „jüngsten Forschungen in Wissenschaft und Ökonomie“ stützen und die behaupteten Kosten belegen würden mit der „Berückichtigung der Zerstörungen von Eigentum durch Stürme und Überschwemmungen, abnehmende landwirtschaftliche und industrielle Produktivität, steigende Sterblichkeit und mehr“.

Ihre Mühe sollte als grandioses Scheitern betrachtet werden sowie als ein Affront gegen das wissenschaftliche Verfahren, das in ihren Studien anzuwenden sie vorgeben. Der erste Fehler ist ein Verfahrensfehler. Der schlechteste Weg, einen grundlegenden Meinungsaustausch zum komplexen Thema Klimawandel zu bekommen ist es, die IWG ausschließlich mit Mitgliedern der Obama-Regierung zu besetzen, alle sorgfältig ausgewählt, weil sie die übertriebenen Bedenken des Präsidenten bzgl. globaler Erwärmung teilen. Der einzige Weg, ein vollständiges und genaues Bild der Lage zu erhalten ist, den Abweichlern zum Thema globale Erwärmung genauso zuzuhören wie den Befürwortern. Das ist jedoch niemals geschehen. Denn schließlich, wer sollte schon einem „Leugner“ zuhören?

Diese herablassende Haltung ist fatal für eine unabhängige Untersuchung. Egal wie oft der Präsident behauptet, die Wissenschaft sei felsenfest – die Vielfalt von Beweisen aus jüngster Zeit lassen immer mehr ein sehr unterschiedliches Bild entstehen, welches den zügellosen Pessimismus hinsichtlich Klimawandel unterminiert, der vor etwa 10 Jahren groß in Mode war. Die im Rahmen der Obama-Regierung zusammen gerufene Gruppe hat niemals die Akkumulation von Beweisen der anderen Seite untersucht, geschweige denn widerlegt. Tatsächlich sind nahezu alle Berichte der IWG bemerkenswert hinsichtlich ihrer Weigerung, überhaupt irgendwelche Daten zu berücksichtigen. Stattdessen beruft man sich durchgängig auf Modelle, die von anderen entwickelt wurden, als das solide Fundament der Arbeit der Gruppe, ohne auch nur ein einziges Wort zu hinterfragen, welches die Modelle sagen.

Der zweite grundlegende Fehler der regierungsamtlichen Studien ist die Art und Weise, mit der sie die sozialen Kosten von Kohlenstoff (SCC) ausarbeiten. Wie alle Experten einer Kosten/Nutzen-Analyse wissen, ist es ein Fehler, die Kosten isoliert vom Nutzen zu betrachten, oder den Nutzen isoliert von den Kosten. Und doch scheint man genau dies in den Berichten getan zu haben. Als Reaktion auf die zahlreichen Beanstandungen zu den Berichten hat die IWG in einer Antwort im Juli 2015 geschrieben, dass „einige Kommentatoren den Eindruck hatten, dass die SCC-Schätzungen den Wert der Vorteile und die Dienstleistungen für die Gesellschaft einschließen sollten im Zusammenhang mit CO2-Emissionen“. Man muss deren Antwort in Gänze lesen, um das glauben zu können: „Eine rigorose Evaluierung der Vorteile und Kosten ist ein Eckpfeiler des Vorschriften gebenden Prozesses. Die IWG stimmt darin überein, dass dies wichtige Themen sind, die bei der Abschätzung der Auswirkungen einer Politik relevant sein können, die zur CO2-Reduktion führt. Allerdings sind diese Themen nicht relevant für die SCC selbst. Die SCC sind eine Schätzung der gesamtwirtschaftlichen Schäden aufgrund von CO2-Emissionen und werden daher herangezogen, um die Vorteile der Reduktion dieser Emissionen abzuschätzen“.

Im Wesentlichen werden die Vorteile derzeitiger oder zukünftiger CO2-Emissionen gar nicht angesprochen. Und doch muss eine wirklich neutrale Betrachtung des Problems vorbereitet werden, um zu der Schlussfolgerung zu kommen, dass gesteigerte Niveaus von CO2-Emissionen insgesamt vorteilhaft für die Gesellschaft sein, wie die Carbon Dioxide Coalition argumentiert hat, wenn man eine umfassendere Untersuchung durchführen würde. Der gesamte Prozess der Ausweitung von EPA-Vorschriften und anderer Maßnahmen der Obama-Regierung halten nur diese unrichtige grundlegende Schätzung am Leben. Das atemberaubendste Eingeständnis der Unsinnigkeit des gesamten EPA-Projektes stammt von der EPA-Chefin Gina McCarthy, die gesagt hatte, dass sie eine Temperaturabnahme um ein Hundertstel Grad als enorm vorteilhaft ansehen würde, unbeschadet der hohen Kosten, weil dieser Symbolismus „globale Maßnahmen auslösen“ könnte. Keine Kosten/Nutzen-Analyse würde verschwendete Ausgaben allein aus symbolischen Gründen rechtfertigen. Schließlich würde die menschliche Entwicklung bzgl. globaler Erwärmung nur dann Schaden nehmen, falls andere Nationen unseren falschen Sirenengesängen bzgl. CO2-Emissionen folgen, während die gewaltige Verschmutzung ignoriert wird, die Begleiterscheinung großer Bevölkerungszentren sind wie etwa Delhi und Peking.

Unglücklicherweise beruht die Unterstützung für Vorschriften bzgl. CO2-Emissionen unzulässig auf einer amtlichen Auswirkungs-Analyse, die nicht mehr wert ist als die falschen Hypothesen, auf denen die Modelle beruhen. Darunter ist auch der gewaltig komplizierte Clean Power Plan, der zeitweise vom Obersten US-Gerichtshof untersagt worden war und der ebenfalls auf den betrügerischen Schätzungen der sozialen Kosten von Kohlenstoff beruht.

Die Schwäche des EPA-Verfahrens wird offensichtlich durch die Daten, die Greenstone und Sunstein anführen, um die Behauptung zu stützen, dass die globale Erwärmung bereits ein gefährliches Niveau erreicht hat. Sie beziehen sich beispielsweise auf einen Geophysical Research Letter aus dem Jahr 2014, in dem es um den Rückzug von Eis in der Westantarktis zwischen 1992 und 2011 geht. Aber dieses eine Ergebnis muss in den richtigen Zusammenhang gestellt werden, wie es im State of the Climate Report aus diesem Jahr 2016 der Fall war. Dieses Dokument wurde vom Committee for a Constructive Tomorrow (CFACT) erstellt und der UN-Klimakonferenz in Marokko zugeleitet. In diesem vollständigeren Bericht wird belegt, dass der Massenzuwachs in der Ostantarktis im Mittel 200 Milliarden Tonnen pro Jahr betragen habe, verglichen mit den 65 Milliarden Tonnen Massenverlust, welche vom Zuwachs in der Ostantarktis weit überkompensiert worden waren. Damit ergibt sich ein Eiszuwachs in der gesamten Antarktis von grob geschätzt 82 Milliarden Tonnen pro Jahr zwischen 2003 und 2008. Fazit: „Die gute Nachricht lautet, dass die Antarktis gegenwärtig nicht zum Anstieg des Meeresspiegels beiträgt, sondern diesen um 0,23 Millimeter pro Jahr verlangsamt“. Alles in allem war die Temperatur in der Antarktis während der letzten 35 Jahre konstant geblieben.

Keine Analyse, die nur auf die Negativa schaut, kann es sich leisten, die viel größeren Positiva zu ignorieren, um ihre Glaubwürdigkeit zu erhalten. Tatsächlich belegt der CFACT-Bericht, dass die Eismasse in der Arktis derzeit um 22% größer ist als während der minimalen Ausdehnung im Jahre 2012. Diese Tatsache hilft zu erklären, warum es jüngst zu keiner Änderung der Rate des Meeresspiegel-Anstiegs gekommen war und mit Sicherheit zu keinem Anstieg, der irgendwie der relativ moderaten Erwärmung der letzten 100 Jahre zuzuordnen ist. Jüngste Trends zeigen, dass sich die Anstiegsrate der Ozeane während der letzten 18 Jahre immer mehr verlangsamt hat, während einer Zeit also, in der es eine substantielle Zunahme des CO2-Niveaus gegeben hatte. Und doch zeigen alle 102 verschiedenen, vom IPCC herangezogenen Modelle sehr hohe Schätzungen, und zwar um etwa das Vierfache zu hoch. Wie im CFACT-Bericht 2016 dokumentiert, hat sich die Temperatur während der letzten 18 Jahre kaum geändert, und die berichteten rekordhohen Werte beruhen auf Abweichungen bei den Messungen, die noch innerhalb der Messgenauigkeit liegen. Und doch folgt die Regierung der Methode, ausschließlich auf die Modelle zu schauen und die Daten zu ignorieren.

Genau dies wurde auch getan bei den inzwischen anachronistischen Endangerment Findings der EPA aus dem Jahr 2009, wo von der insgesamten Abnahme des arktischen Eises die Rede und die Behauptung aufgestellt worden war, dass die „erhöhten CO2-Niveaus“ „geringe vorteilhafte Auswirkungen auf die Ernteerträge“ erwarten ließen. Die gute Nachricht zu diesem Punkt scheint zu sein, dass die CO2-Zunahme während der letzten 30 Jahre zu einer Zunahme der grünen Vegetation auf der Erde um 14 Prozent geführt hat. Dies berichtet Matt Ridley in einem Vortrag im Jahre 2016. Es ist die beste aller möglichen CO2-Welten, wenn die Fläche urbaren Landes zunimmt bei geringen Temperaturänderungen und kaum wahrnehmbaren Änderungen des Meeresspiegels. Führt man all diese Zahlen zusammen, muss eine Überarbeitung der SCC erfolgen, denn wie es jetzt scheint, sind die Gesamtkosten von Kohlenstoff negativ. Außerdem haben die überarbeiteten Projektionen nur die viel niedrigen Schätzungen der globalen Erwärmung infolge eines höheren CO2-Niveaus untermauert.

Dieses grundlegende Ergebnis wird durch andere, leicht zugängliche Daten gestützt, die andere Bedenken im Artikel von Greenstone und Sunstein betreffen. Für Neulinge in dieser Diskussion: Es gab keine Zunahme von Stürmen und Überschwemmungen oder auch der Schäden, die diesen Ereignissen in die Schuhe geschoben werden. Im Gegenteil, die Trendlinie war eindeutig sehr günstig, hat doch die Anzahl von Extremereignissen wie Fluten und Stürme stetig während der letzten 100 Jahre abgenommen. Tatsächlich war das letzte schwere Unwetter in den USA der Hurrikan Katrina im Jahre 2005, gefolgt von elf Jahren relativer Ruhe in den USA und auf der ganzen Welt. Dieser Punkt ist zentral, weil eine der konstantesten Behauptungen zum globalen Klimawandel lautet, dass die systemweite Instabilität diese Extremereignisse hat zunehmen lassen, sogar dann noch, falls das Temperaturniveau insgesamt konstant geblieben ist.

Das Gesamtbild hinsichtlich der SCC ist daher das genaue Gegenteil dessen, was von Greenstone und Sunstein beschrieben worden ist, und diese Änderung der Richtung hat eine ernste Auswirkung auf den Erfolg zahlreicher juristischer Klagen. Greenstone und Sunstein schreiben, dass einem Urteil aus dem Jahr 2008 zufolge das Ignorieren der SCC eine regierungsamtliche Vorschrift „willkürlich und unberechenbar“ ist und dass daher eine Umformulierung seitens der betreffenden Agentur erfolgen muss. Sie erwähnen auch eine andere Entscheidung aus dem Jahr 2016, welche eine administrative Entscheidung des Energieministeriums aufrecht erhielt unter explizitem Bezug auf die SCC. Aber diese juristischen Entscheidungen sind umgeben von einer surrealistischen Aura. Eckpunkt dieser Fälle das Energy Policy and Conservation-Gesetz aus dem Jahr 2016 (EPCA). Dieses wurde in der Folge des Ölembargos des Nahen Ostens im Jahre 1973 in Kraft gesetzt. Das Hauptergebnis von EPCA war „die fundamentale Realität, dass diese Nation in eine neue Ära eingetreten ist, in der Energieressourcen, die früher ergiebig waren, immer weiter schrumpfen, was unser eigenes Wachstum verzögert und eine Änderung unserer Lebensgewohnheiten und -erwartungen erforderlich macht“.

Es war die Stärke dieses 41 Jahre alten Statuts, die den Gerichtshof im Jahre 2008 dazu veranlasste, von der National Highway Traffic Safety Administration zu verlangen, ihre Vorschriften bzgl. Treibstoffersparnis für Kleinlaster zu überarbeiten, weil sie die SCC nicht berücksichtigt hatte. Heutzutage ist diese Gesetzgebung vollkommen anachronistisch, weil die Revolution der Energie-Technologie die gesamte faktische Grundlage zerschlagen hat, auf der die Vorschriften bzgl. Treibstoffersparnis fußen. Angesichts Fracking ist Energie ergiebig. Folglich müssen die SCC neu bewertet werden im Lichte der Beweise, die außerhalb der EPA zusammengetragen und oben zusammengefasst worden waren. Kein einziger dieser Beweise ist berücksichtigt worden bei der Arbeit im geschlossenen Universum des gegenwärtigen Bündels von Umwelt- und Energiegesetzen. Derzeit scheint es so, dass praktisch alle EPA-Vorschriften auf überholter Wissenschaft beruhen.

Greenstone und Sunstein stehen nicht allein mit ihrer Weigerung, Beweise in Betracht zu ziehen, die ihre Behauptungen widerlegen. Aber falls die SCC negativ aussehen, sollte die Trump-Regierung tätig werden und die gegenwärtige Gefahrenbehauptung bzgl. CO2 eliminieren. Sie sollte den Vorschriften gebenden Apparat auflösen, der auf der hoch fragwürdigen Schätzung der hohen Werte der SCC beruht. Die traurige Wahrheit ist, dass die EPA und das Gesetzgebungsverfahren der Obama-Regierung keinen Respekt zeigt für die wissenschaftliche Methode, auf die zu bauen sie doch so sehr behaupten.

Link: http://www.hoover.org/research/obsolete-climate-science?utm_content=bufferefd7e&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer




Jede Tonne emit­tiertes CO2 führt zu einem Abschmelzen des Arktis­eises um drei Quadrat­meter


Klimaretter.Info: Arktis-Eisabdruck beim Autofahren
Einen direkten Zusammenhang zwischen dem Ausstoß von Treibhausgasen und der Eisschmelze in der Arktis stellt eine jetzt in der Zeitschrift Science veröffentlichte Studie her. Danach führt jede Tonne emittiertes CO2 zu einem Abschmelzen des Arktiseises um drei Quadratmeter mit einer Unschärfe von plus/minus 0,3 Quadratmetern. Sollten weitere 1.000 Gigatonnen CO2 in die Atmosphäre gelangen, sagt die Untersuchung voraus, werde dann im September – zum Ende des arktischen Sommers – die Arktis eisfrei sein.
Die Studienautoren Dirk Notz, Leiter der Max-Planck-Forschungsgruppe „Meereis im Erdsystem“, und Julienne Stroeve vom National Snow and Ice Data Center in den USA schlossen aus den bisherigen Emissionen und dem Eisrückgang seit 1953 auf den Wert von drei Quadratmetern Eis pro Tonne CO2.

Die Süddeutsche Zeitung wollte auf diese Information selbstverständlich ebenfalls nicht verzichten:
Mein Haus, mein Auto, meine Eisscholle
Bezogen sind die Meldungen auf die Studie:
[1]„Observed Arctic sea-ice loss directly follows anthropogenic CO2 emission”, Abstract

Arctic sea ice is retreating rapidly, raising prospects of a future ice-free Arctic Ocean during summer. Since climate-model simulations of the sea-ice loss differ substantially, we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions. Most models show a lower sensitivity, which is possibly linked to an underestimation of the modeled increase in incoming longwave radiation and of the modeled Transient Climate Response.
Sehr frei übersetzt lautet das:
Das arktische Meereis zieht sich rasch zurück, wodurch die Aussichten auf einen künftigen eisfreien Arktischen Ozean im Sommer zunehmen. Da sich Klimamodell-Simulationen des Meereisverlusts erheblich unterscheiden, verwenden wir hier eine robuste lineare Beziehung zwischen dem monatlichen September-Meereisbereich und den kumulativen CO2-Emissionen, um die künftige Entwicklung des arktischen Sommermeereises direkt aus den Beobachtungsdaten abzuleiten. Die beobachtete lineare Beziehung impliziert einen anhaltenden Verlust von 3 ± 0,3 m2 September-Meereisfläche pro Tonne CO2-Emission. Auf der Grundlage dieser Sensitivität wird das Arktische Meereis im September bei weiteren 1000 Gt CO2-Emissionen verschwinden Die meisten Modelle zeigen eine geringere Sensitivität, was möglicherweise mit einer Unterschätzung der modellierten Zunahme der eingehenden Langwellenstrahlung und der modellierten TCR* zusammenhängt.
*
TCR: WIKIPEDIA: TCR ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1 % anwächst. Der wahrscheinlichste Wert für die TCR liegt bei ca. 2 Grad nach 70 Jahren.

Endlich ist die persönliche Klimaschuld mit einem Meterstab absteckbar

Mit dieser Studie wollten die Autoren wohl ein großes Wissensloch schließen, um den ominösen Klimawandel greifbarer zu machen. Während man bisher eine nicht sichtbare Tonne CO2 in EUROs aufwiegen musste, kann nun jeder mit einem Meterstab seine persönliche Scholle Eis abstecken, die er durch eine klimaschädliche Tat schmelzen ließ, oder durch eine gute zufrieren lassen konnte. Wie in der katholischen Kirche, wo der Ablasshandel erst richtig florierte, als man die zu bezahlende Minderung der Höllentage abzählbar verbrieft bekam, steht dieser Marketingzwang dank dieser Studie nun auch der Ökokirche vollständig zur Verfügung.

Der Leitautor der angezogenen Studie [1], Dr. Dirk Notz, arbeitet beim Max-Planck-Institut für Meteorologie. Dort forscht er wohl vorwiegend über die Klimasimulation von Arktiseis (Institutsinfo):
-Meereis im Klimasystem
-Repräsentation von Meereis in gekoppelten Klimamodellen
-Eis-Ozean-Atmosphäre Wechselwirkungen
-Sensitivitätsstudien von Meereis mit Adjointmodellen
Als konform klimaalarmistisch hat er sich bereits in der Vergangenheit positioniert:
kaltesonne: „Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis“. Seine Mitautorin, Julienne Stroeve, ist ebenfalls äußerst klimaalarmistisch eingestellt und eng mit Greenpeace verbunden (WUWT).

Gerade noch rechtzeitig zum Klimagipfel gelang der „Beleg“ dass es 1,5 Grad sein müssen

Neben der Erkenntnis zur Schmelzfläche des Arktiseises haben Herr Dr. Notz und seine Co-Autorin auch gleich mit herausgefunden, dass nur die Dekarbonisierung auf 1,5 Grad das Arktiseis (im Sommer) retten kann.
Diese Korrelation eines wichtigen Termins mit Bekanntgabe der Daten dürfte damit genau so signifikant sein, wie die technischen Ableitungen in der Studie. Aber die Ableitung – es geht wohl um Forschungsgelder und entsprechende Anbiederung durch politisch korrekte Daten – hat mit höherer Wahrscheinlichkeit mehr Wahrheitsgehalt.

Eine Studie ohne Angabe des Vertrauensbereiches geht nicht – ob der Inhalt stimmt, ist eher nebensächlich

In einer Studie ist es äußerst wichtig, dass eine Fehlerband-Angabe vorhanden ist. In diesem Fall ist es die Toleranz der Korrelation von 3 m2 +-0,3 m2 pro Tonne CO2-Emission. Ob die Aussage: Es sei anthropogener CO2-Einfluss, der sich linear in die Zukunft weiterführen lässt, überhaupt stimmt, ist allerdings vollkommen unwichtig.
Bevor die Studie abschließend rezensiert wird, der wichtige Blick zu den Polen, vor allem natürlich zum Arktiseis.

Wie steht es um das Meereis der Polkappen?

Global gesehen hat sich wenig verändert (Bild 1, oberste Linie „Globl sea ice area“). In Summe ist die Eisbedeckung seit dem Beginn der Satellitenmessungen im Jahr 1979 fast gleich geblieben. Demnach wäre es keiner besonderen Erwähnung wert, wenn nicht eine Unsymmetrie bestände und das Arktiseis weniger wird, während das der Antarktiseis aktuell horizontal verläuft und das Inlandeis langfristig zu nimmt (Bild 12).

Bild 1 zeigt die Eis-Ausdehnungsverläufe global (Arktis und Antarktis), Arktis, Antarktis in Monatsauflösung. Im Bild 2 sind die Verläufe von Arktis und Antarktis im gleichen Maßstab übereinander kopiert.

Bild 1 Globaler-, arktischer- und antarktischer- Meereisverlauf seit den Messungen durch Satelliten. Quelle: hidethedecline

Erkennbar ist, dass das Arktiseis abgenommen hat, während das Antarktiseis eine horizontale Linie bildet (Bild 2). Zudem zeigt sich, dass das Arktiseis seit ca. 10 Jahren nicht mehr abnimmt, was wegen des kurzen Zeitraums natürlich nicht signifikant ist.

Bild 2 Arktischer- und antarktischer- Meereisverlauf von Bild 1 (1979 – Okt. 2016), vom Autor übereinander kopiert. Der Y-Maßstab ist gleich, der Nullpunkt Antarktis ist verschoben

Die Abnahme des Arktis-Sommerminimums erfolgt nicht „linear“ (wie in der Studie [1] angegeben) sondern in Stufen, welche aus einem Zyklus resultieren (Bild 3 und 3.1).

Bild 3 Arktischer Meereisverlauf des sommerlichen Minimalwertes (1979 – Okt. 2016), vom Autor ergänzt. Quelle: meteo.plus

 

 

Bild 3.1 Arktischer Meereisverlauf des sommerlichen Minimalwertes, Regressions-Abschnitte (1979 – 2014). Quelle: Climategrog: on identifying inter-decadal variation in NH sea ice

Wie verlief die historische Eisausdehnung der Arktis

Einen interessanten und wohl wenig bekannten Aspekt bietet die Betrachtung des längerfristigen Verlaufs der arktischen Meereisbedeckung (Bild 4 und Bild 11) und ergänzend die der damaligen Temperaturen (Folgebildreihe). Auf einmal ergibt der Verlauf einen Zusammenhang und wird in Verbindung mit den Temperaturproxis begreiflich. Allerdings widerspricht die Aussage allen AGW-Klimaalarm-Informationen.

Bild 4 [3] Arktische Meereisbedeckung 1600 -2000 (Bildausschnitt, vom Autor um die gestrichelten Begrenzungslinien ergänzt). Linke Achse: Nordischer Multiproxi Mio km2.

Originaltext: Abbildung 2: Das Schmelzen des Meereises in den letzten Jahrhunderten wurde durch einen langfristigen Anstieg der Temperatur, der Sonnenaktivität und des Meeresspiegels begleitet. Der CO2-Gehalt der Atmosphäre erhöhte sich erst ab dem späten 19. Jahrhundert (aus: Die kalte Sonne, S. 64, hier auch die Literaturquellen der Kurven. Meereisbedeckung nach Polyak et al. 2010).

Die historische Eisbedeckung passt zum Temperaturverlauf

Das folgende Bild 5 zeigt eine Rekonstruktion der Grönlandtemperatur. Dazu das aktuelle Temperaturniveau („present temp“, grün eingekreist).Die aktuell gemeldeten „Wahnsinnstemperaturen“ in der Arktis verlieren dabei vollkommen ihren AGW-Schrecken, was nicht davon abhält, dass er verkündet wird:
Klimaretter.Info: Warnung vor 19 Kipppunkten in der Arktis, welche sich auf die Studie [13] Arctic Resilience Report 2016
bezieht. In dieser „Studie“ mit 240 Seiten Umfang findet sich keinerlei Darlegung zum historischen Temperaturkontext. Es reicht den Verfassern, dass es „allgemeines Wissen“ ist:
[13] Arctic Resilience Report 2016: The fact that the Arctic is changing fast is well known: The extent of sea ice, the condition of the Greenland ice sheet, the unusually warm temperatures are all widely reported – as are the new shipping routes opening up, and the oil exploration effrts. Less prominent, but also reported, are the stories of Indigenous Peoples whose livelihoods are disappearing, or whose villages are becoming uninhabitable.
Auch das „Wahrheitsministerium“ dpa meint, die Erde hätte erst um 1889 mit einem Klima begonnen.
dpa, 25. November 2016: Forscher registrieren Hitzewelle am Nordpol
Der Klimawandel wird auf der norwegischen Inselgruppe Spitzbergen immer stärker spürbar. «2016 wird dort das wärmste Jahr seit Beginn der Messungen 1889»

Geht man jedenfalls etwas weiter in der Historie zurück, zeigen sich die aktuellen Temperaturen als vollkommen normal. Doch welches Medium will das „erfahren“.

Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt

Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Auch die Europatemperaturen (Sommerwerte) ab Bild 6 zeigen es deutlich: Der ominöse Klimawandel begann niemals erst mit der Industrialisierung, bzw. genau dem Jahr 1880, sondern spätestens bereits um 1600 (Bild 6), wie es vom Autor schon mehrmals anhand von Studienanalysen gezeigt wurde:
EIKE: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell, und
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Bild 6 [9] Rekonstruierter Verlauf der sommerlichen Maximaltemperaturen Europa.

Original-Bildtext: Figure 3. Simulated and reconstructed European summer land temperature anomalies 0.23%0.1%). The ensemble mean (heavy line)and the two bands accounting for 50% and 80% (shading)of the spread are shown for the model ensemble (see SOM for further details).

Bild 7 [9] Verlauf der Kältemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Um 1600 war es am kältesten.

Bild 8 [9] Verlauf der Wärmemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Deutlich erkennbar die mittelalterlichen Warmzeiten.

Auch für die Antarktis wurde ein ähnlicher Verlauf ermittelt. Dort wurde es im Gegensatz zur Nordhalbkugel allerdings bisher nicht mehr wärmer.

Bild 8.1 Figure S2 Proxy temperaturereconstructions for the seven regions of the PAGES 2k Network, Y-Achse: °C.

Quelle: PAGES 2k Consortium: Supplementary Information Continental-scale temperature variability during the last two millennia (vom Autor ergänzt und nachbearbeitet)

Warum so viele Rekonstruktionen diese Daten nicht zeigen, liegt (unter anderem) daran, dass die Temperaturvariabilität nicht richtig abgebildet wurde:
kaltesonne: Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand

Our reconstructions compare well with independent instrumental and proxy-based temperature estimates, but suggest a larger amplitude in summer temperature variability than previously reported. Both CPS and BHM reconstructions indicate that the mean 20th century European summer temperature was not significantly different from some earlier centuries, including the 1st, 2nd, 8th and 10th centuries CE. The 1st century (in BHM also the 10th century) may even have been slightly warmer than the 20th century

Anm.: Das ursprüngliche Bild 9 ist entfallen.

Zurück zur arktischen Eisbedeckung

Auch kurzfristiger betrachtet sind die Kenntnisse über den Eis-Ausdehnungsverlauf nicht so eindeutig, wie es oft suggeriert wird. In einer Studie zur Rekonstruktion des Sommereises [6] wird festgestellt, dass die größten Reduktionen vor 1920 stattgefunden haben (Bild 10) und der aktuelle Minimalstand keinesfalls so „unnatürlich“ ist, wie man offiziell berichtet.

Bild 10 [6] Abb. 8: 10jähriger gleitender Median des Sommermittels mit deutlichen Maxima um 1790, 1840, 1895 und 1950. Beeindruckend ist das Maximum zwischen 1893 und 1900 und der rasche Rückgang danach. Die Spitze des Medians in der Datenlücke hat ihre Ursache in dieser, ist also nicht wirklich vorhanden. In der Datenlücke 1803-1819 wurden konstante Werte in dieser Darstellung angenommen, da dies die Medianausreißer um 1802 verhindert


Es lohnt sich, die Aussagen in dieser Studie genauer zu lesen, denn sie widerspricht den „Erkenntnissen“ der „Korrelations-Trendanalysten“, wie Herrn Dr. Notz.

Studie (Auszüge, Hervorhebungen durch den Autor): [6] Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

Die jeweiligen Monatszeitreihen und das Sommermittel des KFI geben die Eisverhältnisse an der Südspitze Grönlands über einen 226jährigen Zeitraum hinweg an, nämlich von 1777 bis 2002.
Betrachtet man den Trend genauer, stellt man fest, dass ein Großteil der Eismengenreduktion zwischen 1900 und 1930 stattfand – über 50 %.
Dies spricht gegen die Berechnung eines linearen Trends. Die Trendanalyse zeigt allerdings auch, dass es unzureichend ist, bei der Betrachtung der Veränderung der Eisverhältnisse nur einen sehr kurzen Zeitraum zu verwenden, da die langfristigen Schwankungen die kurzfristigen doch erheblich überlagern. Betrachtete man den Zeitraum, in dem gemessene Klimadaten zur Verfügung stehen, so ergibt sich – durch die Maximal-Periode um 1900 – eine drastische Verringerung der Eismengen. Das Hinzunehmen des Zeitraumes davor zeigt, dass es sich bei dem Zeitraum 1865-1900 um ein Maximum handelte, das als Startpunkt einer linearen Trendanalyse ungeeignet ist. Es zeigt sich aber auch, dass alle Zeitreihen auf ein Minimum hinsteuern, offenbar sogar noch geringer werdend im jüngsten Zeitraum. Es wäre überzogen, aus dieser Untersuchung den anthropogenen Treibhauseffekt als Ursache zu identifizieren, doch liegt diese Vermutung nahe.
Die stärkste Eismengenreduzierung findet deutlich vor 1920 statt, je nach Zeitreihe sogar noch früher. Die Reduktion der Eismenge setzt sich auch nach 1920 fort, jedoch weniger stark, liegt dafür aber deutlich unter dem Niveau des 19. Jahrhunderts. Da sich dieses Muster des Eismengenverlusts in allen Zeitreihen wiederfindet, ist davon auszugehen, dass es sich um ein generelles Klimaphänomen der Nordhemisphäre handelt. Zwar sind die rekonstruierten Meereiszeitreihen sicherlich mehr oder weniger großen Fehlern unterworfen, sie geben aber einen generellen Überblick über die Stärke der Vereisung im Bereich des Ostgrönlandstromes. Somit stellt die KFI-Zeitreihe eine weitere Möglichkeit zum Vergleich von Klimadaten dar, die als Qualitätsstütze für andere Zeitreihen dienen können, sofern sie mit dieser in Relation stehen. Ob die starke Reduktion der Eisverhältnisse im 20. Jahrhundert ein kurzer Trend ist oder sich für die Zukunft eine weitere Reduktion erwarten lässt, lässt sich hier genau so wenig beantworten wie die Frage, ob der Mensch für diese Veränderung verantwortlich zeichnet. Letztlich handelt es sich bei dem Eistransport um einen Ausdruck des Klimageschehens, der atmosphärischen und ozeanischen Zirkulation. Wie sich dadurch die Eisverhältnisse an der Südspitze Grönlands weiter entwickeln werden, lässt sich nicht eindeutig prognostizieren. Die generelle Ähnlichkeit der Trends in den Zeitreihen belegt unzweifelhaft, dass die Eismenge über einen langen Zeitraum hinweg tatsächlich weniger geworden ist, insbesondere in der zweiten Hälfte des 20. Jahrhunderts gegenüber den belegbaren Zeiträumen zuvor. Es ist allerdings auch deutlich zu erkennen, dass um die Jahrhundertwende zum 20. Jahrhundert ein Maximum vorlag. Bisherige lange Eiszeitreihen beginnen überwiegend in oder nach ihm. Sie können diese Maximumstruktur daher nicht erkennen und registrieren stattdessen nur eine mehr oder weniger kontinuierlich rückläufige Tendenz. Die vorliegende Studie zeigt, dass die größte Eismengenreduktion der Arktis im 20. Jahrhundert bereits in dessen erstem Drittel stattfand.

Bild 11 [7] Historischer Verlauf der Eisbedeckung aus verschiedenen Rekonstruktionen. Die Begrenzungslinien der obersten Proxireihe (rot gestrichelt und violett) sind vom Autor ergänzt. Wie im Bild 4 zeigt sich auch hier die bereits im Mittelalter beginnende Abnahme der Eisbedeckung


Herr Dr. Notz sieht dagegen einen vollkommen anderen Verlauf als „richtungsweisender“ an (Bild 12). Allerdings entstammt dieser Verlauf nicht der Wirklichkeit, sondern seinen Simulationen, eine in der „Klimawissenschaft“ inzwischen gebräuchliche Methode, fehlende Daten durch „Wunschwerte“ zu ersetzen, auch wenn diese offensichtlich falsch, zumindest nicht verifizierbar sind.

Bild 12 [8] Abb. 5.2-1: Simulation der Ausdehnung des Meereises im September für den Zeitraum 800 bis 2100. Für die Vergangenheit wurde das entsprechende Modell mit Messdaten der äußeren Antriebe betrieben, für die Zukunft wurde angenommen, dass sich die Treibhausgasemissionen nur wenig verringern werden (vgl. Jungclaus et al. 2010).


Im Artikel: “Oktoberrückschau die 2.: Klimawandel, wohin bist du verschwunden“, wurde (eigentlich mehr zufällig) ein Satz zur Schneebedeckung der Nordhemisphäre ergänzt. Anbei nun eine Grafik, wie es damit seit dem Jahr 1970 aussieht (Bild 13). Der Verlauf wird viele Leser verblüffen, vor allem jedoch die Grünen und Umweltverbände, welche dem Wintersport jegliche Zukunft absprechen.

meteo.plus: Die Schneefläche in der Nordhemisphäre ändert sich infolge der Jahreszeiten gravierend. Während sie im Sommer nahezu verschwinden kann, nimmt sie im Winter in weiten Teilen Nordamerikas, Grönlands, Europas und Asiens auf mehr als 45 Millionen Quadratkilometer zu. Infolge der Klimaerwärmung hat sich in den letzten Jahrzehnten jedoch kaum etwas an der Ausdehnung der Schneefläche geändert. Die Trends deuten seit den 1990er Jahren eher wieder auf eine Zunahme der Schneebedeckung hin.

Bild 13 Jährliche Schneebedeckung der Nordhemisphäre Quelle: meteo.plus (Datenquelle: Rutgers University Global Snow Lab (NOAA)

Bild 14 Früher Wintereinbruch im Allgäu (13.11.2016). Quelle: BR-Homepage

Neue Zürcher Zeitung, 24.11.2016: Wintereinbruch in Japan, Erster November-Schnee in Tokio seit Jahrzehnten

In Tokio hat es am Donnerstag zum ersten Mal seit 54 Jahren in einem November geschneit.

Die (Un-)Genauigkeiten bisheriger Arktiseis-Vorhersagen

kaltesonne: [10] Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen? Von Dr. Dietrich E. Koelle
Die  Ankündigungen, dass die arktische Eisfläche bald ganz verschwunden sein wird, gehört zu den beliebtesten Übungen von publizitätsbewussten Klimatologen als auch von amerikanischen Politikern. Demnach dürfte es heute kein arktisches Eis mehr geben:
(1) M. Murphy, New Scientist, 1960: “Der arktische Ozean wird über das ganze Jahr offen sein noch vor dem Ende des 20.Jahrhunderts” (d.h. dem Jahr 2000),
(2) “Arktis-Spezialist Bernt Balchen 1972:  “Der Erwärmungstrend kann einen eisfreien arktischen Ozean  bis zum Jahr 2000 erzeugen”.
(3) Jay Zwally (NASA) sagte im Dez.2007 : “Der arktische Ozean könnte im Sommer 2012 fast eisfrei sein” (Natl.Geographic)
(4) Louis Fortier (Arctic Net, Kanada) 2007: “Die Arktis könnte im Sommer eisfrei sein bis 2010 oder 2015”
(5) David Barber (Univ.of Manitoba), 2008: “Der Nordpol könnte dieses Jahr erstmals eisfrei sein” : Juni 2008 (2) (3)
(6) Prof. W. Maslowski (US Naval Postgraduate School), 2008: “Im Sommer 2013 haben wir eine eisfreie Arktis”.
(7) M. Serreze, NSIDC (National Snow and Ice Data Centre, Colorado, USA) in 2008: “die Arktis könnte 2012 eisfrei sein”
(8) Al Gore, ehem.US-Vizepräsident bei der Klimakonferenz 2009 in Kopenhagen: “Arktis ist eisfrei in 5 Jahren” = 2014.
(9) US-Senator John Kerry 2009: “Die Arktis wird im Sommer  2013 eisfrei sein”
(10) Prof. P. Wadhams (Cambridge University), 2007: das arktische Eis ist in einer Todesspirale”, und 2011: “das Eis kann in vier Jahren alles verschwunden sein”, d.h. 2015.
Zufügung des Autors: Radio Bremen, 21. April 2016: Wissenschaftler erwarten dünneres Eis in der Arktis
Der vergangene Winter war relativ warm – auch am Nordpol. Forscher des Alfred-Wegener-Institutes (AWI) in Bremerhaven rechnen damit, dass das Meereis im Arktischen Ozean im Sommer so dünn sein könnte wie im Negativrekordjahr 2012. Die Wissenschaftler beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt.

Der historische Temperaturverlauf der Arktis ist durch Zyklen und nicht durch CO2 geprägt

Zur Aussage des AWI: „ … beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt“ lässt sich mit dem folgenden Bild 15, welches den stark zyklisch geprägten Temperaturverlauf der Arktis zeigt schön darstellen, was eine solche, angeblich „wissenschaftliche“ Aussage wirklich wert ist und welche Tendenzinformation dahinter steckt. Auf keinen Fall ist sie seriös und für Entscheidungen zu Klimamaßnahmen auch nicht hilfreich.

Bild 15 [10] Temperatur-Entwicklung in der Arktis, 1860-2000

Original-Bildtext: [10] BILD 3 (Anm.: Hier Bild 10) zeigt die Temperaturentwicklung von 1860 bis 2000 die sowohl global wie auch in der Arktis durch einen deutlich erkennbaren 60-Jahresszyklus  mit Temperatur-Schwankungen zwischen 0,2 und 1,2°C gekennzeichnet ist. Der russische Autor Frolov zeigt in Bild 4 einen ähnlichen Verlauf für die Barentsee (70-90° N) und wagt eine Extrapolation für die kommenden 50 Jahre. Demnach ist ein Temperaturabfall um ca. 1,5°C zu erwarten. Auch in einem ein neuen GEOMAR-Papier von 2014 mit den Ergebnissen eines neuen Klimamodells, das den NAO-Einfluss einbezieht, ist das Ergebnis eine kommende Temperatur-Abkühlung im Nordatlantik-Bereich.

Damit ist ziemlich sicher – das Arktiseis schmilzt nicht linear und eine seriöse Vorschau ist damit nicht möglich. Die Studie dient nur zur Darstellung der „Political Correctness“

Erinnerung: Herr Dr. Notz und seine Co-Autorin verkünden als Kernbotschaft: [1] we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions.

Diese Aussage und die Herleitung mittels einer einfachen Korrelationsbetrachtung, dazu über einen relativ kurzen (und problematischen) Zeitraum ist höchst unwissenschaftlich, wenn nicht unseriös. Man kann mit recht guter Sicherheit annehmen, dass diese Aussage falsch ist; und zwar sowohl was den linearen Trend betrifft, als auch den gemeldeten, linearen CO2-Einfluss. Den Studienautoren dürfte das bestimmt bewusst sein – was sie aber nicht an einer Publizierung hinderte, um Daten präsentieren zu können, welche den politischen Vorgaben entsprechen.

Die “Studie” hat damit jedoch nicht mehr “Wahrheitsgehalt”, als die ebenfalls aufgrund der Korrelation inclusive genauer Fehlerberechnung tätigbare Aussage von Bild 16.

 

Bild 16 Zeitreihen der Höhe der US Postgebühren von 1900 – 2000 (blau), der globalen Mitteltemperatur (orange) und der CP2 Konzentration (weiß). Wie deutlich erkennbar ist, folgt die Kurve der US Postgebühren der Entwicklung der globalen Mitteltemperatur wesentlich besser als die CO2 Kurve. Die Korrelation ist deutlich enger. Quelle: EIKE: Levermanns Märchenstunde – PIK Forscher verkauft Spekulationen als wissenschaftliche Wahrheiten

In der Klimawandel- “Wissenschaft” macht so etwas aber nichts aus. Da darf das “wissenschaftliche” Niveau ruhig beliebig weit unter dem von “Jugend Forscht” liegen – sofern das Ergebnis AGW-Klimawandel-bejahend ausfällt. Die vorbehaltlose Zustimmung der (Des-)Informationsseite von C. Kemfert (und der “üblichen” Medien) ist dann jedenfalls schon gesichert.

Mehr war aber auch wohl nicht gewollt, als sich der betont klimalarmistisch gebende Deutsche “Wissenschaftler” und die Greenpeace nahe stehende CO-Autorin für eine Studie zur Ermittlung des gewünschten Klimazusammenhanges fanden. Bezahlen muss es sowieso der Steuerzahler. Dass das Max Plank-Institut sich seinen Ruf ruinieren lässt, scheint es nicht zu stören – schließlich geht es ja um ein gutes Klima-Werk.

Wie seriösere Forscher das Thema darstellen, lässt sich auch nachlesen:

PolarNEWS, Oktober 25, 2016: Wie ist ein „eisfreier“ arktischen Sommer definiert? Wissenschaftler sprechen in der Regel von einer „eisfreien Arktis“, wenn weniger als 1 Millionen Quadratkilometern von Eis bedeckt sind. Das bedeutet, dass der Arktische Ozean praktisch eisfrei ist, während einige Gebiete im nördlichen Kanada und Grönland weiterhin eisbedeckt sind. … „Wenn es um die Vorhersage des Zeitpunktes einer eisfreien Arktis geht, zeigen verschiedene Klimamodelle eine große Bandbreite von über 100 Jahren. … Insgesamt zeigen unsere Ergebnisse, dass man vorsichtig sein muss, wenn man die langfristigen Meereisvorhersagen von Klimamodellen eingrenzen will“.

So schlimm war die Arktiserwärmung noch nie, die Folgen sind nicht absehbar – schrieb man im Jahr 1922

Zum Ende hin eine kleine Zugabe zum Arktisklima und wie sich Apokalypsen wiederholen.
Quelle: Alles Schall und Rauch:
Bericht von einer Expedition nach Spitzbergen unter der Führung von Dr. Adolf Hoel im Auftrag des norwegischen Wirtschaftsministeriums, verfasst im Jahr 1922: Die Veränderung der Arktis
Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt.
Die Meeresbeobachtungen sind aber noch interessanter. Die Eisbedingungen waren aussergewöhnlich. Tatsache ist, so wenig Eis hat man noch nie vorher notiert. Die Expedition hat praktisch einen neuen Rekord aufgestellt, in dem sie so weit nördlich segelten bis 81° 29’ in eisfreien Wasser. Das ist der nördlichste Punkt der jemals mit moderner ozeanografischen Geräten erreichte wurde.
Die Eigenschaft des Wassers im grossen Polarbecken war bisher unbekannt. Dr. Hoel berichtet, dass er einen Querschnitt des Golfstrom auf 81° nördlicher Breite gemacht und Tiefen von 3’100 Meter gemässen hätte. Diese zeigen den Golfstrom als sehr warm und er kann als Oberflächenstrom nach dem 81° Parallel verfolgt werden. Die Wärme des Wassers macht es wahrscheinlich, dass günstige Eisbedingungen für einige Zeit weitergehen.
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt. Das hat aber den Kapitän nicht überrascht. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemässen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“

Im Jahr 1975 folgte die große Kälte

Alles Schall und Rauch: Am 28. April 1975 erschien ein Artikel im Nachrichtenmagazin <Newsweek>, in dem Wissenschaftler in dramatischen Worten vor einer drohenden Eiszeit warnten. Die globalen Temperaturen wären stark gefallen und die Fläche der Polkappen würden zunehmen. Sie schlugen der amerikanischen Regierung vor, die ganze Eisfläche des Nordpols mit schwarzem Ruß zu bedecken, damit die Sonne diese schmilzt, um eine gefährliche Klimaabkühlung zu verhindern.

Das Eis der Antarktis

Auf der Südpolseite, der Antarktis, lässt sich kein Klimawandel feststellen. Das ist bekannt und führt dazu, dass zur „Erzeugung“ eines Klimawandel-Effektes vehement das Abrutschen von Festlandsgletschern ins Meer simuliert wird, worin das PIK wohl eine Vorreiterrolle innehat. Selbstverständlich finden sich für jede Argumentation viele belegende Studien.
Auf kaltesonne kam zur Antarktis einmal eine recht umfassende Darstellung:
kaltesonne, 17. Juni 2015: Klimamodellierer haben ein riesiges Problem: Modelle können Zunahme des antarktischen Meereises nicht reproduzieren
Die offiziellen Satellitendaten lassen keinen Raum für Spekulationen. Das antarktische Meereis wächst und wächst, und das seit 35 Jahren.

Eine weitere findet sich auf Ruhrkultour: NASA-Studie: Der antarktische Eisschild wächst
Ein neue Analyse von Satellitendaten der NASA, die am 30. Oktober 2015 veröffentlicht und am 18. August 2016 aktualisiert wurde, kommt zu dem Ergebnis, dass der antarktische Eisschild von 1992 bis 2001 einen Nettogewinn von 112 Milliarden Tonnen Eis pro Jahr aufweist. Der Nettogewinn des Eises hat sich zwischen 2003 und 2008 auf 82 Milliarden Tonnen Eis pro Jahr allerdings verlangsamt.
Die Antarktis enthält 90 Prozent des Eises der Erde. Wenn der antarktische Eisschild wächst, würde das nicht bedeuten, dass mehr als 90 Prozent der Gletscher der Welt wachsen?
Eine kleine Verdickung des Eises in der Ost-Antarktis und im Inneren der Westantarktis um durchschnittlich 0,7 Zoll (1,7 Zentimeter) pro Jahr wirkt sich nachhaltig über Tausende von Jahren aus. Sie entspreche einem sehr großen Gewinn von Eis – genug, um die Verluste aus schnell fließenden Gletschern in anderen Teilen des Kontinents zu überwiegen und den globalen Anstieg des Meeresspiegels zu reduzieren, sagen die NASA-Forscher.

Quellen

[1] Dirk Notz, Julienne Stroeve: served Arctic sea-ice loss directly follows anthropogenic CO2 emission

[2] Max Plank Gesellschaft, November 04, 2016, MPI-Met/PH: My contribution to Arctic sea ice melt
https://www.mpg.de/10817029/my-contribution-to-arctic-sea-ice-melt

[3] kaltesonne 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis
http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[4] NCAR December 8, 2015: NCAR develops method to predict sea ice changes years in advance Amid long-term retreat, winter sea ice could hold steady in the next several years
Zitat: “But we are predicting that the rate will taper off for several years in the future before resuming.

[5] Danish Meteorological Institute Scientific Report 05-02, 2005, Knud Lassen and Peter Thejll: Multi-decadal variation of the East Greenland Sea-Ice Extent: AD 1500-2000

[6] Institut für Geographie, Universität Hamburg, 2007, Börge Pflüger: Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

[7] Jochen Halfar at al.: Arctic sea-ice decline archived by multicentury annual-resolution record from crustose coralline algal proxy
GEOMAR: 650 Jahre arktische Eisbedeckung rekonstruiert. Forscher aus Deutschland, den USA und Kanada nutzen Rotalgen als Klimaarchiv
http://www.geomar.de/news/article/650-jahre-arktische-eisbedeckung-rekonstruiert/

[8] Notz, D. (2015): Historische und zukünftige Entwicklung des Arktischen Meereises. In: Lozán, J.L., H.Grassl, D.Kasang, D.Notz & H.Escher­Vetter (Hrsg.). Warnsignal Klima: Das Eis der Erde. pp. 194­198. Online: www.klima­warnsignale. uni­hamburg.de. doi:10.2312/warnsignal.klima.eis­der­erde.29

[9] Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

[10] kaltesonne, 5. Januar 2016: Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen?

[11] Takuro Kobashi at al, 10. Nov. 2011: High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core

[12] B. Christiansen and F. C. Ljungqvist, 18 April 2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

[13] Arctic Council (2016). Arctic Resilience Report. M. Carson and G. Peterson (eds). Stockholm Environment Institute and Stockholm Resilience Centre, Stockholm




Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein


FOCUS ONLINE: Menschgemachter Klimawandel Einmalig in der Erdgeschichte: Fällt die nächste Eiszeit aus?
Für die Forscher des Instituts für Klimafolgenforschung in Potsdam ist klar: Der Mensch ist zu einer geologischen Kraft geworden – und diese kann den Beginn der nächsten Eiszeit unterdrücken. Denn trotz geringer Sommer-Sonneneinstrahlung kündigt sich keine neue Eiszeit an. Daher untersuchten die Potsdamer Wissenschaftler die Mechanismen, die die letzten Eiszeitzyklen angetrieben haben.
Das Ergebnis: Die letzten acht Eiszyklen lassen sich durch die Sonneneinstrahlung auf die Erde und die CO2-Konzentration in der Atmosphäre erklären. Die Wissenschaftler kommen zum Schluss, dass die Störung des natürlichen Kohlenstoffhaushalts durch den Menschen die nächste Eiszeit um 100.000 Jahre verschieben könnte – was bedeuten würde, dass wir einen kompletten Eiszeitzyklus überspringen. Die gegenwärtige Warmphase währt ohnehin schon lange.
Den Beginn einer neuen Eiszeit erwarten Forscher in etwa 50.000 Jahren – das allein ist schon eine ungewöhnlich lange Phase zwischen zwei Eiszeiten. Und diese könnte durch zusätzliche CO2-Emissionen aus der Verbrennung von Öl, Kohle und Gas sogar nochmals um 50.000 Jahre verlängert werden.

In der „Eiszeit“-Literatur wird zwar überall festgestellt, dass man die Eiszeitzyklen immer noch nicht ganz versteht. Man glaubt zwar, eine Haupt-Ursache zu kennen (Milanković-Zyklen), doch trotzdem bleibt noch vieles ungeklärt. Vor allem der Zyklen-Zeitsprung vor ca. 900.000 Jahren, der Pegelsprung vor ca. 400.000 Jahren und viele Einzeleffekte, welche immer neu zeigen, dass viele Theorien zwar Teilaspekte erklären können, aber keine das gesamte Eiszeit-Erscheinungsbild abdeckt.
Doch dem PIK gelang plötzlich das „Erkenntniswunder“:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

So löst heutige (AGW-)Klima-Wissenschaft bisher unklärbare Fragen im Handumdrehen: Man nehme ein Simulationsprogramm (von denen keines das Wetter in 14 Tagen vorhersagen kann) und schon sind die Geheimnisse der letzten 2,6 Millionen Jahre gelöst – und das sogar noch rechtzeitig vor einem Klimagipfel. Und den Wissensbürgern wird es auch sofort als eine „Wahrheit“ dargestellt.

wiki Bildungsserver: Eiszeitalter
Die Warmzeiten dauerten zwischen 10 000 und 30 000 Jahre. Dazwischen lagen verschiedene Kaltzeiten wie die Weichsel-, die Saale- oder die Elster-Kaltzeit (Benennungen nach der norddeutschen Nomenklatur). Eine besonders lange Warmzeit von ca. 30 000 Jahren gab es vor etwa 400 000 Jahren. Auch für die jetzige Warmzeit ist unter natürlichen CO2-Bedingungen eine ähnliche Dauer berechnet worden. Bleibt der jetzige Kohlendioxidgehalt der Atmosphäre über viele Tausend Jahre erhalten oder steigt sogar noch weiter an, könnte die nächste Kaltzeit ausfallen und das seit 2,6 Millionen Jahren andauernde Eiszeitalter beendet sein. Die Menschheit hätte dann möglicherweise eine neue Klimaepoche eingeleitet, das „Anthropozän„.

Klimaretter.Info war auch sofort davon begeistert, nur „kaltesonne“ brachte eine Kritik und wies auf eine große Ungereimtheit der Parametrierung hin: CO2 in der Atmosphäre ist nicht so extrem langlebig. Setzt man die Verweilzeit jedoch realistisch ein, „verpufft“ die „Eiszeit-Ausfall-Illusion“.
kaltesonne: „PIK warnt vor Ausfall der nächsten Eiszeit. Mojib Latif cool: “100 Jahre bleibt CO2 in der Luft

Die Eiszeiten ganz kurz gefasst

„Die Eiszeiten“ kennt jeder, die Daten dazu und was diese für die Zukunft bedeuten haben aber wohl wenige parat, deshalb anbei eine kurze Darstellung.

Zitat: Eiszeit – Zyklen dauern etwa 100 bis 125.000 Jahre, dazwischen liegende Interglaziale bzw. Warmzeiten nur etwa 15 bis 20.000 Jahre. Die letzte Eem-Warmzeit dauerte jedoch nur 11.000 Jahre. Der letzte Eiszeit-Zyklus ist vor etwa 11.500 Jahren zu Ende gegangen.
Wann waren Eiszeiten

WISSEN DIGITAL: Eiszeiten
Donau-Kaltzeit vor mehr als 600.000 Jahren – Günz-Kaltzeit um 550.000 – Günz-Mindel-Warmzeit um 500.000 – Mindel-Kaltzeit um 400.000 – Mindel-Riss-Warmzeit um 300.000 v.Chr. – Riss-Kaltzeit um 200.000 – Riss-Würm-Warmzeit um 100.000 – Würm-Kaltzeit um 80.000, mit zwei Erwärmungsperioden um 60.000 und 40.000 v.Chr. Ende der Eiszeit, von Süden nach Norden abklingend, um 15.000-12.000 v.Chr. Nach stärkerem Wärmevorstoß (Alleröd-Schwankung um 10.000 v.Chr.) erfolgte der Durchbruch zu gemäßigtem Klima um 8.000 v.Chr. (Boreal), doch wurde eine vorübergehende Warmperiode (Atlantikum) noch um 6.000 v.Chr. verzeichnet.

Das hört sich einfach an. Doch die Eiszeiten traten regional unterschiedlich und mit Zeitversatz auf. Selbst wenn sie zur gleichen Zeit waren, haben sie dann unterschiedliche Namen, die teilweise auch noch „veralten“ und durch neue ersetzt wurden. So hat Norddeutschland zum Beispiel drei „Kern-Eiszeiten“, während Süddeutschland (mit den Alpen) in der gleichen Zeit deren vier ausweist. Dazu kommen noch die „Kleinen“ von „Zwischendurch“. Will man eine Zeitzuordnung vornehmen, stellt man fest, dass diese zwischen den Publikationen ebenfalls deutlich voneinander abweichen.
Fazit: Will man sich mit solchen Datendifferenzen eine Zeittabelle (zum Rechnen) zusammenstellen, kann man verzweifeln.
Ein Auszug der letzten Großen Eiszeiten alleine für Deutschland sieht wie folgt aus:

Bild 1 [2] Die jüngeren Eiszeiten in Deutschland (Bildausschnitt), ©Institut für Länderkunde 2002Um es anschaulicher zu machen, hat der Autor im folgenden Bild des Temperaturverlaufs der letzten 450.000 Jahre die vier großen Eiszeiten der Alpen eingetragen. Dabei musste er feststellen, dass in der Literatur zwischen den Datierungsangaben Zeitdifferenzen von 50.000 – 100.000 Jahren „normal“ sind, die Zeiten selbst teils aber fast auf das Jahrtausend genau angegeben werden, Beispiele:

Lexikon der Geowissenschaften: Holstein Interglazial: … Entsprechend unsicher ist die Datierung. Es kommt bei einer Dauer von ca. 15.000 Jahre eine Zeitspanne von 180.000 bis 400.000 Jahre in Frage. In diesem Zeitraum hat es mehrere Interglaziale gegeben, so daß auch vom Holstein-Komplex gesprochen wird.
Universität Tübingen Geographisches Institut, M. Mattes: Das Holstein-Interglazial
Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute… weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf …

Man beachte: Alleine zwischen diesen zwei Publizierungen ergibt sich eine Zeitspanne der Dauer des „Holstein-Interglazials“ zwischen 15.000 … 30.000 Jahren, von der Datierung, wann sie begann, gar nicht zu reden. Dabei ist gerade diese Warmzeit die wichtigste.
Der Autor ist sich somit nicht sicher ist, ob seine Zuordnungen stimmen. Da die Benennungen für die folgenden Betrachtungen unwichtig sind, wurde das Datierungsproblem jedoch nicht weiter vertieft.

Bild 2 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Bild 2 zeigt nur einen Ausschnitt der viel längeren Eiszeitgeschichte. Deshalb das folgende Bild inclusive der davor liegenden und unerklärlicher Weise nicht so warmen Zwischenzeiten. Was man zudem an diesem Bild bei genauerem Hinsehen zuätzlich sieht ist, dass die Warmzeitlängen deutlich von den verwendeten Rekonstruktionsproxis abhängen (im Bild sind es vier verschiedene).

Bild 3 [3] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur

Um einen ganz kleinen Eindruck der Zeit-Differenzen aufzuzeigen, hat der Autor aus Bild 2 und 3 Daten tabelliert:

Bild 4 Vom Autor aus den Bildern 2 und 3 entnommene Daten

Wann die aktuelle Warmzeit enden wird, weiß niemand

Daraus ergibt sich für die aktuelle Warmzeit in der wir uns befinden: Bei zyklischer Betrachtung kann der Zenit bereits überschritten sein. Und da die kommende Kaltzeit auch lokal begrenzt beginnen kann, ist ein Start (irgendo auf dem Nordteil des Globus) jederzeit möglich.

Mittelbayerische Zeitung: Warmzeit in der Eiszeit Nächste Kaltzeit in 10.000 bis 20.000 Jahren
… Wann genau die nächste Kaltzeit einsetzen wird, sei „sehr, sehr unsicher“, räumt Klages ein. Zu komplex ist das Gefüge und Zusammenspiel möglicher Ursachen für Kalt- und Warmzeiten …

Allerdings gibt es parallel die Theorie, dass man nach Ähnlichkeiten verfahren muss. Die aktuelle Warmzeit passt danach am besten zu der des Holstein-Interglazials vor über 400.000 Jahren, Beispiel:
Eberhard-Karls-Universität Tübingen Geographisches Institut, M. Mattes:
Das Holstein-Interglazial
Das besondere an der Holstein-Warmzeit ist, das zu dieser Zeit dieselben Orbitalparameter geherrscht haben wie heute. Deshalb ist sie am besten geeignet um Anhaltspunkte über die Dauer und den natürlichen Temperaturverlauf des jetzigen Interglazials zu erhalten (Wilson 2000, S. 156f). Im Gegensatz zur üblichen Dauer der Interglaziale von rund 11.000 Jahren (Wilson 2000, S.156) weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf (Klotz 2005, S.41). Sollte also das Holozän analog zur Holstein-Warmzeit verlaufen, so würde das Holozän noch für einige Tausend Jahre andauern.
Allerdings ist unklar, ob der menschliche Einfluss auf das Klima nicht doch stark genug ist um eine „Neuausrichtung“ des Klimas, entgegen des „natürlichen“ Verlaufs zu bewirken (Wilson 2000, S. 156ff). Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute. Charakterisiert wird das Klima der Hostein-Warmzeit durch hohe Temperaturen der Oberfächenwasser, einer stabilen thermohalinen Zirkulation und einem um 20 m höher Meeresspiegel.
… Aus diesem System an Faktoren genaue Wirkungsbeziehungen herauszulesen, welche nicht nur die Klimaänderungen der Vergangenheit erklären, sondern auch zukünftige Klimaentwicklungen zuverlässig prognostizieren können ist sehr schwierig und die Forschung hat hier immer noch viel zu tun.

Daraus leiten diese Forscher ab, dass die aktuelle Warmzeit ebenfalls länger dauert, eventuell sogar ausfallen könnte.
Uni Heidelberg, Foliensatz Max Camenzind 3.2016:
Das Klima der Erde II. Paläoklima & Klimazyklen
Kernaussagen 1: Keine Eiszeit in den nächsten 100.000 Jahren, Auch ohne antropogene Einflüsse war das Klima in vergangenen Warmzeiten bis zu 8° C wärmer (!) und der Meeresspiegel bis zu 5m höher Schwingungen um die Gleichgewichtslage „Warmzeit“ arktisches Eis war geschmolzen! antarktisches nicht.

Andere sehen “nur” eine Verlängerung zwischen 20.000 … 50.000 Jahren, Expertenzitat: Dann könnte es so sein, weil die Situation heute ähnlich ist, dass wir auch eine lange Warmzeit haben.

Wie beim Klima üblich, nicht alle Experten sind der gleichen Meinung. Andere sagen, es könnte unter Bedingungen auch ganz anders kommen:
Nature Geoscience Tzedakis et al. 09 January 2012: Determining the natural length of the current interglacial
Assuming that ice growth mainly responds to insolation and CO2 forcing, this analogy suggests that the end of the current interglacial would occur within the next 1500 years, if atmospheric CO2 concentrations did not exceed 240±5 ppmv.
Man beachte den in der Klimawissenschaft nie fehlenden Vertrauensbereich. Zwar hat man den Eiszeitmechanismus noch nicht entschlüsselt (weshalb man mehrere in Kombinationen annimmt), die Simulation kann aber trotzdem auf +-5ppmv genau die Auswirkung berechnen. Ein Beleg für die Leistungsfähigkeit moderner Computer und deren Programmierer, eine Schande für die Statistiker, die solche Angaben ungeprüft verwenden.

Getroffen werden diese Aussagen trotz großer Streuungen der Datierungen (15.000 … 30.000 Jahre für das Holstein-Interglazial) und einen Zeitbereich der anderen Warmzeiten zwischen 1.500 … 15.400 Jahre. Man kann sich aber schon einmal merken: Wenn die Hypothese mit der Ähnlichkeitsbetrachtung falsch ist, kann die aktuelle Warmzeit anhand der Zyklik auch schon zu Ende sein.

Das PIK hat nun mit dem CO2-Forcing die Lösungsformel gefunden

Wiederholung:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

Dieses Institut stellt damit eine neue, zusätzliche These auf, indem es sich sicher ist, alleine mit dem CO2-(Simulations-) Verhalten eine Warmzeitzukunft berechnen zu können, womit die Dabatte der Warmzeiten gelöst sei.
Weil dies eine überaus positive Nachricht ist (zumindest der Autor würde ungern die Kälte einer Eiszeit durchleben müssen, auch wenn es den Neandertalern mehrmals gelang) sollte man diese Theorie zumindest als Laie nicht anzweifeln, sondern allerhöchstens grob plausibilisieren.

Gibt es in der AGW-Klimawissenschaft auch nur eine Hypothese, in der Einigkeit besteht oder ein eindeutiger Nachweis gelingt? Kaum. Und so ist es auch bei dieser (simulierten) Hypothese. Wie so oft: Würde das Eine stimmen (CO2 ist der Antrieb der Eiszeiten), widerspricht es den “sicheren” Angaben, dass der CO2-Anteil in der Atmosphäre zu vorindustriellen Zeiten noch nie so hoch war wie aktuell:
kaltesonne:
Die tatsächliche Klimawirksamkeit von CO2 liegt deutlich unter 1,0 Grad pro Verdoppelung des atmosphärischen CO2-Gehaltes
2 unter 4,5 [°C/2xCO2] würden die erforderliche Schwankungsbreite für einen rechnerischen CO2-Klimaantrieb sogar noch deutlich erhöhen.

Damit kann also CO2 eindeutig nicht der natürliche Paläo-Klimaantrieb sein, wie uns die politisierte Klimawissenschaft ständig einzureden versucht.

Wieviel Einfluss könnte der Mensch auf die Eiszeiten haben

Nach dem PIk bestimmt er diese. Allerdings musste dessen Computer(Programm) diese Vorhersagefähigkeit noch nie belegen. Sehen wir an, wie viel der Mensch bisher wirklich am Klima “drehen” konnte. Auf WUWT gibt es dazu eine kleine Animation, anbei Screenshots daraus.

Bild 5.1 Globaltemperatur seit 1400 n. Chr. Animationsbild. Quelle: [5]

Bild 5.2 Globaltemperatur seit 800 n. Chr. Animationsbild. Quelle: [5]

Bild 5.3 Globaltemperatur seit 8000 v. Chr. Animationsbild. Quelle: [5]

Bild 5.4 Verlauf der bisherigen Warmzeit (seit ca. 17.000 Jahren). Quelle: C3 Headlines Climate Conservative Consumer

Bild 5.5 Globaltemperatur seit ca. 45.000 Jahren. Animationsbild. Quelle: [5]

Bild 5.6 Zeitbereich der jüngeren Eiszeiten. Animationsbild. Quelle: [5]

Wenn man sich diese Änderungsverhältnisse ansieht, kommen vielleicht auch manchem Leser Zweifel, ob es den Simulationen (und damit den Menschen) wirklich gelingen wird, die seit mehreren Millionen Jahren eisern ablaufenden Eiszeitzyklen auszuhebeln.

Ein dazu immer wieder vorgetragenes Argument ist die „Einmaligkeit“ der aktuellen Situation:
PIK, Rahmstorf: [6] ... Wir kennen in der Erdgeschichte auch keine so rasche globale Erwärmung wie die, die wir derzeit verursachen. Bei der Erwärmung aus der letzten Eiszeit stieg die globale Temperatur um ca. 5 °C innerhalb von 5.000 Jahren, das sind 0,1 °C pro Jahrhundert. Wir reden jetzt von 2, 3 oder 4 °C im 21. Jahrhundert, je nach Erfolg der Klimapolitik.
Diese Argumentation sollte man jedoch mit den gezeigten Bildern vergleichen und bewerten. Das „Hockey-Stickchen“ geht im Rauschen unter. Aber nicht nur in den bisherigen Bildern, sondern auch im Datenchaos der Temperatur-Rekonstruktionsversuche. Weil man mit diesen Daten nichts wirklich anfangen kann, geht man inzwischen so weit, diese zu simulieren und zu behaupten, damit die „richtigen“ ermitteln zu können! – mit Algorithmen, welche anhand der Chaosdaten „kalibriert“ wurden.

Bild 6 Proxirekonstruktionen der Temperatur der letzten 1200 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies


Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Beten, damit die Kälte früher kommt

Unter diesen Gesichtspunkten ist es fast schon unheimlich, wie massiv sich die Kirche vom AGW-Klimawandel vereinnamen lässt, anstelle ein neutrale Position einzunehmen, zumindest, bis die Klimawissenschaft wieder zu einem wissenschaftlichen Charakter zurückgefunden hat.
EIKE: Papst warnt Trump: Ziehen Sie sich nicht aus dem UN-Klima-Pakt zurück – ruft eine ,Krise des Klimawandels‘ aus
… Der Papst verlangt nach Gebeten zur Annahme des UN-Klimavertrages! Er drängt die Gläubigen „Gott um ein positives Ergebnis“ für das Paris-Abkommen zu bitten .
William M. Briggs: The Pope Is Wrong About Global Warming
Man stelle sich vor, der Globus und die Kreisbahnzyklen setzen sich doch weiter durch, die neuen Hypothesen basieren auf Datenfehlern, und die Gebete beschleunigen damit zusätzlich den Weg in die nächste Eiszeit.
Gar nicht so selten In der Geschichte haben „verwirrte“ Gläubig versehentlich ihren eigenen Untergang „herbeigebetet“, natürlich in der festen Überzeugung, das Richtige zu tun. Vom Papst wurde es bisher nicht
„ex cathedra“ (unfehlbar) ausgesprochen, womit es nicht mehr Gewicht als das jedes sonstigen (Klima-)Laien hat. Falls der Papst sich darin als Privatmann täuscht (er hat es als Privatmann ausgesprochen, also ohne göttliche Eingebung), bleibt es nur eine der vielen Fußnoten in der Kirchengeschichte, würde aber ein großes Problem für die Menschheit.

Fazit

Was wurde gelernt: Die eisigen Zeiten sind das Normale und die darin nur für eine verdammt kurze Zeit heraus ragenden Warmzeiten das Seltene. Und gegen diese nur für eine kurze Zeit gegönnte Wärme kämpft die Menschheit in einem kollektiven „Untergangswahn“ an, alleine mit der Begründung, Computersimulationen hätten dies angeordnet.

Es wird spannend werden, wer Recht behält: Der seit 2,6 Millionen Jahre währende Zyklus oder die speziellen CO2-Rechenmodelle des PIK.
Der Autor ist inzwischen aber auch in der Lage, eine präzise Aussage zur nächsten Eiszeit zu tätigen: Sie beginnt bereits aktuell, oder zwischen den nächsten 1.500 … 50.000 Jahren, dass sie ganz ausfällt, glaubt er persönlich nicht.

In ca. 50.000 Jahren weiss man dann ziemlich sicher, wer heute recht hat. Entweder ist dann der kälteste Zeitpunkt der Eiszeit erreicht, oder sie ist ausgefallen. Leider wird es keiner mehr erleben, selbst wenn die nächste Eiszeit vielleicht doch schon begonnen hätte. Da der Weg in die Kälte nicht ganz so steil (wie der in die Wärme) verläuft, wird man den Beginn lange Zeit gar nicht bemerken, sondern mit Freude als Ergebnis der CO2-Vermeidung feiern.
Was wieder auffällig ist:
Die moderne Klimawissenschaft behauptet (anhand ihrer Ergebnisse), dass selbst katastrophalste Ungenauigkeiten bezüglich der Datierungen für ihre Simulation(-Erkenntnisse) kein Problem darstellen. Und sie behauptet, dass diese damalige Warmzeit unserer aktuellen so ähnlich sei, dass sie als Korrelationspaar dienen könne, obwohl der Meeresspiegel 20 m höher lag und heute um Zehntel mm / pa jährlichem Anstieg gerungen wird.
Es passt argumentativ einfach zu Vieles nicht zusammen.

Quellen

[1] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

http://www.eike-klima-energie.eu/news-cache/faellt-die-naechste-eiszeit-aus-pik-chef-schellnhuber-behauotet-ja-so-sicher-wie-das-amen-in-der-kirche/

[2] Herbert Liedtke: Deutschland zur letzten Eiszeit
[3] ScienceSkepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/

[4] PIK: Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
https://www.pik-potsdam.de/aktuelles/pressemitteilungen/menschgemachter-klimawandel-unterdrueckt-die-naechste-eiszeit

[5] WEB-Animation: Alley, R.B. 2004 GISP2 Ice Core Temperature and Accumulation Data. IGBP Pagges/World Data Center for Paleoclimatology, Boulder CO, USA
https://wattsupwiththat.files.wordpress.com/2009/12/noaa_gisp2_icecore_anim_hi-def3.gif

[6] EIKE: Das Golfstromsystem. Rahmstorf vs. Krüger. Und er versiegt doch!
http://www.eike-klima-energie.eu/2016/12/12/das-golfstromsystem-rahmstorf-vs-krueger-und-er-versiegt-doch/