Guter Vorschlag: Grüne fordern Überprüfung von BGR-Studie zur Klimawirkung der Sonne – ZDF Harald Lesch überprüft „wissenschaftlich“ das AfD Programm

Aus die kalte Sonne:

Im Januar 2016 gab die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) Entwarnung und erklärte Fracking für unbedenklich. Dies erzürnte die Anhänger der Erneuerbaren Energien so sehr, dass sie auf Rache sannen. Wie könnte man der BGR einen Denkzettel verpassen? Der Solar-Anhänger und WDR-Journalist Jürgen Döschner nutzte am 29. Juni 2016 seine Position, um auf Tagesschau.de gegen die BGR zu hetzen. Die Behörde hätte doch tatsächlich Industriegelder angenommen, um Klimawandelstudien kozufinanzieren, unerhört. Daher wären wohl alle Ergebnisse automatisch zu hinterfragen:
Die Bundesanstalt für Geowissenschaften und Rohstoffe ist einer der wichtigsten Beratungs- und Forschungsdienste der Bundesregierung. Doch wie unabhängig ist die BGR? Über eine Stiftung werden mit Geldern aus der Industrie “verdiente Mitarbeiter” belohnt.
Die Nachricht schlug damals ein wie eine Bombe: Nicht die Verbrennung von Kohle, Öl und Gas, nicht das üble CO2 ist hauptverantwortlich für den Klimawandel, sondern schlichter Wasserdampf und die Aktivitäten der Sonne. 1995 erschien eine Studie, die genau zu diesem Schluss kam.
Die Autoren: namhafte Wissenschaftler der ebenso namhaften Bundesanstalt für Geowissenschaften und Rohstoffe (BGR). Kurze Zeit später veröffentlichte die BGR auf der Basis dieser Studie das Buch “Klimafakten” – bis heute eine Art “Heilige Schrift” all jener, die den Klimawandel oder zumindest den Anteil des Menschen daran bezweifeln.
Was bislang nicht bekannt war: Die umstrittene BGR-Studie war seinerzeit von der Industrie bezahlt worden. Genauer gesagt von der “Hans-Joachim-Martini-Stiftung”, einer bis heute weitgehend unbekannten und im Verborgenen arbeitenden gemeinnützigen Stiftung. […]
[…] die atompolitische Sprecherin der Grünen im Bundestag, Sylvia Kotting-Uhl […] sieht durch die Existenz und das jahrzehntelange Wirken der Hans-Joachim-Martini-Stiftung “die Unabhängigkeit und Seriosität der BGR kompromittiert”. Das Bundeswirtschaftsministerium weist diesen Verdacht zurück. Der niedersächsische Umweltminister Wenzel von den Grünen fordert angesichts der Recherchen von WDR, NDR und “Süddeutscher Zeitung”, die bisherigen Studien und Stellungnahmen der BGR noch einmal zu überprüfen.
Offensichtlich hat sich Döschner mit der Thematik selber noch nie beschäftigt, ansonsten wäre ihm schnell klargeworden, dass die BGR in ihrem Buch lediglich den Stand der Wissenschaft wiedergegeben hat. Ob es Döschner gefällt oder nicht: Eine Vielzahl von begutachteten Studien hat eindrucksvoll den großen Einfluss von solaren Aktivitätsschwankungen belegt. Es ist daher in keinster Weise angebracht, nun mit dem Finger auf die BGR zu zeigen. Vielmehr sollte lieber der IPCC erklären, wie er angesichts der erdrückenden Faktenlage einen vernachlässigbar geringen Strahlungsantrieb für die Sonne rechtfertigt.
Das klimatische BGR-Mobbing ist keineswegs neu. Wir hatten an dieser Stelle bereits über die seinerzeit von Aktivisten und Politikern eingefädelte Kampagne berichtet (siehe unseren Blogbeitrag “Pioniere des Klimarealismus: Die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR)“). Das Wiederaufflackern dieser Kampagne spricht im Prinzip vor allem gegen die Seriosität von Döschner. Unter anderem verschweigt er dabei wichtige Kontextinformationen. So erhielt das Potsdam-Institut für Klimafolgenforschung (PIK) 2014/15 mehr als eine halbe Million Dollar von einem Greenpeace-nahen politischen Thinktank. Folgt man der Döschner-Logik, wären damit sämtliche Aussagen des PIK zu hinterfragen.
Die Tagesschau muss sich den Vorwurf gefallen lassen, dass sie Aktivisten eine öffentliche Bühne bietet. Ausgewogene Berichterstattung sieht anders aus. Vielleicht hat der ganze Vorfall aber letztendlich auch etwas Gutes. Man sollte den Vorschlag des niedersächsischen Umweltministers Wenzel aufgreifen und die BGR-Studie fachlich überprüfen. Man muss kein Hellseher sein, dass sich dabei die Aussagen der BGR zum Klimawandel bestätigen lassen werden. Das wäre ein schwerer Schlag gegen den grassierenden Klimaalarm in der Gesellschaft. Man darf gespannt sein, wie und ob sich dieser Fall weiterentwickelt.

Das Original finden Sie hier

Und hier Prof. Dr. Harald Lesch zum Klima-Programm der AfD

Es darf gelacht werden. Ausführlicher Kommentar folgt.




Strafrechtliche Verfolgung von AGW Skeptikern im Parteiprogramm der US-Demokraten

Eine Gruppe von Demokraten stimmte am Freitag [den 24.06.16] dem endgültigen Entwurf des Parteiprogramms zu: "Progressive-demokratische Werte" zu fördern, die offensichtlich die Untersuchung von Energieunternehmen umfasst, die ihre Aktionäre über die globale Erwärmung "irreführen".

Bildabzug von The Daily Caller: Ist die Demokratische Partei nun offiziell faschistisch geworden?

"Auch ein weiterer gemeinsamer Vorschlag, der das Justizministerium aufruft, den mutmaßlichen Betrug seitens der fossilen Brennstoff Unternehmen zu untersuchen, die ihre Aktionäre und die Öffentlichkeit über die wissenschaftliche Realität des Klimawandels in die Irre geführt haben, wurde einstimmig angenommen",  nach der Democratic National Convention-Website. [DNC]

Video auf der Originalseite (link unten) über den Vorgang und das Parteitreffen der Demokraten. Videos /Imagery von Getty und Imagery von AP, wegen Urheberrechten nicht hier eingefügt, der Übersetzer.

Der Redaktionsausschuss, angeführt von DNC Vorsitzender Debbie Wasserman Schultz und Marylands Abgeordneter Elijah Cummings, hat beschlossen, die laufenden Ermittlungen der meisten Demokratischen Justizminister [AG’s] von ExxonMobils Haltung zur globalen Erwärmung zu unterstützen.

Aktuell haben Justizminister (Attorney General) aus Kalifornien, Massachusetts, New York und den US-Virgin Islands Untersuchungen von Exxon ins Leben gerufen und mindestens zwei AGs haben Aufzeichnungen über konservative Think Tanks und AGW-skeptische Wissenschaftler gefordert. Eine solche Ausrichtung hat die Überzeugung angetrieben, dass diese Untersuchungen ein Angriff auf die Meinungsfreiheit sind.

New Yorks Justizminister Eric Schneiderman war der erste, eine Untersuchung von Exxon zu starten, basierend auf Berichten von Linken-Umwelt Reportern bei InsideClimate News und der Columbia University. Schneiderman war Gastgeber einer Konferenz im März mit anderen Justizministern, die weitere Untersuchungen zu Exxon ankündigten.

Republikanische Gesetzgeber und Justizminister haben zurückgeschossen und nennen die Ermittlungen bei Exxon und Think Tanks einen Angriff auf die Meinungsfreiheit.

Einige Republikanische Justizminister haben ihre liberalen Kollegen vor kurzem gewarnt, dass, wenn gegen Skeptiker für falsche Darstellung der globalen Erwärmung ermittelt werden kann, dieses auch für Panikmacher gelten kann.

"Wenn es möglich ist, die Risiken des Klimawandels zu minimieren, dann gilt das Gleiche auch für Übertreibung", schrieben die republikanischen Justizminister, "Wenn Minimierung Betrug ist, ist Übertreibung Betrug."

Demokraten haben über Argumente, die von ihrer eigenen Meinung abweichen, weitgehend gespottet und beschuldigen Exxon und andere des Betrugs, wenn sie nicht mit der Klimapolitik der Obama-Regierung einverstanden sind, bzgl. der ernsten Gefahr der globalen Erwärmung und deren Auswirkungen.

"Als Demokraten glauben wir, dass die größte Stärke unseres Landes seine Menschen sind und wir sind den Werten der sozialen Integration und Chancen für alle verpflichtet ", sagte Frau Debbie Wasserman Schultz in einer Erklärung. „Unsere Kandidaten veranstalteten starke Kampagnen, die die Prioritäten der amerikanischen Bevölkerung aufgriffen und ich bin stolz zu sagen, dass der Entwurfsprozess unseres Engagements als Partei ihre Stimmen reflektiert hat."

Der Entwurf des Parteiprogramms muss nun die Genehmigung durch den vollständigen Partei-Programm Ausschuss in Orlando im Juli erhalten. Das Dokument wird dann später bei der Democratic National Convention [Partei Hauptversammlung] in diesem Monat genehmigt werden müssen.

Das Parteiprogramm der Demokraten begrüßt nicht nur die Verfolgung von Skeptikern, es enthält auch eine Klausel, fossile Brennstoffe bis zum Jahr 2050 zu beseitigen.

„Jenseits aller oben genannten "Lösungsansätze zur Energie im 2012er Parteiprogramm, wiederholt der 2016er Programmentwurf wieder die Dringlichkeit des Klimawandels als zentrale Herausforderung unserer Zeit, der sich bereits auf amerikanische Gemeinden auswirkt, mit der Aufforderung zur Erzeugung von 50 Prozent sauberen Strom innerhalb der nächsten zehn Jahre", lautet die Zusammenfassung.

"Der Ausschuss verabschiedete einstimmig einen gemeinsamen Vorschlag von Sanders und Clinton Vertreter, Amerika bis zur Mitte des Jahrhunderts vollständig auf saubere Energie umzustellen und unterstützt die ehrgeizigen Ziele , die durch Präsident Obama und dem Pariser Klimaabkommen gesetzt wurden", so das Parteiprogramm.

Erschienen auf The Daily Caller am 27.06.2016

Übersetzt durch Andreas Demmig

* * *

Hinweis in eigener Sache:
Die US-sprachigen Artikel verwenden oft nur die Abkürzung „AG“ für „attorney general“, zum Teil ergänzt durch „state a…g..“.

Herr Prof. Kramm machte mich dann in einem Blogbeitrag #14, darauf aufmerksam,

„Maura Healey ist Attorney General, d.h. Justizministerin von Massachusetts. Das ist ein gewaltiger Unterschied, denn sie ist politischer Wuerdentraeger. Diese koennen sich praktisch alles erlauben, solange sie nicht durch Gerichte gebremst werden.“

Offenbar verwenden die amerikanischen Autoren „AG“ nicht nur für die Justizminister, sondern auch für Generalstaatsanwälte. Selbst beim Nach-recherchieren werden mir die Unterschiede nicht immer klar.

Ich bitte daher um Entschuldigung, wenn die von mir gewählten Dienstrangbezeichnungen nicht ganz korrekt sind. Ich hoffe, dem Verständnis der Vorgänge in USA tut das keinen Abbruch.




Zum Sommerstart: Die vergebliche Suche nach der „Klimaerwärmung“ im Frühsommermonat Juni

Bild rechts: Wegen der Junikälte 2016 zeigten die jungen Triebe vieler Bäume und Büsche eine rötliche Färbung. Bei Kälte ziehen die Pflanzen ihr Blattgrün zurück und stellen die Fotosynthese ein. Vor allem in Süddeutschland war der Juni sehr kalt.

Beginnen wollen wir mit einem langen Zeitabschnitt unserer Junibetrachtungen

Grafik 1: In den letzten 120 Jahren hatte der Monat Juni zwei kühlere Phasen, um 1920 und um 1970 bis 1990. Die Temperatur-Höhepunkte des sinusartigen Temperaturverlaufes lagen vor 1900, um 1945 und kurz nach 2000. Auch wenn die polynomische Trendlinie Beginn und Ende stets verzerrt sowie Ausreißer überbetont, kann sie trotzdem sehr schön den Schwingungsverlauf des Monates Juni über den langen Betrachtungszeitraum herausstellen. Das Polynom zeigt: Es gibt keine kontinuierliche Erwärmung wie eine lineare Trendlinie dies mit y = 0,004 x zeigen würde.

Da die Daten des Deutschen Wetterdienstes nicht wärmeinselbereinigt sind, würde die lineare Trendlinie von WI-bereinigten Daten sogar eine leichte Tendenz zur Abkühlung über die 122 Jahre zeigen.

Schon aus Grafik 1 ist ersichtlich, dass Kohlendioxid auf diesen Temperaturverlauf keine Auswirkung haben kann. Denn seit 1959, dem Beginn der regelmäßigen Messungen auf dem Mouna Loa, steigen die CO2-Konzentrationen der Atmosphäre bis heute stetig an, während der Juni ab 1955 für die nächsten 25 Jahre zunächst kälter wurde. CO2-Anstieg bei gleichzeitig fallenden Temperaturen, dass ergibt keine Erwärmungs-Kausalität.

Grafik 2: Geschätzte Entwicklung der CO2- Konzentration und Juni- Temperaturentwicklung in Zentralengland seit 1930. Während die Kohlendioxid- Konzentration um fast 100 ppm (Teile CO2 pro Million Teile Luft) gestiegen ist, blieben die Juni- Temperaturen in Zentralengland fast unverändert (der geringe Rückgang ist nicht signifikant). Es fehlt seit fast neun Jahrzehnten jeglicher statistischer Zusammenhang zwischen der Entwicklung der CO2- Konzentration und der Lufttemperatur.

Für den Zeitraum ab 1930, zu Beginn des Temperaturhöhepunktes der Jahrhundertmitte, fehlt jeglicher Anstieg. Der Juni Wert 2016 hat sich entlang der Trendlinie seit 1930 eingeordnet.

Wir hatten dazu im Teil 1 die Deutschland- Juni- Werte mit denen des Britischen Wetterdienstes (UKMO, Metoffice) für Zentralengland als Referenz- Region verglichen. Es zeigten sich keine gravierenden Unterschiede. Die CO2-Konzentrationen sind rasant gestiegen, und das hatte keinerlei Einfluss auf die Temperaturen.

Grafik 3: Seit nunmehr 87 Jahren hat sich der Juni in Deutschland nicht mehr erwärmt, trotz ständig steigender CO2-Konzentration der Atmosphäre. (siehe kleines Diagramm) Wärmeinselbereinigt hätten wir sogar eine fallende Trendlinie. Das bedeutet, in der freien Natur Deutschlands wurde es somit kälter. Selbst in den Wärmeinseln Deutschlands, wo vorwiegend die deutschen Messstationen stehen, gab es keine Temperaturänderungen des Monates Juni seit etwa drei Generationen!

Wo ist die Kohlendioxid-Klimaerwärmung beim Juni?

Auch diesmal hat der Deutsche Wetterdienst in seiner Pressemitteilung vom 28.Juni wieder erwähnt, der Monat Juni sei zu warm gewesen. Der Grund dafür ist der völlig veraltete Vergleichszeitraum von 1961 bis 1990. Wie aus Grafik 1 ersichtlich, beinhaltet dieser Vergleichsabschnitt genau die Jahre der letzten Kaltphase. Aus einer Kaltphase heraus ergibt sich immer ein Temperaturanstieg.

Damit bleibt die Frage, wann wurde der letzte Temperaturhöhepunkt und damit der Wendepunkt zur neuen Abkühlung hin erreicht? Die Antwort ist diesmal einfach, denn Grafik 1 beantwortet bereits diese Frage. Im Jahre 2003 war mit 19,4°C der vom Deutschen Wetterdienst gemessene wärmste Juni in Deutschland, aber auch im Jahr davor und 2000 war der Juni sehr warm. Wegen dieser Wärmehöhepunkte verzerrt die polynomische Trendlinie bei Grafik 1 den tatsächlichen Verlauf ziemlich kräftig. Ganz so steil ist der Temperaturrückgang in der Gegenwart natürlich nicht, siehe nächste Grafik.

Nehmen wir als nächste Temperaturbetrachtung den Gegenwartszeitraum, also seit dem Jahr 2000 bis heute.

Grafik 4: Im neuen Jahrtausend, also seit 17 Jahren, zeigt der erste Sommermonat Juni einen noch nicht signifikanten Temperaturrückgang. Der Zeitraum ist bei der großen Streuung der Einzelwerte noch zu kurz, um eine eindeutige Aussage für eine noch dauerhafte Klimaabkühlung für die Zukunft zu machen. Aber: In den letzten 8 Jahren war der Juni kein beständiger Bademonat mehr. Dies gilt vor allem für den Juni 2016 in Süddeutschland, wo nur die letzten sieben Tage dem Anspruch „Sommer“ gerecht wurden.

Ergebnis: Wir haben gezeigt, dass der Temperaturverlauf des Monates Juni über die letzten 120 Jahre in sinusähnlichen Schwingungen verläuft, dafür kann Kohlendioxid nicht verantwortlich sein und:

Der Juni wird in der Gegenwart wieder kälter, trotz weltweit steigender CO2-Konzentrationen. Und auch der Juni 2016 hat die linear fallende Trendlinie bestätigt. Diese Tatsache widerspricht vollkommen der Glaubensirrlehre der steigenden CO2-Erwärmung. Mit aller Vorsicht könnte man die Prognose wagen, dass in 20 bis 25 Jahren der Monat Juni seinen nächsten Kältetiefpunkt erreicht haben wird, im Schnitt nochmals um ein halbes Grad tiefer als momentan.

Im Folgenden soll nun nach den Ursachen dieser Juni-Temperaturentwicklung gesucht werden.

Drei meteorologische Größen beeinflussen das Temperaturverhalten im Juni maßgeblich, die AMO (Atlantische Mehrzehnjährige Oszillation, eine Schwankung der Wassertemperaturen im zentralen Nordatlantik), die Sonnenscheindauer (eine längere Sonnenscheindauer wirkt erwärmend), und die Häufigkeitsverhältnisse der Großwetterlagen. In der nächsten Grafik erkennen wir zwar einen leichten Anstieg der AMO- Werte, aber einen deutlichen Rückgang der Sonnenscheindauer in Potsdam. Auch dort stiegen die Juni- Temperaturen seit 1930 nicht an: Weniger Sonnenstunden, aber gleich bleibende Temperaturen, dieser Widerspruch könnte auch mit dem stetig zunehmenden Wärmeinseleffekt bei den Stationen erklärt werden.

Grafik 5: Stagnierende Juni- Temperaturen in Potsdam (rot, Mitte) bei leicht steigenden AMO- Werten (grün) und zurückgehender Sonnenscheindauer.

Das „wellenartige“ Verhalten der Juni- Temperaturen in Deutschland (siehe auch Grafik 1) wird von der Rhythmik der AMO bestimmt (tendenziell höhere Juni- Werte in Phasen mit höheren AMO- Werten wie vor 1900, nach 1930 bis um 1960 und gegenwärtig):

Grafik 6: Tendenziell höhere Juni- Temperaturen in Deutschland (braun) in Phasen mit höheren Wassertemperaturen im zentralen Nordatlantik (grün).

Auch in Zentralengland zeigen sich diese Zusammenhänge. Hier stellvertretend für die Sonnenscheindauer, welche dort im Juni zurückging:

Grafik 7: In Zentralengland sanken die Junitemperaturen seit 1930 geringfügig. Auch die Sonnenscheindauer nahm dort etwas ab.

Leider wird in Großbritannien die Sonnenscheindauer nur für das ganze Königreich angegeben; wäre das nur für Zentralengland der Fall, sähe der Zusammenhang noch deutlicher aus. Daher schauen wir uns die Potsdam- Werte genauer an. Es zeigt sich ein signifikanter Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen:

Grafik 8: Je höher die Sonnenscheindauer pro Junitag, desto wärmer ist es tendenziell, denn die hoch stehende Sommersonne heizt kräftig.

Die hoch stehende Sonne heizt kräftig ein, das ist besonders auffällig in den betonierten Wärmeinseln, wo dann schnelle große Temperatursprünge registriert werden.

Nun sind noch die Ursachen des leichten Rückgangs der Sonnenscheindauer im Juni zu klären. Die Bewölkung nahm leicht zu, weil auch Westwetterlagen, welche im Juni eher kühl und bewölkt ausfallen, etwas häufiger wurden:

Grafik 9: Leichte Zunahme der Bewölkungsmenge (Gesamtbedeckung in Achteln, blau) in Potsdam im Juni. Außerdem wurden die wolkenreichen Westwetterlagen (Mitte) etwas häufiger. Die Juni- Temperaturen blieben in Potsdam unverändert; die AMO wirkte (bislang) der Abkühlung durch mehr Bewölkung (weniger Sonnenschein) entgegen.

Fazit: Einen Zusammenhang zwischen Juni- Temperaturentwicklung und der steigenden CO2- Konzentration gibt es nicht. Die Juni- Werte stagnieren seit über 85 Jahren; seit Beginn des 21. Jahrhunderts deutet sich eher ein (noch nicht signifikanter) Rückgang an. Atlantik- Wassertemperaturen (AMO), Sonnenscheindauer und Bewölkung sowie die Häufigkeitsverhältnisse der Großwetterlagen beeinflussen hingegen die Juni- Temperaturentwicklung maßgeblich. Da in naher Zukunft ein Übergang zur AMO- Kaltphase zu erwarten ist, könnte eine Phase mit längerer Juni- Abkühlung begonnen haben, obwohl genaue Langfristprognosen natürlich nicht möglich sind.

Teil 1 dieses Beitrags gibt es hier.

Josef Kowatsch, Naturschützer und neutraler Klimawissenschaftler

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Wissenschaftlicher Konsens 2016: Die Klimamodelle taugen nichts

Die Zeit der Debatten ist beendet. Jetzt muss dringend gehandelt werden … In Dantes Inferno erklärt der Schriftsteller die neun Bereiche der Hölle, jede Einzelne reserviert für verschiedene Sorten von Sündern. Die erste Hölle ist denen vorbehalten, die es nicht besser wussten, und die innerste Hölle ist reserviert für die Verräterischsten aller Sünder. Ich frage mich, wo Dante uns alle hinpacken würde, die wir uns gegen diese Erde versündigen im Namen ökonomischen Wachstums, indem wir Umweltschulden anhäufen mittels des Verbrennens fossiler Treibstoffe, deren Folgen unsere Kinder und Enkel ausbaden müssen. Handeln wir jetzt, um die nächsten Generationen vor einem Über-2°C-Inferno zu bewahren!

Offenbar haben McNutts aktivistische Ermahnungen nicht diejenigen Wissenschaftler überzeugt, die in anderen Journalen Studien veröffentlichen, die zeigen, dass die wissenschaftliche Debatte über den Klimawandel alles andere als beendet ist.

Das Jahr ist noch nicht einmal zur Hälfte vergangen, und schon gibt es über 20 veröffentlichte begutachtete Studien, die bestätigen, dass die Klimamodelle sich auf jene stützen, die hinaus posaunen, dass die Debatte beendet ist. Die Studien zeigen, dass a) die Ergebnisse der Modelle nicht mit den Beobachtungen übereinstimmen, b) wichtige, das Klima beeinflussende Faktoren nicht berücksichtigt werden, c) sie keinerlei Vorhersage-Wert aufweisen, d) sie den „Stillstand“ des 21. Jahrhunderts nicht simulieren können, e) sie große Unsicherheiten und Verzerrungen enthalten, die ihre Zuverlässigkeit praktisch aufheben und f), dass sie auf Hypothesen beruhen, die längst widerlegt sind.

Begrenzungen werden gebraucht, um die Entwicklung der Modelle zu steuern und Unsicherheiten bei Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die präindustriellen Beobachtungen, die zur Begrenzung der Sensitivitäten erforderlich sind, nicht verfügbar.

Klimamodellläufe … zeigen keinerlei Vorhersage-Wert bei der Reproduktion langzeitlicher Änderungen der Temperatur und Niederschlagsmengen.

Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die hydroklimatische Variabilität genau modellieren können.

Die Auffassung, dass die Atmosphäre der jungen Erde dicker war, hat sich als falsch erwiesen. … Die Ergebnisse widerlegen die allgemein akzeptierte Auffassung, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren.

Da gibt es dieses Missverhältnis zwischen dem, was die Klimamodelle erzeugen und dem, was die Beobachtungen zeigen … Die Rate der Erwärmung verlangsamte sich gerade zu einem Zeitpunkt, an dem die Treibhausgas-Emissionen dramatisch stiegen.

Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentation von Austrocknung und Wolkenprozessen im Bereich der tropischen Tropopause. Daher verbietet sich ihre Rückkopplung mit dem Klima an der Oberfläche, um eine genaue Projektion globaler und regionaler Klimaänderungen zu erhalten.

Es zeigte sich, dass die wellenartigen Bewegungen der Atmosphäre mit einer Rate vonstatten gehen, die um eine Größenordnung höher ist als zuvor prophezeit worden war.

Vielleicht kann man den Wissenschaftlern, die den Mut haben, über die deutliche Unsicherheit und Unzuverlässigkeit, die in Klimamodellen inhärent sind – oder über die Falschheit der zuvor erstellten Hypothesen über das System Erde–Atmosphäre – ihr fehlendes Verständnis bzgl. „settled Science“ nachsehen. Wie Marcia McNutt erklärt, ist die Debatte schließlich beendet; die Klimamodelle zeigen genau dies; es ist jetzt die Zeit zu handeln.

Glücklicherweise sind diejenigen Wissenschaftler, die „es nicht besser wissen“, in der Lage, in die äußeren Bereiche der Hölle zu entkommen anstatt im innersten Bereich zu verbleiben – wo es offensichtlich viel, viel heißer ist. Dort können wir wohl jene finden, die immer noch nicht zustimmen, dass die Debatte beendet ist und dass Aktivismus jetzt Wissenschaft ist.

Offensichtlich gibt es stichhaltige und sehr substantielle Gründe, warum Viele skeptisch sind.

Übersicht über 21 Studien dieses Jahres 2016

Im Folgenden werden 21 Studien vorgestellt, die bislang in diesem Jahr 2016 (bis Mitte Juni) veröffentlicht worden sind und die nicht den Behauptungen folgen, dass die Modellierung des Klimas „settled Science“ ist oder dass die wissenschaftliche Debatte jetzt beendet ist.

1. Christy and McNider, 2016

Drei Zeitreihen der mittleren täglichen Sommer-Maximumtemperatur (Tmax JJA) wurden für drei innere Regionen von Alabama erstellt, und zwar von Stationen mit verschiedenen Aufzeichnungs-Zeiträumen und unbekannten Inhomogenitäten. Der Zeitrahmen sind die Jahre 1883 bis 2014. … Eine Variation der Parameter bei dem Verfahren der Erstellung erzeugte 333 Zeitreihen mit einem zentralen Trendwert auf der Grundlage der größten Stationengruppe von -0,07°C pro Dekade mit einem Best Estimate der Messungenauigkeit von -0,12°C bis -0,02°C pro Dekade. Dieses Best Estimate unterscheidet sich nur unwesentlich von einer ähnlichen regionalen Berechnung (0,01°C pro Dekade) aus den nClimDiv-Daten der NOAA mit Beginn im Jahre 1895. … Schließlich wurden noch 77 CMIP5- Klimamodellläufe für Alabama untersucht. Sie zeigen keinerlei Fähigkeit, die langfristigen Temperatur- und Niederschlagsänderungen seit 1895 zu reproduzieren“.

2. Fyfe et al., 2016

Es war behauptet worden, dass die Verlangsamung der Erwärmung zu Anfang dieses Jahrhunderts bzw. deren Stillstand, charakterisiert durch eine verringerte Rate der globalen Oberflächen-Erwärmung, übertrieben worden ist; dass dafür die wissenschaftliche Basis fehlt oder er von Beobachtungen nicht gestützt wird. Die hier präsentierten Beweise widersprechen diesen Behauptungen.

(Presseerklärung):

Es gibt da dieses Missverhältnis zwischen den Ergebnissen der Klimamodelle und dem, was die Beobachtungen zeigen“, sagt Leitautor John Fyfe, ein Klimamodellierer am Canadian Centre for Climate Modelling and Analysis in Victoria, British Columbia. „Das können wir nicht ignorieren“. Susan Solomon, Klimatologin am MIT in Cambridge sagt, dass Fyfes grundlegende Arbeit dabei hilft, die Trends des 21. Jahrhunderts in die richtige Perspektive zu stellen. Und sie zeigt eindeutig, dass sich die Erwärmungsrate zu einer Zeit verlangsamt hat, als die Treibhausgas-Emissionen dramatisch zunahmen“.

3. Zhao et al., 2016

Die Autoren zeigen, das Modellschätzungen der Klimasensitivität stark beeinflusst werden können durch die Art und Weise, mit der die Kondensation von Cumulus-Wolken in Niederschlag konvertiert wird bei der Parametrisierung der Modell-Konvektion. Diese Prozesse werden in den Globalen Klimamodellen nur sehr vage berücksichtigt. Im Einzelnen können zwei allgemein angewendete Verfahren der Konvertierung der Kumulus-Kondensation zu Niederschlag z drastisch unterschiedlichen Werten der Klimasensitivität führen, wie hier abgeschätzt mittels eines Atmosphäre-Land-Modells durch gleichmäßig steigende Ozean-Wassertemperaturen und der Untersuchung der Reaktion bei der Energiebilanz an der Obergrenze der Atmosphäre. Der Effekt kann quantifiziert werden durch eine großflächige konvektive Luftentzugs-Effizienz [detrainment efficiency ?]. Diese misst die Fähigkeit der Kumulus-Konvektion, Kondensat pro Einheit Niederschlag zu erzeugen [?]. Die Modellunterschiede, dominiert von kurzwelligen Rückkopplungen stammen aus ausgedehnten Regimes, die von großräumiger Hebung bis zu Gebieten mit Absinken reichen. Angesichts der gegenwärtigen Unsicherheiten bei der Repräsentanz der konvektiven Niederschlags-Mikrophysik und der gegenwärtigen Unfähigkeit, klare Beobachtungs-Hindernisse zu finden, die eine Version des Modells der Autoren gegenüber den anderen Modellen favorisieren, müssen die Implikationen bei der Berechnung der Klimasensitivität berücksichtigt werden, wenn man die Unsicherheit in den Klimaprojektionen abschätzen will“.

4. Ljungqvist et al., 2016

Wir finden einen größeren Prozentsatz von Festlandsgebieten mit relativ nasseren Bedingungen vom 9. bis zum 11. sowie im 20. Jahrhundert, während trockenere Bedingungen verbreitet zwischen dem 12. und dem 19. Jahrhundert herrschten. Unsere Rekonstruktion zeigt, dass deutliche Sägezahn-Verläufe alternierender Feuchte-Regimes, die in den instrumentellen Daten im gesamten Mittelmeer, den westlichen USA und China zu finden sind, immer wieder während der vergangenen 12 Jahrhunderte aufgetreten waren. … Die Intensivierung der mittleren Hydroklima-Anomalien im 20. Jahrhundert in den Simulationen wird im Vergleich zu vorangegangenen Jahrhunderten durch unsere neue Multi-Proxy-Rekonstruktion nicht gestützt. Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die Hydroklima-Variabilität genau modellieren können, und es betont die Wichtigkeit der Verwendung von paläoklimatischen Daten, um jüngste und prophezeite zukünftige Änderungen des Hydroklimas im Zusammenhang von Jahrtausenden zu erstellen.

Presseerklärung:

Einer neuen Studie zufolge gab es auf der Nordhemisphäre deutlich stärkere Variationen der Niederschlagsmenge während der letzten 12 Jahrhunderte als im 20.Jahrhundert. Forscher aus Schweden, Deutschland und der Schweiz haben nachgewiesen, dass Klimamodelle die Zunahme nasser und trockener Extreme überschätzt haben während der Erwärmung während des 20. Jahrhunderts.

5. Ghan et al., 2016

Eine große Vielfalt von Prozessen ist involviert im Ablauf der Emissionen von Gasen und primären Partikeln bis zu Auswirkungen auf den Strahlungsantrieb von Wolken … Allerdings sind wir am meisten an dem Strahlungsantrieb seit der präindustriellen Ära interessiert. Weil aus dieser Ära nur wenige relevante Messungen vorliegen, wurde angenommen, dass Beziehungen aus der jüngeren Variabilität auf Änderungen seit der präindustriellen Zeit bis heute übertragbar seien. …

Angesichts der Diverstität von Relationen werden Begrenzungen [constraints] benötigt, um die Modellentwicklung zu steuern und die Unsicherheit in den Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die zur Begrenzung der Sensitivitäten erforderlichen präindustriellen Beobachtungen nicht verfügbar. … Ein Verfahren könnte Trends aus jüngerer Zeit in den Regionen heranziehen, in denen sich die Emissionen substantiell verändert haben während einer Zeit, aus der zuverlässige Meldungen vorliegen. Zum Beispiel haben Cherian et al. gemessene Trends der solaren Einstrahlung an europäischen Messpunkten herangezogen aus dem Zeitraum 1990 bis 2005, als SO2-Emissionen um das Dreifache abgenommen haben. Damit haben sie globale Schätzungen des Strahlungsantriebs von Aerosolen seit der präindustriellen Ära begrenzt. Obwohl eine solche Analyse hoch informativ ist, kann sie jedoch nicht Verzerrungen in den Modellen beseitigen, die den Trend der Einstrahlung [downward solar radiance] über Europa über- oder unterschätzen. Dies könnte den Fehlern in irgendeinem der Faktoren geschuldet sein, die Änderungen des Strahlungsantriebs von Wolken zeitigen können, ebenso wie die natürliche Variabilität der Wolkenbedeckung. Das Entfernen jener Verzerrungen ist notwendig, falls Klimamodelle für Simulationen zukünftiger Klimaänderungen herangezogen werden. Zusätzliche Daten, die jeden der Faktoren und Komponenten charakterisieren, werden gebraucht. Einige der erforderlichen Daten (Lre, aerosol optical depth) liegen seit 1990 vor, aber zuverlässige Schätzungen von Nd, τ und R liegen aus den Jahren vor 2001 nicht vor.

6. Le et al., 2016

Die geringe Übereinstimmung zwischen den Modellen, die die Auswirkungen solarer Variationen auf SAT in vielen Gebieten simulieren, zeigt die unterschiedlichen dynamischen Reaktionen in diesen Modellen, möglicherweise in Verbindung mit einer ungenauen Parametrisierung der Prozesse, die mit dem solaren Antrieb verknüpft sind. Unsere Analyse zeigt, dass die interne Klimavariabilität eine bedeutendere Rolle spielt als externe Antriebe der kurzfristigen SAT-Variabilität und die Unsicherheiten, zu denen es kommen kann infolge von Auswirkungen interner Klimazustände ohne die El Nino-Southern Oscillsation. Sie unterstreicht die Notwendigkeit eines besseren Verständnisses der dynamischen Reaktion von SAT auf externe Antriebe.

7. McKinley et al., 2016

Die Ozeane haben 41 Prozent allen anthropogen emittierten Kohlenstoffes aufgenommen. Die Magnitude und die großräumige Verteilung der ozeanischen Kohlenstoffsenke wurde während der letzten Jahrzehnte gut quantifiziert. Im Gegensatz dazu sind zeitweilige Änderungen der ozeanischen Kohlenstoffsenke weiterhin kaum verstanden. Es hat sich als schwierig erwiesen, zwischen den Trends eines Kohlenstoff-Flusses aus der Luft in das Meer zu unterscheiden – Trends infolge des anthropogenen Klimawandels bzw. der inneren Klima-Variabilität. Wir wenden hier ein Modellierungs-Verfahren an, dass diese Unterscheidung zulässt und welches enthüllt, wie sich die ozeanische Kohlenstoffsenke den Erwartungen zufolge verändern wird im Laufe dieses Jahrhunderts und in verschiedenen ozeanischen Regionen. Unsere Ergebnisse zeigen, dass – geschuldet der großen inneren Klima-Variabilität – es unwahrscheinlich ist, dass Änderungen der Aufnahmerate anthropogenen Kohlenstoffes gegenwärtig in den meisten ozeanischen Gebieten gemessen werden kann, dass dies jedoch zwischen 2020 und 2050 in einigen Regionen möglich ist“.

8. Hawkins et al., 2016

Nicht reduzierbare Unsicherheiten in Kurzfrist-Klimaprojektionen

Abstract: Diese Ergebnisse zeigen, dass Klimaprojektionen mit viel mehr Ensemble-Mitgliedern durchgeführt werden müssen als derzeit, darunter eine Vielfalt ozeanischer Initial-Bedingungen, falls die Unsicherheit bei kurzfristigen regionalen Klimaprojektionen angemessen quantifiziert werden kann.

Zusammenfassung und Diskussion: Die Gegenwart derzeitiger Unsicherheit bzgl. initialer Bedingungen und nichtlinearer Vorgänge erzeugt bedeutende und nicht reduzierbare Unsicherheiten bei [der Simulation] zukünftiger regionaler Klimaänderungen. Für 20-Jahre-Trends zeigt sich kaum jemals ein Klimawandel-Signal in dem Rauschen der inneren Variabilität. Unsicherheiten in zukünftigen Trends von Temperatur und Niederschlagsmenge reduzieren sich in längerzeitlichen Trends, weil die Unsicherheit bzgl. initialer Bedingungen gleich bleibt“.

9. Hoggard et al., 2016

Unsere Spektralanalyse zeigt bedeutende Diskrepanzen zwischen der gemessenen und der prophezeiten dynamischen Topographie.

Presseerklärung:

Eine Karte mit den Flüssen innerhalb des Erdmantels zeigt, dass sich die Oberfläche ,wie ein Jo-Jo‘ auf- und abwärts bewegt.

Forscher haben den ersten globalen Datensatz der Bewegung des Erdmantels erstellt, also der 3000 km dicken Schicht heißen Silikat-Gesteins zwischen der Erdkruste und dem Erdkern. Sie fanden heraus, diese Bewegung sehr viel anders aussah als von Geologen während der vergangenen 30 Jahre prognostiziert … Es zeigte sich, dass die wellenartigen Bewegungen des Erdmantels mit einer Rate vonstatten gehen, die um eine Größenordnung größer ist als zuvor prophezeit. Die Ergebnisse, vorgestellt in ,Nature Geoscience‘, haben Auswirkungen auf viele Disziplinen einschließlich der ozeanischen Zirkulation und Klimawandel in der Vergangenheit.

10. Som et al., 2016

Unsere Daten zeigen einen überraschend niedrigen atmosphärischen Druck von Patm = 0.23 ±0.23 (2σ) bar, und in Kombination mit früheren Studien ergeben sich ~0,5 bar als obere Grenze von late Archaean Patm. [Atmosphären-Druck zum Ende der Urzeit der Erde?]. Das Ergebnis impliziert, dass die dünne Atmosphäre reich war an zusätzlichen Treibhausgasen und dass Patm (atmosphärischer Druck an der Oberfläche) in geologischen Zeiträumen mit einem bislang unbekannten Ausmaß fluktuiert hat.

Presseerklärung:

Die Atmosphäre der frühen Erde wog weniger als halb so viel wie die heutige Atmosphäre.

Der Gedanke, dass die junge Erde eine dickere Atmosphäre aufgewiesen hatte, stellt sich als falsch heraus. Neue Forschungen an der University of Washington untersuchten Luftbläschen, die in 2,7 Milliarden Jahre altem Felsgestein eingeschlossen waren. Es zeigte sich, dass die Luft zu jener Zeit höchstens einen halb so hohen Druck auf die Oberfläche wie die heutige Atmosphäre ausgeübt hatte. Die Ergebnisse invertieren die allgemein akzeptierte Hypothese, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren. Das Ergebnis hat auch Implikationen hinsichtlich der Frage, welche Gase sich damals in der Atmosphäre befunden hatten und wie Biologie und Klima auf dem frühen Planeten vonstatten gegangen waren. …

Seit Langem haben die Menschen gedacht, dass der atmosphärische Druck seinerzeit höher gewesen sein könnte, weil die Sonne schwächer war“, sagte Leitautor Sanjoy Som. Er forschte im Rahmen seiner Promotion im Fachbereich Erde und Weltraum-Wissenschaften. „Unsere Ergebnisse sind das genaue Gegenteil dessen, was wir erwartet hatten“ …

Wir müssen immer noch mit der Größenordnung hiervon zurecht kommen. Es wird noch eine Weile dauern, bis wir alle möglichen Konsequenzen ausgelotet haben“. Unsere geologischen Beweise zeigen eindeutig flüssiges Wasser zu jener Zeit auf der Erde. Folglich muss die frühe Atmosphäre mehr Wärme einfangende Treibhausgase enthalten haben, also mehr Methan und Kohlendioxid und weniger Stickstoff“.

11. Harrison et al., 2016

Paläoklimatische Untersuchungen haben gezeigt, dass großräumige Änderungen des Klimas, die von Energie- und Wasserbilanz regiert werden, konsistent Reaktionen aufweist bei Änderungen der Antriebe in verschiedenen Klimazuständen. Diese konsistenten Reaktionen werden von Klimamodellen reproduziert. Allerdings sind die hypermodernen Modelle nach wie vor nicht in der Lage, gemessene Änderungen des Klimas im regionalen Scale zuverlässig zu reproduzieren. Während paläoklimatische Analysen der hypermodernen Klimamodelle die dringende Notwendigkeit zeigt, die Modelle zu verbessern, muss auch noch viel Arbeit geleistet werden, um plaäoklimatische Rekonstruktionen zu verbessern und auszuweiten. Sowohl die numerischen als auch die Interpretations-Unsicherheiten müssen quantifiziert und reduziert werden.

12. Lehner et al., 2016

Vergleiche der gemessenen Abkühlung im globalen Maßstab nach Vulkanausbrüchen in jüngerer Zeit mit den Simulationen der CMIP5-Klimamodelle zeigen, dass die Modelle die Magnitude der globalen Temperatur-Reaktion auf vulkanische Eruptionen überschätzen. Hier zeigen wir, dass die Überschätzung erklärt werden kann mit der Auswahl der Beispielfälle, fielen doch alle großen Eruptionen seit 1951 mit El Nino-Ereignissen zusammen. Diese führen zu einer Erwärmung im globalen Maßstab, die der durch die Vulkanausbrüche verursachten Abkühlung entgegen wirken. Bei Teil-Stichproben der CMIP5-Modelle gemäß der beobachteten ENSO-Phase während eines jeden Ausbruchs zeigt sich, dass die simulierte globale Temperatur-Reaktion auf vulkanische Antriebe mit den Beobachtungen konsistent ist. Vulkanausbrüche stellen eine besondere Herausforderung dar für die Verfahrensweise bei der Auffindung und Zuordnung, da deren Auswirkungen auf der Oberfläche kurzlebig sind und folglich von ENSO durcheinander gebracht werden können. Unsere Ergebnisse implizieren, dass Studien bzgl. Auffinden und Zuordnung sorgfältig Verzerrungen berücksichtigen muss, die sich durch die Auswahl der Stichproben infolge der internen Klimavariabilität ergeben.

Einführung: Schätzungen der Relativ-Beiträge durch anthropogene und natürliche Antriebe fließen bei unseren Versuchen ein, kurzlebige und Gleichgewichts-Klimasensitivität zu belegen [attempts to constrain transient and equilibrium climate sensitivity] (Collins et al. 2013). Derartige Versuche werden inhärent kompliziert durch die Tatsache, dass wir nur eine der vielen möglichen Klima-Trajektorien beobachten. Weil die interne Variabilität signifikant zu Trends im Zeitrahmen von Jahrzehnten beiträgt, zumindest zu einem bestimmten Anteil und in verschiedenen Regionen, kann eine aussagekräftige Zuordnung des Klimawandels zu einer Herausforderung werden und empfindlich reagieren auf die besondere Realisierung der Variabilität in den gemessenen Aufzeichnungen (Deser et al. 2012a).

13. Rehfeld and Laepple, 2016

Die Temperaturen in Asien und global werden sehr wahrscheinlich mit Treibhausgas-Emissionen steigen, aber Zukunftsprojektionen hinsichtlich der Niederschlagsmenge sind weit weniger sicher. Hier untersuchen wir die Verbindung zwischen Temperatur und Niederschlag in Asien im Zeitrahmen von Jahren bis Jahrhunderten unter Verwendung von instrumentellen Daten, paläoklimatischen Proxy-Daten am Ende des Holozän sowie Klimamodell-Simulationen. Es zeigt sich dass die Beziehung zwischen Temperatur und Niederschlag in den instrumentellen und den Proxy-Daten abhängig ist vom Zeitrahmen. Während im Zeitrahmen von Jahren bis Jahrzehnten negative Korrelationen dominieren und folglich kühle Sommer dazu tendieren, auch nasse Sommer zu sein, sind Niederschlag und Temperatur im größeren Zeitrahmen positiv korreliert: kühle Jahrhunderte tendieren dazu, im monsunalen Asien trockenere Jahrhunderte zu sein. Im Gegensatz dazu zeigen die analysierten CMIP5-Modellsimulationen eine negative Korrelation zwischen Niederschlag und Temperatur in jedwedem Zeitrahmen. Obwohl hinsichtlich der Interpretation von Proxydaten viele Unsicherheiten bestehen, gibt es eine Konsistenz zwischen ihnen und den instrumentellen Beweisen. Dies zusammen mit der Persistenz dieser Ergebnisse in allen Proxy-Datensätzen zeigt, dass die Modellsimulationen deutlich verzerrt sein könnten, wobei sie die kurzfristigen negativen Verbindungen zwischen regionaler Regenmenge und Temperatur überschätzen. Die langzeitliche positive Beziehung zwischen beiden fehlt völlig.

14. Hand, 2016

Die Modelle zeigen, dass der Klimawandel die AMOC schwächen sollte, da höhere arktische Temperaturen zusammen mit oben treibendem Süßwasser aus der schmelzenden Eiskappe Grönlands die Bildung von tief reichenden Strömungen behindert. Bislang jedoch zeigen begrenzte Messungen im Ozean, dass die AMOC weitaus unberechenbarer ist als die Modelle abzubilden in der Lage waren.

15. Chiodo and Polvani, 2016

Eine genaue Abschätzung der Rolle der solaren Aktivität ist ein Schritt in Richtung einer ordentlichen Quantifizierung des natürlichen und es anthropogenen Klimawandels. Hierfür wurden extensiv Klimamodelle herangezogen, um den solaren Beitrag zur Klimavariabilität zu quantifizieren. Jedoch ist der Großteil der Studien zur Modellierung wegen des hohen Rechenaufwandes bislang ohne interaktive stratosphärische Photochemie durchgeführt worden: Die Auswirkungen dieser Vereinfachung auf die Reaktion des simulierten Klimasystems auf den solaren Antrieb ist nach wie vor zum größten Teil unbekannt. Hier quantifizieren wir diesen Einfluss, indem wir die Reaktion aus zwei Modell-Konfigurationen vergleichen, mit und ohne Ozon-Chemie. Mittels langer Integrationen erhalten wir zunächst sichere Reaktionen der Oberflächentemperatur und der Niederschlagsmenge auf eine idealisierte Zunahme der Strahlung. Dann zeigen wir, dass die Einbeziehung interaktiver stratosphärischer Chemie die Erwärmung an der Oberfläche signifikant reduziert (um etwa ein Drittel) und die damit einher gehende Auswirkung auf die Niederschlagsmenge. Dieses Verhalten ist verbunden mit photochemisch induzierten stratosphärischen Ozon-Änderungen sowie deren Modulation der Solarstrahlung an der Oberfläche. Unsere Ergebnisse zeigen, dass es zu einer deutlichen Überschätzung der Reaktion an der Oberfläche auf Änderungen der Solarstrahlung kommt, wenn man die stratosphärische Photochemie außen vor lässt. Dies hat Auswirkungen auf die Simulationen des Klimas während des vorigen Jahrtausends, bei denen die Modelle oftmals das stratosphärische Ozon nur in sehr vereinfachter Form berücksichtigten, was inkonsistent ist mit dem überlagerten solaren Antrieb.

16. Stier, 2016

Wechselwirkungen zwischen Aerosolen und Wolken werden als eine Schlüssel-Unsicherheit angesehen bzgl. unseres Verständnisses des Klimawandels (Boucher et al. 2013). Kenntnisse über die globale Fülle von Wolken-Kondensationskernen (CCN) sind fundamental, um die Stärke der anthropogenen Klima-Störung zu bestimmen. Direkte Messungen sind begrenzt und umfassen nur einen sehr kleinen Teil des Globus‘, so dass Fernerkundung durch Satelliten und Instrumente am Boden ausgiebig verwendet werden als Proxy für Wolken-Kondensationskerne (Nakajima et al., 2001; Andreae, 2009; Clarke and Kapustin, 2010; Boucher et al., 2013). Allerdings können die zugrunde liegenden Hypothesen nicht gründlich getestet werden mit der geringen Anzahl der verfügbaren Messungen. Daher gibt es keine zuverlässige Schätzung der Wolken-Kondensationskerne. Diese Studie überwindet diese Begrenzung mittels eines in sich widerspruchsfreien [self-consistent] globalen Modells (ECHAM-HAM) der Strahlungseigenschaften von Aerosolen und Kondensationskernen. Eine Analyse der Korrelation der simulierten Strahlungseigenschaften von Aerosolen und Kondensationskernen zeigt, dass allgemeine Hypothesen bzgl. deren Beziehungen in einem signifikanten Teil des Globus‘ verletzt werden: 71% der Erdoberfläche zeigt Korrelations-Koeffizienten zwischen CCN0,2% an der Wolkenuntergrenze und einer optischen Dichte der Aerosole (AOD) unter 0,5, d. h. die AOD-Variabilität erklärt nur 25% der CCN-Varianz. Dies hat bedeutende Implikationen für Studien der Wechselwirkungen zwischen Aerosolen und Wolken auf der Grundlage von Satellitenmessungen. Die Ergebnisse zeigen auch, dass vertikal aufgelöste Fernerkundungs-Verfahren wie etwa hoch spektral aufgelöste Lidars großes Potential haben für die Überwachung der globalen Menge von Wolken-Kondensationskernen.

17. Wegmann et al., 2016

Die Erwärmung der Arktis Anfang des 20. Jahrhunderts (ETCAW) zwischen 1920 und 1940 ist ein außerordentliches Ereignis der Klimavariabilität im vorigen Jahrhundert. Die Erwärmungsrate erreichte erst vor kurzem wieder die Größe der damaligen Rate. Anders als die jüngste Erwärmung, die großenteils dem anthropogenen Strahlungsantrieb zugeordnet werden kann, war die Erwärmung während der ETCAW am stärksten in der mittleren Troposphäre. Sie wurde vermutlich ausgelöst durch einen außerordentlichen Fall von natürlicher Klimavariabilität. Nichtsdestotrotz gibt es immer noch Diskussionen über ultimative Wirkungsweisen und Gründe für ETCAW. Hier verwenden wir hypermoderne globale Zirkulationsmodelle, Reanalysen und Rekonstruktions-Datensätze, um die interne atmosphärische Dynamik von ETCAW zu untersuchen. Wir untersuchen die Rolle des mitteltroposphärischen Wärmetransports im borealen Winter sowie die Zirkulation, welche die Energie für die großräumige Erwärmung liefern. Analysiert man sensible Wärmefluss-Komponenten und regionale Unterschiede zeigt sich, dass Klimamodelle nicht in der Lage sind, die Evolution von Wärmeflüssen zu reproduzieren, die man in der Reanalyse und den Rekonstruktions-Datensätzen gefunden hatte. Diese Datensätze zeigen eine Zunahme stationärer Eddy-Wärmeflüsse [?] und eine Abnahme des flüchtigen Eddy-Wärmeflusses während ETCAW. Außerdem zeigt die troposphärische Zirkulations-Analyse die wichtige Rolle sowohl des Atlantischen als auch des Pazifischen Sektors bei der Konvergenz von aus südlichen Breiten stammenden Luftmassen in der Arktis während des Erwärmungs-Ereignisses. Als Folge davon wird vermutet, dass die innere Dynamik der Atmosphäre eine wichtige Rolle bei der Bildung von ETCAW gespielt hat.

18. Kim et al., 2016

Zirruswolken in der tropischen Tropopause (TTL) und Wasserdampf, der in die Stratosphäre transportiert wird, haben bedeutende Auswirkungen auf den globalen Strahlungshaushalt und die Zirkulation. Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentanz von Dehydrierung und der Wolkenprozesse an der TTL. Folglich verhindert deren Rückkopplung mit dem Klima an der Oberfläche eine genaue Projektion der zukünftigen globalen und regionalen Klimaänderungen. Hier verwenden wir beispiellose Luftmessungen über dem Pazifik, um atmosphärische Wellen aufzufinden als starken Modulierer von Eiskristall-Wolken in der TTL. Es wird gezeigt, dass durch Wellen induzierte kalte und/oder abkühlende Bedingungen einen fast allgegenwärtigen Einfluss auf das Vorkommen von Zirruswolken in Höhen zwischen 14 und 18 km haben, außer unmittelbar nachdem die Luft konvektiv entfeuchtet worden ist. Wir zeigen außerdem, dass verschiedene vertikale Mächtigkeiten von Wolkenschichten mit verschiedenen vertikalen Mächtigkeiten von Wellen assoziiert sind. Dies unterstreicht, wie wichtig es ist, TTL-Wellen in den Modellen zu repräsentieren.

19. Dhomse et al., 2016

Es gibt immer noch große Unsicherheiten in den gegenwärtigen beobachteten und meteorologischen Reanalyse-Datensätzen. Daher ist eine genaue Quantifizierung des Einflusses der Variabilität der solaren Einstrahlung auf das Klimasystem weiterhin eine offene wissenschaftliche Frage.

20. Sterl, 2016

Die große Wärmekapazität der Ozeane im Vergleich zur Atmosphäre stellt ein Gedächtnis im Klimasystem zur Verfügung, welches das Potential für fachkundige [skilful] Klima-Prophezeiungen für einige Jahre im Voraus hat. Allerdings haben Experimente bisher lediglich eine begrenzte Vorhersagbarkeit ergeben, nachdem man das deterministische Antriebs-Signal berücksichtigt hatte, welches von zunehmenden Treibhausgas-Emissionen ausgeht. Eines der Probleme ist die Drift, zu der es kommt, wenn sich das Modell von den Initial-Bedingungen entfernt hin zu seinem eigenen Klima. Diese Drift ist oftmals größer als das vorherzusagende dekadische Signal. In dieser Studie beschreiben wir die Drift im Nordatlantik im Erde-Klima-Modell und stellen sie in Beziehung zum Fehlen dekadischer Vorhersagbarkeit in jener Region. Während diese Drift abhängig von der Auflösung sein kann und in höher aufgelösten Modellen verschwindet, identifizieren wir einen zweiten Grund für die geringe Vorhersagbarkeit. Eine Wärmegehalt-Anomalie unter der Oberfläche kann nur dann die Atmosphäre beeinflussen, falls tiefgreifende Konvektion diese an die Oberfläche bringt, aber das Auftreten von Konvektion ist zufällig und möglicherweise hauptsächlich unvorhersagbarem atmosphärischen Rauschen geschuldet.

21. Rugenstein et al., 2016

Die Ozeane dominieren den planetarischen Wärmehaushalt, und sie brauchen Tausende von Jahren, um mit gestörten Oberflächen-Bedingungen ins Gleichgewicht zu kommen, und jene langen Zeiträume sind kaum verstanden. Hier analysieren wir die ozeanische Reaktion auf eine Bandbreite von Antriebs-Niveaus und Zeitrahmen in einem Klimamodell mittlerer Komplexität und in den CMIP5-Modellen. Wir zeigen, dass im Zeitrahmen von Jahrhunderten bis Jahrtausenden Regionen anomaler Wärmespeicherung und globale thermische Expansion nicht linear vom Antriebs-Level und der Oberflächen-Erwärmung abhängen. Als Konsequenz ist es problematisch, eine langzeitliche Wärmeaufnahme aus einer kurzzeitigen Wärmeaufnahme abzuleiten oder die Verteilung der Wärmeaufnahme zwischen den Szenarien. Diese Ergebnisse stellen auch einfache Methoden in Frage, den langzeitlichen Anstieg des Meeresspiegels abzuschätzen aus Oberflächen-Temperaturen und der Verwendung von Tiefsee-Proxys, um Temperaturänderungen an der Oberfläche während Klimaten der Vergangenheit zu repräsentieren.

Link: http://notrickszone.com/2016/06/20/paging-attorneys-general-2016-scientific-consensus-climate-models-arent-working/#sthash.SI6SIlbQ.dpbs

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: De Übersetzung der einzelnen Studienauszüge war schwierig und inhaltlich teilweise unverständlich. Bitte korrigieren, falls Unstimmigkeiten enthalten sind.




Teil 2 des Faktenchecks Vortrag von Prof. Thomas Stocker Vaduz 10.5.16

Teil 2

Die Pause

Nicht nur EIKE Leser wissen, dass die Erwärmung seit langem, beginnend irgendwo zwischen 1995 bis 1998, eine Pause eingelegt hat. Das wissen auch die Kollegen von Stocker und suchen verzweifelt nach Erklärungen dafür. Hier haben wir die ersten 66 davon zusammengetragen. Nur Stocker sieht die Pause nicht und versucht mit spitzfindigen Hinweisen auf Feinheiten der Trendbestimmung den Eindruck zu erwecken, dass es „die Pause „ gar nicht gibt.

Daher hier ein paar Kostproben seiner Einlassungen dazu:

Min 8:35 … es kommt sehr darauf an, wann sie beginnen die  15 Jahre zu berücksichtigen…Min 9:45 von 1998 bis 2012 kriegen Sie einen Trend von 0,05 pro Jahrzehnt … …Min 10:16 …das sollte genügend Hinweis sein, dass man nicht 15 Jahre nehmen darf um einen Klimatrend festzustellen. Min 10:41 nicht nur 2015 war ein Rekordjahr sondern auch 2014 war schon wärmer als alle Jahre zuvor – Anmerkung des Verfassers Widerspruch zu Minute 08:55   ….und zuvor nicht jedes Jahr ist wärmer, nicht jedes Jahrzehnt ist wärmer ….. Min 10:50– ich sage nicht, dass wir den Klimawandel beweisen mit 2015, das geht nicht….. es geht nicht einmal mit nur 15 Jahren. Wie ich zuvor ausgeführt habe… sie müssen die Trends genau ausrechnen aus genügend langen Zeitreihen (11:07)…

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Nun hat niemand von den Skeptikern behauptet, dass 15 Jahre für sich die Bestimmung eines Klimatrends erlaubten, d.i. eine Beachtung wissenschaftlicher Prinzipien, denen sich die Alarmisten um Stocker und Gefährten allerdings nicht verpflichtet fühlen, denn sie  ordnen ungerührt jeden Starkregen, jede Hitzewelle, jeden Sturm oder Tornado, jede Überschwemmung regelmäßig dem „Klimawandel“ á la IPCC zu. Div. Äußerungen zu den jüngsten Regenfällen und Überschwemmungen (Siehe auch Video des Teams von „Klimamanifest von Heiligenroth) dokumentieren das vielfach.  

Doch hier geht es um die „Pause“, also den Stopp weiterer Erwärmung trotz ständig steigenden CO2 Emissionen.  Und alle offiziellen Datenreihen zeigen sie. Mit einer Ausnahme, das ist die jüngste Datenreihe des Goddard Institute for Space Sciences kurz GISS.

Robert Brown  von der DUKE Universität hat sich deshalb die Zeitreihen daraufhin genau angesehen und  Werner Brozek und Walter Dnes haben sie in Auszügen veröffentlicht[11].

Dort finden wir: Zusammenfassung

For UAH[12]: There is no statistically significant warming since May 1993

For RSS: There is no statistically significant warming since October 1993

For Hadsst3: There is no statistically significant warming since July 1996.

For GISS: The warming is significant for all periods above a year.

Interessant dabei: RSS und UAH greifen auf denselben Datensatz zu, in diesem Fall von Satelliten erfasst, wie auch HadCrut[13] und GISS auf den terrestrisch erhobenen Datensatz

Da die Auswertungen von Hadcrut und GISS stark voneinander abweichen, aber nicht beide gleichzeitig richtig sein können, ist es möglich stundenlag darüber zu streiten welche der beiden richtig ist. Das GISS ist seit längerem  dafür bekannt, seine Datenreihen ständig in Richtung Erwärmung zu „adjustieren“[14]. Daher empfiehlt es sich der Vernunft zu folgen und die Satelliten-Werte von RSS und UAH als Schiedsrichter zu verwenden.

Und damit erkennen wir den Beginn der „Pause“ 

irgendwo zwischen 1993 bis 1996 und dauert bis heute

d.h die „Pause“ dauert nun schon zwischen 20 bis 23 Jahre!

Sie beginnt also deutlich vor der Stocker´schen Angabe von 1998

Rückgang der Gletscher

Stocker fährt fort die Auswirkungen des „Klimawandels“ nach IPCC Regeln in den schwärzesten  Tönen zu malen. Zunächst kommt der Rückgang der Gletscher und „Eiskörper“ dran.


Min 12:04
…der große Aletschgletscher, … der sehr stark zurückgegangen ist …Min  12:08 sicher eine Kombination der natürlichen Klimavariabilität und eine erste Reaktion von Eisköpern und Gletschern auf die Erwärmung

 

Abbildung 8 Folie von Stocker der Rückgänge einiger Alpengletscher seit 1880. Er führt sie auf eine Kombination von „natürlicher Klimavariabilität“ und (menschgemachter) Erwärmung zurück

 

Kleine Eiszeit vs. Aletschgletscher

Mehr bringt Stocker zu diesem Thema nicht, kann er sich doch sicher sein, dass in der Alpenrepublik Schweiz und dem eingelagerte Fürstentum Liechtenstein jede Erwähnung des Rückganges der Gletscher  als große Bedrohung empfunden wird.

Er erwähnt auch mit keinem Wort die „kleine Eiszeit“, also die Zeit vor der jüngsten Klimaphase, die in allen vorhandenen Berichten als sehr schlechte Zeit für Mensch und Tier beschrieben wurde und immerhin um die 500 Jahre dauerte. Auf dieses Manko von mir angesprochen weicht er aus und verweist fälschlich auf seine Aussagen zum Aletschgletscher

Doch die Gletscher-Geschichte hat mit der Erwärmung durch den „Klimawandel“ á la Stockers IPCC und anders als dieser behauptet, nichts Erkennbares zu tun.

Der inzwischen emeritierte Glaziologe  der Universität Innsbruck Prof. em. Gernot Patzelt, kommt daher auf eine ganz andere Erklärung. Seinen intensiven Gletscherforschungen nach, ist die momentane Erwärmung nichts Besonderes. So gab es sehr, sehr häufig in den letzten 10.000 Jahren sowohl wesentlich höhere Temperaturen, aber auch steilere Rückgänge als heute,. In mehr als 66 % der Zeit, lag die Sommertemperatur der Alpen z.T. deutlich über der heutigen.

Abbildung 9 Temperaturverlauf (Sommertemperaturen) der Alpen und in Grönland der letzten 10.000 Jahre. Es ist klar erkennbar, dass mehr als 2/3 der Zeit die Temperaturen deutlich höhere Temperaturen zu beobachten waren als heute. Grafik und Daten Gernot Patzelt. Aus Wald- und Gletscherentwicklung  in den Alpen in den letzten 10.000 Jahren, zur 9.IKEK 11.12 Essen

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat

Extremereignisse

Dann wurde vom Vortragenden vom  allgemeinen „Klimawandel“ ins Besondere übergegangen. Doch auch hier nur Schreckensbotschaften.

O-Ton Stocker Min 15:14 Der Klimawandel manifestiert sich nicht nur in der Temperatur (Bild Meerespiegelanstieg) es sind viele Größen, die sich verändern u.a. der Meeresspiegel (Bild der Msp ist seit 1900 um 19 cm angestiegen)

 Abbildung 10: zeigte   die Stocker Folie „nach verschiedenen unabhängigen Daten“ des Meerespiegelanstiegs von  1900 bis 2012 

Und….Min 15:40 Meereisbedeckung hat sich verändert (Bild Arktis) …und so gibt es viele Messungen …viel Größen im (16:15) Klimasystem  dann folgt (Min 16:17 ohne weitere Erklärung)… aus dem Synthesereport

… sie zeigt die Ursache des Klimawandels

Abbildung 11: zeigt die Ursachen  des Klimawandels  „nach genauen Messungen“ von  1850 bis 2013

…dann folgen Zahlen über den Anstieg.. (Tonstörung) von CO2, CH4 etc. Min 18:10 Bild: Die mensch-verursachten Emissionen sind die höchsten der Geschichte

(Anmerkung erst seit 1956 werden sie hinreichend genau gemessen, davor nur sehr ungenaue Messungen aus Eisbohrkernen)

…Der (globale) Meeresspiegel steigt…

Schauen wir uns zunächst den (globalen) Meeresspiegel an.  Zunächst einmal sollten wir fragen, ob es den denn gibt? Jeder weiß, oder glaubt zu wissen, dass es ihn gibt. Aber gibt es den globalen Meeresspiegel überhaupt? Und was macht die Erwärmung für seinen Anstieg aus? Weiß doch jeder, dass sich Wasser bei Erwärmung ausdehnt.

…durch Erwärmung…

Zunächst sollte man sich die Frage stellen: Kann eine äußerst geringe – und nur um die handelt es sich hier – und auch nur vermutete- Erwärmung der Luft, um 0,8 bis 1,0 C die Riesenwassermenge der Ozeane wirklich so schnell erwärmen? Wer das einfach so glaubt, möge bitte nur ein paar überschlägige Berechnungen mit Wissen aus der frühen Oberstufe vornehmen.

…gerade einmal um 3cm –pro Jahrhundert!

Hierzu ein Beispiel:

Erwärmt[15] sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm. d.h. die wenn sich die gesamte Erwärmung des letzten Jahrhunderts auf das Meerwasser übertragen hätte, wäre das gerade mal um 3 cm, zwar mit großer Verzögerung, aber insgesamt gestiegen. Mehr geht nicht. Doch auch diese Annahme ist unrealistisch denn…

…Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser die Nähe von 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt.

Und was liefern die Gletscher?

Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. es gäbe einen Anstieg um ca. 10 cm in einem Jahrhundert.

Nur, die weitaus größte Eismenge von über 90 % ist in der Antarktis gebunden. Doch die Antarktis denkt nicht daran zu schmelzen, was sie früher, als es dort deutlich wärmer war als heute – besser gesagt : deutlich weniger kalt als heute- auch nicht tat. Wie eine neue Studie herausfand[16] war die Antarktis häufiger in den letzten 8000 Jahren wärmer als heute. Ganz ohne anthropogenes CO2.

Nur in Grönland, das weitere 9 % der Eismasse beherbergt, tauen die Ränder. Die von Stocker als Beispiel gezeigte schmelzende Arktis taugt hingegen nicht dazu, denn es handelt sich um Meereis, dessen Schmelzen keinen Einfluss auf den Meeresspiegel hat.

Und dass das Schmelzen der Alpengletscher oder anderswo einen messbaren Einfluss auf den Meeresspiegel hat, glaubt Stocker sicher selber nicht.

Globaler Meeresspiegel

Und damit sind wir wieder bei der Frage gibt es ihn, oder gibt es ihn nicht. Man braucht ja nur an die Küste fahren, auf endlose Meer blicken, sich an die Schulphysik, mit der Sache von den kommunizierenden Röhren erinnern und schon ist klar, dass es

a) einen globalen Meeresspiegel gibt und

b) dass dieser – glaubt man Stocker und dem Rest des IPCC- steigt durch die globale Erwärmung.

Doch an diesen beiden Aussagen ist fast alles falsch. Es gibt den globalen Meeresspiegel ebenso wenig wie die globale Mitteltemperatur, sondern viele verschiedene Meeresspiegel, die an manchen Standorten[17] an der Küste seit vielen Jahrzehnten eher weniger als mehr genau – per Pegelmessung- gemessen werden. Und alle sind verschieden und verhalten sich auch sehr verschieden. Insgesamt definiert die Forschung ca. 15 Einflussgrößen, welche auf den Meeresspiegel wirken. Die thermische und der Zufluss von Gletscherwasser gehören zu den kleinsten.

Die lokalen Pegelstände werden – zwar nicht vollständig- seit 1933 in der PSMSL Datenbank erfasst und stehen dort der Forschung zu Verfügung Die dort abrufbaren  lokalen Pegelmessungen können allerdings nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen. Das ist mindestens so schwierig wie die Temperaturbestimmung. Manche meinen, es sei noch schwieriger, weil die Datenbasis noch viel dünner ist und es keinen absoluten Bezugspunkt gibt.

Abbildung 12:Anstieg des globalen Meeresspiegels seit dem Ende der Eiszeit. Deutlich zu erkennen, dass dieser seit ca 9.000 Jahren nur noch moderat und seit ca. 6000 Jahren sehr moderat ansteigt. (Weitere Details dazu u.a. hier ) Einen wunderbaren Überblick über den gegenwärtigen Stand der Meerespiegelforschung hatte zuletzt EIKE Autor Kuntz[18] zusammengetragen. Er untersuchte viele Forschungsergebnisse, welche die letzen 10.000 Jahre (Holozän) abdecken

Sein Fazit lässt an Deutlichkeit nicht zu wünschen übrig:

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbar, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezweifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Wer nun richtig liegt, Stocker oder der kritische Ingenieur Kuntz, mag sich der Leser aussuchen. Es bleibt die Frage, wie Stocker und Kollegen auf ihre spektakuläre Aussage vom gefährlich ansteigenden Meeresspiegel kommen? Dies ist nicht recht ersichtlich, dient aber dem Alarmismus.

Fazit:

Die Ausführungen von Stocker sind zwar IPCC konform, in der Sache aber völlig unbestimmbar und daher spekulativ übertrieben. Ihre Zuordnung zur Ursache ist daher rein alarmistisch und durch nichts begründbar

Hitzewellen und Starkniederschläge

Im Vortrag (etwa um Minute 30) und später zu meinem Kommentar (ca. Minute 49:00) äußerte sich Stocker auch zur Zunahme der Extremereignisse, namentlich von „Hitzewellen und Starkniederschlägen,  die als einzige dem Klimawandel zugeordnet werden können“.

Trotz Widerspruchs beharrte Stocker auf dieser Behauptung. Ich bat ihn daher in einer Mail zur Klärung der Fakten diese zu belegen. Diese Klärung erfolgte leider nicht.

Warum?

Weil  40 Jahre Klimawandel à la IPCC diese Erhöhung der Extremwetter bisher nicht erkennen lassen. Im Gegenteil, viele Extrem-Wetterphänomene wurden weniger und manche sogar schwächer. Im den IPCC Bericht zu „Extremereignissen“ zu lesen wir dazu:

Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “No robust trends in annual numbers…“

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends….”

Über außer-tropischeZyklone[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:  “In summary, confidence in large scale changes in the intensity of extreme extra tropical cyclones is low …“

Über Dürren [IPCC 2013, AR5, WGI, Technical Summery,

Seite 50]:”There is low confidence in a global-scale observed trend in drought or dryness …“.[IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present…“

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence …“

Über Hagel und Gewitter (Starkniederschläge)_ [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale ..“

Zusammenfassung des_[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]:

“There is limited evidence of changes in extremes  associated with other climate variables since the mid-20th century.”

Fazit:

Extremwetterzunahmen im jüngeren Klimazeitraum sind von den Wetterdiensten nicht auffindbar.

Zur kleinen Eiszeit bzw. der Rückerwärmung danach

Als ich dann in der Diskussionsrunde erwähnte, dass er die kleine Eiszeit in seinem Vortrag und die (u.E.n. völlig natürliche) Rückerwärmung danach nicht erwähnte, korrigierte Stocker mich und verwies auf Ihre Ausführungen zum Aletsch-Gletscher. Doch auch da erwähnten er die kleine Eiszeit mit keinem Wort – er stellte nur fest, dass der Rückzug des Aletsch „..sicher eine Kombination der natürlichen Klimavariabilität …und der ersten Reaktion von Gletschern und Eiskörpern auf die Erwärmung, die stattgefunden hat…..ist“.

Wieder zeigten er allein Klima-Phänomene, aber lieferte keinerlei Beleg für seine „wirkliche Realität“, (O-Ton Stocker) dass das CO2 ursächlich daran schuld sei. 

Zum Carbon Budget

Mit dem Aufzeigen des sog. Carbonbudget kam Stocker zum eigentlichen Ziel seines Vortrages. Nach den Schrecken des Klimawandels – ausgelöst durch das anthropogene CO2- und umgerechnet auf die seiner Meinung gerade noch zulässige Erzeugung desselben (wenn man das 2 ° Ziel noch halten will), forderte er dann die vollständige  

Dekarbonisierung der Wirtschaft.

Dazu zeigte er eine Folie mit der er das sog.  Carbonbudget einführte. Sie zeigt dessen Veränderung seit Beginn der Industrialisierung (was immer das heißen mag), sowie das, was nach Meinung „der Wissenschaft“ noch zulässig emittierbar wäre.  Ausdrücklich deklarierte Stocker das dort Gezeigte mit viel Nachdruck als „wissenschaftlich“ und damit als unabweisbar und wahr.

Abbildung 13:Bereits verbrauchtes  und noch zulässiges „Budget“ an Kohlenstoff Äquivalent  nach Stocker

Dann berichteten er kurz über die Idee des Budgets an Emissionen -je nach zulässiger Erhöhung um 2°, 3° oder gar 4,7 °- CO2. Doch wie er zu dieser Budget-Berechnung überhaupt gekommen waren (ab Min 32:25), erklärte er – auch auf Mail-Nachfrage- nicht.

Seine Konsequenz ist, dass für das 2° Ziel noch 195 Mio t Cequiv (Anmerkung: Ceqiv ist die Menge an Kohlenstoff C die im CO2 gebunden ist, sowie die aus anderen Treibhausgasen umfguerechnete CO2 Menge, bzw. deren Ceqiv) an Emissionen zur Verfügung stünden, dann wäre das „Budget“ von 790 Mio t Cequiv erreicht. 

Abgesehen von der nicht unwichtigen Frage, warum er dem Publikum den erheblichen Unterschied zwischen Emissionen und atmosphärischer CO­2 Konzentration und die Tatsache, das es einen um knapp zwei Potenzen größeren natürlichen CO2-Kreislauf gibt, nicht einmal im Ansatz zu erklären versuchte, bleibt auch offen, was ihn zu dieser Behauptung gebracht hat.

Ich vermute, dass er sich zur Berechnung des Budget im Wesentlichen der (Equilibrium) Climate Sensitivity (CS oder ECS) bediente. Die gibt an, um wieviel die Temperatur rechnerisch bei Verdopplung der Treibhausgaskonzentration ansteigt. Das Problem mit diesem rein hypothetischer Rechenwert  ist jedoch, dass er als Wert sich -bisher jedenfalls – jeder genauen Bestimmung entzogen hat. Das mussten auch seine Kollegen einsehen, welche die Summary für Policymakers  (SPM) schrieben bzw . redigierten, denn dort steht– wenn auch in einer Fußnote versteckt – auf S.16:

No best estimate for equlibrium climate sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies“.

Doch in seinem Vortrag ignorierte Stocker nicht nur dieses IPCC Eingeständnis, er beschäftigte sich nicht einmal mit dieser wichtigen Frage,  sondern stellte einfach die o.a. Behauptungen in den Raum.

Wir wollten versuchen dem Geheimnis auf die Spur zu kommen und baten Stocker um Aufklärung. Doch die kam nicht. Daher können wir nur vermuten, dass er mit großer Wahrscheinlichkeit den politisch „offiziellen“ IPCC Wert von 3 °C für seine Berechnungen einsetzte. Anders kommen die von ihm genannten Zahlen auch nicht zustande.

Also per THG Verdopplung ergibt sich eine Temperaturerhöhung von 3 °C.  

Thomas Stocker müsste jedoch wissen – und weiß es sicher auch – dass ein ECS mit 3 °C nach heutigem Wissen völlig unhaltbar ist, weil sich gerade in jüngster Zeit die Studien häufen, welche diesen Wert auf unter 1 °C verorten, manche gehen sogar bis auf 0,45 °C ± 30 % und noch weiter herunter.

Wendet man diese Werte an, dann erledigt sich das „Problem Klimaerwärmung“ von selbst. Auch deswegen, weil selbst bei Verwendung des sog. Berner Modells zur Berechnung der CO2 Konzentration aus den Emissionen, (ein Modell, welches erlauben soll, die Zunahme der CO2 Konzentration aus den anthropogenen Emissionen zu bestimmen – an dessen Definition Stocker vielleicht sogar beteiligt war- mit 3 verschiedenen Halbwertzeiten für den „Zerfall“ des CO2 in der Atmosphäre,) die Berechnungen zeigen, dass, selbst wenn man ein exponentielles Wirtschafts-Wachstum für die nächsten acht Jahrzehnte annimmt und man dafür jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würde,  der CO2-Gehalt immer noch nicht doppelt so hoch wäre wie heute.[19]

Auch die 600 ppm Marke, also eine Verdopplung gegenüber dem -auch nur vermuteten- vorindustriellen Wert, würde schwerlich erreicht werden. All diese wichtigen Ergänzungen fehlten leider in Stockers Vortrag.

Und last but not least ließ er auch die – im Gegensatz zur Klimahypothese- eindeutig belegte positive Wirkung des CO2 Anstiegs auf den Pflanzenwuchs und damit auf die Welternährung völlig unberücksichtigt. 

Angeblich fehlende Mitwirkung Skeptiker

Am Ende seiner Ausführungen sagte Stocker die folgenden Sätze

Min 50:45 ..Sie haben 3 x Gelegenheit gehabt unseren Bericht zu begutachten. Drei mal!… wir haben insgesamt 54.677 Kommentare erhalten,  …wir haben auf jeden Kommentar schriftlich reagiert…im Internet verfügbar…Ich hatte eigentlich gehofft als Vorsitzender der Arbeitsgruppe 1, als ich das Amt übernommen hatte..in einer turbulenten Zeit wie Sie sich erinnern können, dass ich sehr viele intelligente Kommentare von Klimaskeptikern kriege, die wir dann Punkt für Punkt adressieren können….leider hat es sich dann herausgestellt, dass niemand von diesen Leuten, die in den Blogs(?) sehr aktiv waren, bei uns beigetragen haben. Tut mir Leid! Wir konnten auf diese Expertise nicht zurückgreifen. (Zwischenruf Limburg) Das stimmt nicht

Und es stimmt auch nicht. Bspw. hat Dr. Vincent Gray aus Neuseeland überschlägig ca. 800 Kommentare eingereicht, ebenso reichten, um nur einige weitere zu nennen, Prof Singer und Lord Monckton viele tlw. umfangreiche Kommentare ein, aber erhielten nie eine Antwort.

Auf meine spätere Nachfrage räumte Stocker dies auch ein, hielt es aber nicht für angebracht sich für seine öffentliche Falschinformation zu entschuldigen. Er  sandte mir aber eine pdf Datei mit allen Kommentaren von V. Gray und deren Behandlung seitens seiner  Arbeitsgruppe. Nach erster Sichtung wurden die allermeisten Kommentare „rejected“.

Ob dies aus objektiven oder subjektiven Gründen geschah, ist für diese Thematik eigentlich jetzt nicht relevant. Denn Tatsache bleibt, dass entgegen seiner klaren Ansage vor dem LIFE Auditorium, die „Klimaskeptiker“ hätten „trotz dreimaliger Gelegenheit“ zu diesen 54.677 Kommentaren nichts dazu mit „ihrer Expertise“ beigetragen, falsch ist. Und, da er es besser wusste, sogar vorsätzlich falsch.  Auch die umfangreichen Kommentare von S.F. Singer und Ch Monckton räumte Stocker nachträglich ein, verwies jedoch nur auf die IPCC Website um sie zu finden. Das ist uns bis heute nicht gelungen.

Fazit:

Ab Min 42:20, wies Stocker auf die so wichtige Glaubwürdigkeit hin

  „Das Grundlegende was wir in dieser komplexen Situation tun können ist unsere Glaubwürdigkeit pflegen…damit die Entscheidungsträger nicht auf irgendwelchen Halbwahrheiten oder Partikular Interessen entscheiden müssen sondern auf den Fakten die die Wissenschaft zur Verfügung stellt.“

Prof. Thomas Stocker hat also seine Aussagen bei klarem Bewusstsein, klarer einfacher Sprache, ohne jeden Zweifel und im Brustton des ehrlichen Wissenschaftlers vorgetragen.

Und er hat damit die Zuhörer überzeugt.

Nach seinen Worten gibt es keinen Zweifel, dass der „Klimawandel“ menschgemacht ist und fürchterlich für diesen Planeten wird, wenn wir nicht durch „Dekarbonisierung“ massiv und unverzüglich  gegensteuern.

Als Ergebnis dieses Gegensteuerns mittels Dekarbonisierung schildert er -wieder ohne jeden Zweifel- als zukünftiges Paradies, mit einer Energieversorgung aus „Erneuerbaren“!

Die Fragwürdigkeit von Stockers Behauptungen und „Beweisen“.

Auf den vorigen vielen Seiten – kürzer ging leider mal wieder nicht, wofür ich mich entschuldige- habe ich versucht die ganze Fragwürdigkeit, der mir am wichtigsten erscheinenden Behauptungen und Beweisführungen Stockers aufzuzeigen.  Nun dürfte das alles auch Stocker gut bekannt sein, aber wenn er trotzdem so berichtet wie er berichtet, dann kommt es ihm allein auf die Wirkung der Botschaft an sich an. Und damit verlässt er die Position des neutralen und ehrlichen Wissenschaftlers – obwohl er sie immer und immer wieder für sich beansprucht- und wird zum Aktivisten mit eigener Agenda. Er wäre in der Riege der bekannten alarmistischen Klimaforscher bei weitem nicht der einzige. Was die Sache nur schlechter und nicht besser macht.

In Würdigung dessen, drängt sich mir deshalb als sachkundigem Chronisten der Verdacht auf, dass Thomas Stocker ein würdiger Schüler des bereits verstorbenen Klimaforschers und (ebenfalls)– Aktivisten Stephen Schneider ist, der, seinerzeit Leitautor des IPCC seine Kollegen eindringlich zu folgendem Verhalten in der Öffentlichkeit ermahnte:  

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

An dramatischen Statements fehlt es in Stockers Vortrag nicht, ebenso erlaubte er sich und dem Publikum keinerlei Zweifel am Gesagten.

Daher bleibt Ihnen liebe Leser überlassen, zu entscheiden, ob Thomas Stocker eher ehrlich oder effektiv war.

Teil 1 finden Sie hier


[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten 

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

 URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/