Zum Sommerstart: Die vergebliche Suche nach der „Klimaerwärmung“ im Frühsommermonat Juni

Bild rechts: Wegen der Junikälte 2016 zeigten die jungen Triebe vieler Bäume und Büsche eine rötliche Färbung. Bei Kälte ziehen die Pflanzen ihr Blattgrün zurück und stellen die Fotosynthese ein. Vor allem in Süddeutschland war der Juni sehr kalt.

Beginnen wollen wir mit einem langen Zeitabschnitt unserer Junibetrachtungen

Grafik 1: In den letzten 120 Jahren hatte der Monat Juni zwei kühlere Phasen, um 1920 und um 1970 bis 1990. Die Temperatur-Höhepunkte des sinusartigen Temperaturverlaufes lagen vor 1900, um 1945 und kurz nach 2000. Auch wenn die polynomische Trendlinie Beginn und Ende stets verzerrt sowie Ausreißer überbetont, kann sie trotzdem sehr schön den Schwingungsverlauf des Monates Juni über den langen Betrachtungszeitraum herausstellen. Das Polynom zeigt: Es gibt keine kontinuierliche Erwärmung wie eine lineare Trendlinie dies mit y = 0,004 x zeigen würde.

Da die Daten des Deutschen Wetterdienstes nicht wärmeinselbereinigt sind, würde die lineare Trendlinie von WI-bereinigten Daten sogar eine leichte Tendenz zur Abkühlung über die 122 Jahre zeigen.

Schon aus Grafik 1 ist ersichtlich, dass Kohlendioxid auf diesen Temperaturverlauf keine Auswirkung haben kann. Denn seit 1959, dem Beginn der regelmäßigen Messungen auf dem Mouna Loa, steigen die CO2-Konzentrationen der Atmosphäre bis heute stetig an, während der Juni ab 1955 für die nächsten 25 Jahre zunächst kälter wurde. CO2-Anstieg bei gleichzeitig fallenden Temperaturen, dass ergibt keine Erwärmungs-Kausalität.

Grafik 2: Geschätzte Entwicklung der CO2- Konzentration und Juni- Temperaturentwicklung in Zentralengland seit 1930. Während die Kohlendioxid- Konzentration um fast 100 ppm (Teile CO2 pro Million Teile Luft) gestiegen ist, blieben die Juni- Temperaturen in Zentralengland fast unverändert (der geringe Rückgang ist nicht signifikant). Es fehlt seit fast neun Jahrzehnten jeglicher statistischer Zusammenhang zwischen der Entwicklung der CO2- Konzentration und der Lufttemperatur.

Für den Zeitraum ab 1930, zu Beginn des Temperaturhöhepunktes der Jahrhundertmitte, fehlt jeglicher Anstieg. Der Juni Wert 2016 hat sich entlang der Trendlinie seit 1930 eingeordnet.

Wir hatten dazu im Teil 1 die Deutschland- Juni- Werte mit denen des Britischen Wetterdienstes (UKMO, Metoffice) für Zentralengland als Referenz- Region verglichen. Es zeigten sich keine gravierenden Unterschiede. Die CO2-Konzentrationen sind rasant gestiegen, und das hatte keinerlei Einfluss auf die Temperaturen.

Grafik 3: Seit nunmehr 87 Jahren hat sich der Juni in Deutschland nicht mehr erwärmt, trotz ständig steigender CO2-Konzentration der Atmosphäre. (siehe kleines Diagramm) Wärmeinselbereinigt hätten wir sogar eine fallende Trendlinie. Das bedeutet, in der freien Natur Deutschlands wurde es somit kälter. Selbst in den Wärmeinseln Deutschlands, wo vorwiegend die deutschen Messstationen stehen, gab es keine Temperaturänderungen des Monates Juni seit etwa drei Generationen!

Wo ist die Kohlendioxid-Klimaerwärmung beim Juni?

Auch diesmal hat der Deutsche Wetterdienst in seiner Pressemitteilung vom 28.Juni wieder erwähnt, der Monat Juni sei zu warm gewesen. Der Grund dafür ist der völlig veraltete Vergleichszeitraum von 1961 bis 1990. Wie aus Grafik 1 ersichtlich, beinhaltet dieser Vergleichsabschnitt genau die Jahre der letzten Kaltphase. Aus einer Kaltphase heraus ergibt sich immer ein Temperaturanstieg.

Damit bleibt die Frage, wann wurde der letzte Temperaturhöhepunkt und damit der Wendepunkt zur neuen Abkühlung hin erreicht? Die Antwort ist diesmal einfach, denn Grafik 1 beantwortet bereits diese Frage. Im Jahre 2003 war mit 19,4°C der vom Deutschen Wetterdienst gemessene wärmste Juni in Deutschland, aber auch im Jahr davor und 2000 war der Juni sehr warm. Wegen dieser Wärmehöhepunkte verzerrt die polynomische Trendlinie bei Grafik 1 den tatsächlichen Verlauf ziemlich kräftig. Ganz so steil ist der Temperaturrückgang in der Gegenwart natürlich nicht, siehe nächste Grafik.

Nehmen wir als nächste Temperaturbetrachtung den Gegenwartszeitraum, also seit dem Jahr 2000 bis heute.

Grafik 4: Im neuen Jahrtausend, also seit 17 Jahren, zeigt der erste Sommermonat Juni einen noch nicht signifikanten Temperaturrückgang. Der Zeitraum ist bei der großen Streuung der Einzelwerte noch zu kurz, um eine eindeutige Aussage für eine noch dauerhafte Klimaabkühlung für die Zukunft zu machen. Aber: In den letzten 8 Jahren war der Juni kein beständiger Bademonat mehr. Dies gilt vor allem für den Juni 2016 in Süddeutschland, wo nur die letzten sieben Tage dem Anspruch „Sommer“ gerecht wurden.

Ergebnis: Wir haben gezeigt, dass der Temperaturverlauf des Monates Juni über die letzten 120 Jahre in sinusähnlichen Schwingungen verläuft, dafür kann Kohlendioxid nicht verantwortlich sein und:

Der Juni wird in der Gegenwart wieder kälter, trotz weltweit steigender CO2-Konzentrationen. Und auch der Juni 2016 hat die linear fallende Trendlinie bestätigt. Diese Tatsache widerspricht vollkommen der Glaubensirrlehre der steigenden CO2-Erwärmung. Mit aller Vorsicht könnte man die Prognose wagen, dass in 20 bis 25 Jahren der Monat Juni seinen nächsten Kältetiefpunkt erreicht haben wird, im Schnitt nochmals um ein halbes Grad tiefer als momentan.

Im Folgenden soll nun nach den Ursachen dieser Juni-Temperaturentwicklung gesucht werden.

Drei meteorologische Größen beeinflussen das Temperaturverhalten im Juni maßgeblich, die AMO (Atlantische Mehrzehnjährige Oszillation, eine Schwankung der Wassertemperaturen im zentralen Nordatlantik), die Sonnenscheindauer (eine längere Sonnenscheindauer wirkt erwärmend), und die Häufigkeitsverhältnisse der Großwetterlagen. In der nächsten Grafik erkennen wir zwar einen leichten Anstieg der AMO- Werte, aber einen deutlichen Rückgang der Sonnenscheindauer in Potsdam. Auch dort stiegen die Juni- Temperaturen seit 1930 nicht an: Weniger Sonnenstunden, aber gleich bleibende Temperaturen, dieser Widerspruch könnte auch mit dem stetig zunehmenden Wärmeinseleffekt bei den Stationen erklärt werden.

Grafik 5: Stagnierende Juni- Temperaturen in Potsdam (rot, Mitte) bei leicht steigenden AMO- Werten (grün) und zurückgehender Sonnenscheindauer.

Das „wellenartige“ Verhalten der Juni- Temperaturen in Deutschland (siehe auch Grafik 1) wird von der Rhythmik der AMO bestimmt (tendenziell höhere Juni- Werte in Phasen mit höheren AMO- Werten wie vor 1900, nach 1930 bis um 1960 und gegenwärtig):

Grafik 6: Tendenziell höhere Juni- Temperaturen in Deutschland (braun) in Phasen mit höheren Wassertemperaturen im zentralen Nordatlantik (grün).

Auch in Zentralengland zeigen sich diese Zusammenhänge. Hier stellvertretend für die Sonnenscheindauer, welche dort im Juni zurückging:

Grafik 7: In Zentralengland sanken die Junitemperaturen seit 1930 geringfügig. Auch die Sonnenscheindauer nahm dort etwas ab.

Leider wird in Großbritannien die Sonnenscheindauer nur für das ganze Königreich angegeben; wäre das nur für Zentralengland der Fall, sähe der Zusammenhang noch deutlicher aus. Daher schauen wir uns die Potsdam- Werte genauer an. Es zeigt sich ein signifikanter Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen:

Grafik 8: Je höher die Sonnenscheindauer pro Junitag, desto wärmer ist es tendenziell, denn die hoch stehende Sommersonne heizt kräftig.

Die hoch stehende Sonne heizt kräftig ein, das ist besonders auffällig in den betonierten Wärmeinseln, wo dann schnelle große Temperatursprünge registriert werden.

Nun sind noch die Ursachen des leichten Rückgangs der Sonnenscheindauer im Juni zu klären. Die Bewölkung nahm leicht zu, weil auch Westwetterlagen, welche im Juni eher kühl und bewölkt ausfallen, etwas häufiger wurden:

Grafik 9: Leichte Zunahme der Bewölkungsmenge (Gesamtbedeckung in Achteln, blau) in Potsdam im Juni. Außerdem wurden die wolkenreichen Westwetterlagen (Mitte) etwas häufiger. Die Juni- Temperaturen blieben in Potsdam unverändert; die AMO wirkte (bislang) der Abkühlung durch mehr Bewölkung (weniger Sonnenschein) entgegen.

Fazit: Einen Zusammenhang zwischen Juni- Temperaturentwicklung und der steigenden CO2- Konzentration gibt es nicht. Die Juni- Werte stagnieren seit über 85 Jahren; seit Beginn des 21. Jahrhunderts deutet sich eher ein (noch nicht signifikanter) Rückgang an. Atlantik- Wassertemperaturen (AMO), Sonnenscheindauer und Bewölkung sowie die Häufigkeitsverhältnisse der Großwetterlagen beeinflussen hingegen die Juni- Temperaturentwicklung maßgeblich. Da in naher Zukunft ein Übergang zur AMO- Kaltphase zu erwarten ist, könnte eine Phase mit längerer Juni- Abkühlung begonnen haben, obwohl genaue Langfristprognosen natürlich nicht möglich sind.

Teil 1 dieses Beitrags gibt es hier.

Josef Kowatsch, Naturschützer und neutraler Klimawissenschaftler

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Wissenschaftlicher Konsens 2016: Die Klimamodelle taugen nichts

Die Zeit der Debatten ist beendet. Jetzt muss dringend gehandelt werden … In Dantes Inferno erklärt der Schriftsteller die neun Bereiche der Hölle, jede Einzelne reserviert für verschiedene Sorten von Sündern. Die erste Hölle ist denen vorbehalten, die es nicht besser wussten, und die innerste Hölle ist reserviert für die Verräterischsten aller Sünder. Ich frage mich, wo Dante uns alle hinpacken würde, die wir uns gegen diese Erde versündigen im Namen ökonomischen Wachstums, indem wir Umweltschulden anhäufen mittels des Verbrennens fossiler Treibstoffe, deren Folgen unsere Kinder und Enkel ausbaden müssen. Handeln wir jetzt, um die nächsten Generationen vor einem Über-2°C-Inferno zu bewahren!

Offenbar haben McNutts aktivistische Ermahnungen nicht diejenigen Wissenschaftler überzeugt, die in anderen Journalen Studien veröffentlichen, die zeigen, dass die wissenschaftliche Debatte über den Klimawandel alles andere als beendet ist.

Das Jahr ist noch nicht einmal zur Hälfte vergangen, und schon gibt es über 20 veröffentlichte begutachtete Studien, die bestätigen, dass die Klimamodelle sich auf jene stützen, die hinaus posaunen, dass die Debatte beendet ist. Die Studien zeigen, dass a) die Ergebnisse der Modelle nicht mit den Beobachtungen übereinstimmen, b) wichtige, das Klima beeinflussende Faktoren nicht berücksichtigt werden, c) sie keinerlei Vorhersage-Wert aufweisen, d) sie den „Stillstand“ des 21. Jahrhunderts nicht simulieren können, e) sie große Unsicherheiten und Verzerrungen enthalten, die ihre Zuverlässigkeit praktisch aufheben und f), dass sie auf Hypothesen beruhen, die längst widerlegt sind.

Begrenzungen werden gebraucht, um die Entwicklung der Modelle zu steuern und Unsicherheiten bei Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die präindustriellen Beobachtungen, die zur Begrenzung der Sensitivitäten erforderlich sind, nicht verfügbar.

Klimamodellläufe … zeigen keinerlei Vorhersage-Wert bei der Reproduktion langzeitlicher Änderungen der Temperatur und Niederschlagsmengen.

Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die hydroklimatische Variabilität genau modellieren können.

Die Auffassung, dass die Atmosphäre der jungen Erde dicker war, hat sich als falsch erwiesen. … Die Ergebnisse widerlegen die allgemein akzeptierte Auffassung, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren.

Da gibt es dieses Missverhältnis zwischen dem, was die Klimamodelle erzeugen und dem, was die Beobachtungen zeigen … Die Rate der Erwärmung verlangsamte sich gerade zu einem Zeitpunkt, an dem die Treibhausgas-Emissionen dramatisch stiegen.

Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentation von Austrocknung und Wolkenprozessen im Bereich der tropischen Tropopause. Daher verbietet sich ihre Rückkopplung mit dem Klima an der Oberfläche, um eine genaue Projektion globaler und regionaler Klimaänderungen zu erhalten.

Es zeigte sich, dass die wellenartigen Bewegungen der Atmosphäre mit einer Rate vonstatten gehen, die um eine Größenordnung höher ist als zuvor prophezeit worden war.

Vielleicht kann man den Wissenschaftlern, die den Mut haben, über die deutliche Unsicherheit und Unzuverlässigkeit, die in Klimamodellen inhärent sind – oder über die Falschheit der zuvor erstellten Hypothesen über das System Erde–Atmosphäre – ihr fehlendes Verständnis bzgl. „settled Science“ nachsehen. Wie Marcia McNutt erklärt, ist die Debatte schließlich beendet; die Klimamodelle zeigen genau dies; es ist jetzt die Zeit zu handeln.

Glücklicherweise sind diejenigen Wissenschaftler, die „es nicht besser wissen“, in der Lage, in die äußeren Bereiche der Hölle zu entkommen anstatt im innersten Bereich zu verbleiben – wo es offensichtlich viel, viel heißer ist. Dort können wir wohl jene finden, die immer noch nicht zustimmen, dass die Debatte beendet ist und dass Aktivismus jetzt Wissenschaft ist.

Offensichtlich gibt es stichhaltige und sehr substantielle Gründe, warum Viele skeptisch sind.

Übersicht über 21 Studien dieses Jahres 2016

Im Folgenden werden 21 Studien vorgestellt, die bislang in diesem Jahr 2016 (bis Mitte Juni) veröffentlicht worden sind und die nicht den Behauptungen folgen, dass die Modellierung des Klimas „settled Science“ ist oder dass die wissenschaftliche Debatte jetzt beendet ist.

1. Christy and McNider, 2016

Drei Zeitreihen der mittleren täglichen Sommer-Maximumtemperatur (Tmax JJA) wurden für drei innere Regionen von Alabama erstellt, und zwar von Stationen mit verschiedenen Aufzeichnungs-Zeiträumen und unbekannten Inhomogenitäten. Der Zeitrahmen sind die Jahre 1883 bis 2014. … Eine Variation der Parameter bei dem Verfahren der Erstellung erzeugte 333 Zeitreihen mit einem zentralen Trendwert auf der Grundlage der größten Stationengruppe von -0,07°C pro Dekade mit einem Best Estimate der Messungenauigkeit von -0,12°C bis -0,02°C pro Dekade. Dieses Best Estimate unterscheidet sich nur unwesentlich von einer ähnlichen regionalen Berechnung (0,01°C pro Dekade) aus den nClimDiv-Daten der NOAA mit Beginn im Jahre 1895. … Schließlich wurden noch 77 CMIP5- Klimamodellläufe für Alabama untersucht. Sie zeigen keinerlei Fähigkeit, die langfristigen Temperatur- und Niederschlagsänderungen seit 1895 zu reproduzieren“.

2. Fyfe et al., 2016

Es war behauptet worden, dass die Verlangsamung der Erwärmung zu Anfang dieses Jahrhunderts bzw. deren Stillstand, charakterisiert durch eine verringerte Rate der globalen Oberflächen-Erwärmung, übertrieben worden ist; dass dafür die wissenschaftliche Basis fehlt oder er von Beobachtungen nicht gestützt wird. Die hier präsentierten Beweise widersprechen diesen Behauptungen.

(Presseerklärung):

Es gibt da dieses Missverhältnis zwischen den Ergebnissen der Klimamodelle und dem, was die Beobachtungen zeigen“, sagt Leitautor John Fyfe, ein Klimamodellierer am Canadian Centre for Climate Modelling and Analysis in Victoria, British Columbia. „Das können wir nicht ignorieren“. Susan Solomon, Klimatologin am MIT in Cambridge sagt, dass Fyfes grundlegende Arbeit dabei hilft, die Trends des 21. Jahrhunderts in die richtige Perspektive zu stellen. Und sie zeigt eindeutig, dass sich die Erwärmungsrate zu einer Zeit verlangsamt hat, als die Treibhausgas-Emissionen dramatisch zunahmen“.

3. Zhao et al., 2016

Die Autoren zeigen, das Modellschätzungen der Klimasensitivität stark beeinflusst werden können durch die Art und Weise, mit der die Kondensation von Cumulus-Wolken in Niederschlag konvertiert wird bei der Parametrisierung der Modell-Konvektion. Diese Prozesse werden in den Globalen Klimamodellen nur sehr vage berücksichtigt. Im Einzelnen können zwei allgemein angewendete Verfahren der Konvertierung der Kumulus-Kondensation zu Niederschlag z drastisch unterschiedlichen Werten der Klimasensitivität führen, wie hier abgeschätzt mittels eines Atmosphäre-Land-Modells durch gleichmäßig steigende Ozean-Wassertemperaturen und der Untersuchung der Reaktion bei der Energiebilanz an der Obergrenze der Atmosphäre. Der Effekt kann quantifiziert werden durch eine großflächige konvektive Luftentzugs-Effizienz [detrainment efficiency ?]. Diese misst die Fähigkeit der Kumulus-Konvektion, Kondensat pro Einheit Niederschlag zu erzeugen [?]. Die Modellunterschiede, dominiert von kurzwelligen Rückkopplungen stammen aus ausgedehnten Regimes, die von großräumiger Hebung bis zu Gebieten mit Absinken reichen. Angesichts der gegenwärtigen Unsicherheiten bei der Repräsentanz der konvektiven Niederschlags-Mikrophysik und der gegenwärtigen Unfähigkeit, klare Beobachtungs-Hindernisse zu finden, die eine Version des Modells der Autoren gegenüber den anderen Modellen favorisieren, müssen die Implikationen bei der Berechnung der Klimasensitivität berücksichtigt werden, wenn man die Unsicherheit in den Klimaprojektionen abschätzen will“.

4. Ljungqvist et al., 2016

Wir finden einen größeren Prozentsatz von Festlandsgebieten mit relativ nasseren Bedingungen vom 9. bis zum 11. sowie im 20. Jahrhundert, während trockenere Bedingungen verbreitet zwischen dem 12. und dem 19. Jahrhundert herrschten. Unsere Rekonstruktion zeigt, dass deutliche Sägezahn-Verläufe alternierender Feuchte-Regimes, die in den instrumentellen Daten im gesamten Mittelmeer, den westlichen USA und China zu finden sind, immer wieder während der vergangenen 12 Jahrhunderte aufgetreten waren. … Die Intensivierung der mittleren Hydroklima-Anomalien im 20. Jahrhundert in den Simulationen wird im Vergleich zu vorangegangenen Jahrhunderten durch unsere neue Multi-Proxy-Rekonstruktion nicht gestützt. Dieses Ergebnis zeigt, dass noch viel zu tun ist, bevor wir die Hydroklima-Variabilität genau modellieren können, und es betont die Wichtigkeit der Verwendung von paläoklimatischen Daten, um jüngste und prophezeite zukünftige Änderungen des Hydroklimas im Zusammenhang von Jahrtausenden zu erstellen.

Presseerklärung:

Einer neuen Studie zufolge gab es auf der Nordhemisphäre deutlich stärkere Variationen der Niederschlagsmenge während der letzten 12 Jahrhunderte als im 20.Jahrhundert. Forscher aus Schweden, Deutschland und der Schweiz haben nachgewiesen, dass Klimamodelle die Zunahme nasser und trockener Extreme überschätzt haben während der Erwärmung während des 20. Jahrhunderts.

5. Ghan et al., 2016

Eine große Vielfalt von Prozessen ist involviert im Ablauf der Emissionen von Gasen und primären Partikeln bis zu Auswirkungen auf den Strahlungsantrieb von Wolken … Allerdings sind wir am meisten an dem Strahlungsantrieb seit der präindustriellen Ära interessiert. Weil aus dieser Ära nur wenige relevante Messungen vorliegen, wurde angenommen, dass Beziehungen aus der jüngeren Variabilität auf Änderungen seit der präindustriellen Zeit bis heute übertragbar seien. …

Angesichts der Diverstität von Relationen werden Begrenzungen [constraints] benötigt, um die Modellentwicklung zu steuern und die Unsicherheit in den Schätzungen des Strahlungsantriebs zu reduzieren. Unglücklicherweise sind die zur Begrenzung der Sensitivitäten erforderlichen präindustriellen Beobachtungen nicht verfügbar. … Ein Verfahren könnte Trends aus jüngerer Zeit in den Regionen heranziehen, in denen sich die Emissionen substantiell verändert haben während einer Zeit, aus der zuverlässige Meldungen vorliegen. Zum Beispiel haben Cherian et al. gemessene Trends der solaren Einstrahlung an europäischen Messpunkten herangezogen aus dem Zeitraum 1990 bis 2005, als SO2-Emissionen um das Dreifache abgenommen haben. Damit haben sie globale Schätzungen des Strahlungsantriebs von Aerosolen seit der präindustriellen Ära begrenzt. Obwohl eine solche Analyse hoch informativ ist, kann sie jedoch nicht Verzerrungen in den Modellen beseitigen, die den Trend der Einstrahlung [downward solar radiance] über Europa über- oder unterschätzen. Dies könnte den Fehlern in irgendeinem der Faktoren geschuldet sein, die Änderungen des Strahlungsantriebs von Wolken zeitigen können, ebenso wie die natürliche Variabilität der Wolkenbedeckung. Das Entfernen jener Verzerrungen ist notwendig, falls Klimamodelle für Simulationen zukünftiger Klimaänderungen herangezogen werden. Zusätzliche Daten, die jeden der Faktoren und Komponenten charakterisieren, werden gebraucht. Einige der erforderlichen Daten (Lre, aerosol optical depth) liegen seit 1990 vor, aber zuverlässige Schätzungen von Nd, τ und R liegen aus den Jahren vor 2001 nicht vor.

6. Le et al., 2016

Die geringe Übereinstimmung zwischen den Modellen, die die Auswirkungen solarer Variationen auf SAT in vielen Gebieten simulieren, zeigt die unterschiedlichen dynamischen Reaktionen in diesen Modellen, möglicherweise in Verbindung mit einer ungenauen Parametrisierung der Prozesse, die mit dem solaren Antrieb verknüpft sind. Unsere Analyse zeigt, dass die interne Klimavariabilität eine bedeutendere Rolle spielt als externe Antriebe der kurzfristigen SAT-Variabilität und die Unsicherheiten, zu denen es kommen kann infolge von Auswirkungen interner Klimazustände ohne die El Nino-Southern Oscillsation. Sie unterstreicht die Notwendigkeit eines besseren Verständnisses der dynamischen Reaktion von SAT auf externe Antriebe.

7. McKinley et al., 2016

Die Ozeane haben 41 Prozent allen anthropogen emittierten Kohlenstoffes aufgenommen. Die Magnitude und die großräumige Verteilung der ozeanischen Kohlenstoffsenke wurde während der letzten Jahrzehnte gut quantifiziert. Im Gegensatz dazu sind zeitweilige Änderungen der ozeanischen Kohlenstoffsenke weiterhin kaum verstanden. Es hat sich als schwierig erwiesen, zwischen den Trends eines Kohlenstoff-Flusses aus der Luft in das Meer zu unterscheiden – Trends infolge des anthropogenen Klimawandels bzw. der inneren Klima-Variabilität. Wir wenden hier ein Modellierungs-Verfahren an, dass diese Unterscheidung zulässt und welches enthüllt, wie sich die ozeanische Kohlenstoffsenke den Erwartungen zufolge verändern wird im Laufe dieses Jahrhunderts und in verschiedenen ozeanischen Regionen. Unsere Ergebnisse zeigen, dass – geschuldet der großen inneren Klima-Variabilität – es unwahrscheinlich ist, dass Änderungen der Aufnahmerate anthropogenen Kohlenstoffes gegenwärtig in den meisten ozeanischen Gebieten gemessen werden kann, dass dies jedoch zwischen 2020 und 2050 in einigen Regionen möglich ist“.

8. Hawkins et al., 2016

Nicht reduzierbare Unsicherheiten in Kurzfrist-Klimaprojektionen

Abstract: Diese Ergebnisse zeigen, dass Klimaprojektionen mit viel mehr Ensemble-Mitgliedern durchgeführt werden müssen als derzeit, darunter eine Vielfalt ozeanischer Initial-Bedingungen, falls die Unsicherheit bei kurzfristigen regionalen Klimaprojektionen angemessen quantifiziert werden kann.

Zusammenfassung und Diskussion: Die Gegenwart derzeitiger Unsicherheit bzgl. initialer Bedingungen und nichtlinearer Vorgänge erzeugt bedeutende und nicht reduzierbare Unsicherheiten bei [der Simulation] zukünftiger regionaler Klimaänderungen. Für 20-Jahre-Trends zeigt sich kaum jemals ein Klimawandel-Signal in dem Rauschen der inneren Variabilität. Unsicherheiten in zukünftigen Trends von Temperatur und Niederschlagsmenge reduzieren sich in längerzeitlichen Trends, weil die Unsicherheit bzgl. initialer Bedingungen gleich bleibt“.

9. Hoggard et al., 2016

Unsere Spektralanalyse zeigt bedeutende Diskrepanzen zwischen der gemessenen und der prophezeiten dynamischen Topographie.

Presseerklärung:

Eine Karte mit den Flüssen innerhalb des Erdmantels zeigt, dass sich die Oberfläche ,wie ein Jo-Jo‘ auf- und abwärts bewegt.

Forscher haben den ersten globalen Datensatz der Bewegung des Erdmantels erstellt, also der 3000 km dicken Schicht heißen Silikat-Gesteins zwischen der Erdkruste und dem Erdkern. Sie fanden heraus, diese Bewegung sehr viel anders aussah als von Geologen während der vergangenen 30 Jahre prognostiziert … Es zeigte sich, dass die wellenartigen Bewegungen des Erdmantels mit einer Rate vonstatten gehen, die um eine Größenordnung größer ist als zuvor prophezeit. Die Ergebnisse, vorgestellt in ,Nature Geoscience‘, haben Auswirkungen auf viele Disziplinen einschließlich der ozeanischen Zirkulation und Klimawandel in der Vergangenheit.

10. Som et al., 2016

Unsere Daten zeigen einen überraschend niedrigen atmosphärischen Druck von Patm = 0.23 ±0.23 (2σ) bar, und in Kombination mit früheren Studien ergeben sich ~0,5 bar als obere Grenze von late Archaean Patm. [Atmosphären-Druck zum Ende der Urzeit der Erde?]. Das Ergebnis impliziert, dass die dünne Atmosphäre reich war an zusätzlichen Treibhausgasen und dass Patm (atmosphärischer Druck an der Oberfläche) in geologischen Zeiträumen mit einem bislang unbekannten Ausmaß fluktuiert hat.

Presseerklärung:

Die Atmosphäre der frühen Erde wog weniger als halb so viel wie die heutige Atmosphäre.

Der Gedanke, dass die junge Erde eine dickere Atmosphäre aufgewiesen hatte, stellt sich als falsch heraus. Neue Forschungen an der University of Washington untersuchten Luftbläschen, die in 2,7 Milliarden Jahre altem Felsgestein eingeschlossen waren. Es zeigte sich, dass die Luft zu jener Zeit höchstens einen halb so hohen Druck auf die Oberfläche wie die heutige Atmosphäre ausgeübt hatte. Die Ergebnisse invertieren die allgemein akzeptierte Hypothese, dass die frühe Erde eine dickere Atmosphäre hatte, um das schwächere Sonnenlicht zu kompensieren. Das Ergebnis hat auch Implikationen hinsichtlich der Frage, welche Gase sich damals in der Atmosphäre befunden hatten und wie Biologie und Klima auf dem frühen Planeten vonstatten gegangen waren. …

Seit Langem haben die Menschen gedacht, dass der atmosphärische Druck seinerzeit höher gewesen sein könnte, weil die Sonne schwächer war“, sagte Leitautor Sanjoy Som. Er forschte im Rahmen seiner Promotion im Fachbereich Erde und Weltraum-Wissenschaften. „Unsere Ergebnisse sind das genaue Gegenteil dessen, was wir erwartet hatten“ …

Wir müssen immer noch mit der Größenordnung hiervon zurecht kommen. Es wird noch eine Weile dauern, bis wir alle möglichen Konsequenzen ausgelotet haben“. Unsere geologischen Beweise zeigen eindeutig flüssiges Wasser zu jener Zeit auf der Erde. Folglich muss die frühe Atmosphäre mehr Wärme einfangende Treibhausgase enthalten haben, also mehr Methan und Kohlendioxid und weniger Stickstoff“.

11. Harrison et al., 2016

Paläoklimatische Untersuchungen haben gezeigt, dass großräumige Änderungen des Klimas, die von Energie- und Wasserbilanz regiert werden, konsistent Reaktionen aufweist bei Änderungen der Antriebe in verschiedenen Klimazuständen. Diese konsistenten Reaktionen werden von Klimamodellen reproduziert. Allerdings sind die hypermodernen Modelle nach wie vor nicht in der Lage, gemessene Änderungen des Klimas im regionalen Scale zuverlässig zu reproduzieren. Während paläoklimatische Analysen der hypermodernen Klimamodelle die dringende Notwendigkeit zeigt, die Modelle zu verbessern, muss auch noch viel Arbeit geleistet werden, um plaäoklimatische Rekonstruktionen zu verbessern und auszuweiten. Sowohl die numerischen als auch die Interpretations-Unsicherheiten müssen quantifiziert und reduziert werden.

12. Lehner et al., 2016

Vergleiche der gemessenen Abkühlung im globalen Maßstab nach Vulkanausbrüchen in jüngerer Zeit mit den Simulationen der CMIP5-Klimamodelle zeigen, dass die Modelle die Magnitude der globalen Temperatur-Reaktion auf vulkanische Eruptionen überschätzen. Hier zeigen wir, dass die Überschätzung erklärt werden kann mit der Auswahl der Beispielfälle, fielen doch alle großen Eruptionen seit 1951 mit El Nino-Ereignissen zusammen. Diese führen zu einer Erwärmung im globalen Maßstab, die der durch die Vulkanausbrüche verursachten Abkühlung entgegen wirken. Bei Teil-Stichproben der CMIP5-Modelle gemäß der beobachteten ENSO-Phase während eines jeden Ausbruchs zeigt sich, dass die simulierte globale Temperatur-Reaktion auf vulkanische Antriebe mit den Beobachtungen konsistent ist. Vulkanausbrüche stellen eine besondere Herausforderung dar für die Verfahrensweise bei der Auffindung und Zuordnung, da deren Auswirkungen auf der Oberfläche kurzlebig sind und folglich von ENSO durcheinander gebracht werden können. Unsere Ergebnisse implizieren, dass Studien bzgl. Auffinden und Zuordnung sorgfältig Verzerrungen berücksichtigen muss, die sich durch die Auswahl der Stichproben infolge der internen Klimavariabilität ergeben.

Einführung: Schätzungen der Relativ-Beiträge durch anthropogene und natürliche Antriebe fließen bei unseren Versuchen ein, kurzlebige und Gleichgewichts-Klimasensitivität zu belegen [attempts to constrain transient and equilibrium climate sensitivity] (Collins et al. 2013). Derartige Versuche werden inhärent kompliziert durch die Tatsache, dass wir nur eine der vielen möglichen Klima-Trajektorien beobachten. Weil die interne Variabilität signifikant zu Trends im Zeitrahmen von Jahrzehnten beiträgt, zumindest zu einem bestimmten Anteil und in verschiedenen Regionen, kann eine aussagekräftige Zuordnung des Klimawandels zu einer Herausforderung werden und empfindlich reagieren auf die besondere Realisierung der Variabilität in den gemessenen Aufzeichnungen (Deser et al. 2012a).

13. Rehfeld and Laepple, 2016

Die Temperaturen in Asien und global werden sehr wahrscheinlich mit Treibhausgas-Emissionen steigen, aber Zukunftsprojektionen hinsichtlich der Niederschlagsmenge sind weit weniger sicher. Hier untersuchen wir die Verbindung zwischen Temperatur und Niederschlag in Asien im Zeitrahmen von Jahren bis Jahrhunderten unter Verwendung von instrumentellen Daten, paläoklimatischen Proxy-Daten am Ende des Holozän sowie Klimamodell-Simulationen. Es zeigt sich dass die Beziehung zwischen Temperatur und Niederschlag in den instrumentellen und den Proxy-Daten abhängig ist vom Zeitrahmen. Während im Zeitrahmen von Jahren bis Jahrzehnten negative Korrelationen dominieren und folglich kühle Sommer dazu tendieren, auch nasse Sommer zu sein, sind Niederschlag und Temperatur im größeren Zeitrahmen positiv korreliert: kühle Jahrhunderte tendieren dazu, im monsunalen Asien trockenere Jahrhunderte zu sein. Im Gegensatz dazu zeigen die analysierten CMIP5-Modellsimulationen eine negative Korrelation zwischen Niederschlag und Temperatur in jedwedem Zeitrahmen. Obwohl hinsichtlich der Interpretation von Proxydaten viele Unsicherheiten bestehen, gibt es eine Konsistenz zwischen ihnen und den instrumentellen Beweisen. Dies zusammen mit der Persistenz dieser Ergebnisse in allen Proxy-Datensätzen zeigt, dass die Modellsimulationen deutlich verzerrt sein könnten, wobei sie die kurzfristigen negativen Verbindungen zwischen regionaler Regenmenge und Temperatur überschätzen. Die langzeitliche positive Beziehung zwischen beiden fehlt völlig.

14. Hand, 2016

Die Modelle zeigen, dass der Klimawandel die AMOC schwächen sollte, da höhere arktische Temperaturen zusammen mit oben treibendem Süßwasser aus der schmelzenden Eiskappe Grönlands die Bildung von tief reichenden Strömungen behindert. Bislang jedoch zeigen begrenzte Messungen im Ozean, dass die AMOC weitaus unberechenbarer ist als die Modelle abzubilden in der Lage waren.

15. Chiodo and Polvani, 2016

Eine genaue Abschätzung der Rolle der solaren Aktivität ist ein Schritt in Richtung einer ordentlichen Quantifizierung des natürlichen und es anthropogenen Klimawandels. Hierfür wurden extensiv Klimamodelle herangezogen, um den solaren Beitrag zur Klimavariabilität zu quantifizieren. Jedoch ist der Großteil der Studien zur Modellierung wegen des hohen Rechenaufwandes bislang ohne interaktive stratosphärische Photochemie durchgeführt worden: Die Auswirkungen dieser Vereinfachung auf die Reaktion des simulierten Klimasystems auf den solaren Antrieb ist nach wie vor zum größten Teil unbekannt. Hier quantifizieren wir diesen Einfluss, indem wir die Reaktion aus zwei Modell-Konfigurationen vergleichen, mit und ohne Ozon-Chemie. Mittels langer Integrationen erhalten wir zunächst sichere Reaktionen der Oberflächentemperatur und der Niederschlagsmenge auf eine idealisierte Zunahme der Strahlung. Dann zeigen wir, dass die Einbeziehung interaktiver stratosphärischer Chemie die Erwärmung an der Oberfläche signifikant reduziert (um etwa ein Drittel) und die damit einher gehende Auswirkung auf die Niederschlagsmenge. Dieses Verhalten ist verbunden mit photochemisch induzierten stratosphärischen Ozon-Änderungen sowie deren Modulation der Solarstrahlung an der Oberfläche. Unsere Ergebnisse zeigen, dass es zu einer deutlichen Überschätzung der Reaktion an der Oberfläche auf Änderungen der Solarstrahlung kommt, wenn man die stratosphärische Photochemie außen vor lässt. Dies hat Auswirkungen auf die Simulationen des Klimas während des vorigen Jahrtausends, bei denen die Modelle oftmals das stratosphärische Ozon nur in sehr vereinfachter Form berücksichtigten, was inkonsistent ist mit dem überlagerten solaren Antrieb.

16. Stier, 2016

Wechselwirkungen zwischen Aerosolen und Wolken werden als eine Schlüssel-Unsicherheit angesehen bzgl. unseres Verständnisses des Klimawandels (Boucher et al. 2013). Kenntnisse über die globale Fülle von Wolken-Kondensationskernen (CCN) sind fundamental, um die Stärke der anthropogenen Klima-Störung zu bestimmen. Direkte Messungen sind begrenzt und umfassen nur einen sehr kleinen Teil des Globus‘, so dass Fernerkundung durch Satelliten und Instrumente am Boden ausgiebig verwendet werden als Proxy für Wolken-Kondensationskerne (Nakajima et al., 2001; Andreae, 2009; Clarke and Kapustin, 2010; Boucher et al., 2013). Allerdings können die zugrunde liegenden Hypothesen nicht gründlich getestet werden mit der geringen Anzahl der verfügbaren Messungen. Daher gibt es keine zuverlässige Schätzung der Wolken-Kondensationskerne. Diese Studie überwindet diese Begrenzung mittels eines in sich widerspruchsfreien [self-consistent] globalen Modells (ECHAM-HAM) der Strahlungseigenschaften von Aerosolen und Kondensationskernen. Eine Analyse der Korrelation der simulierten Strahlungseigenschaften von Aerosolen und Kondensationskernen zeigt, dass allgemeine Hypothesen bzgl. deren Beziehungen in einem signifikanten Teil des Globus‘ verletzt werden: 71% der Erdoberfläche zeigt Korrelations-Koeffizienten zwischen CCN0,2% an der Wolkenuntergrenze und einer optischen Dichte der Aerosole (AOD) unter 0,5, d. h. die AOD-Variabilität erklärt nur 25% der CCN-Varianz. Dies hat bedeutende Implikationen für Studien der Wechselwirkungen zwischen Aerosolen und Wolken auf der Grundlage von Satellitenmessungen. Die Ergebnisse zeigen auch, dass vertikal aufgelöste Fernerkundungs-Verfahren wie etwa hoch spektral aufgelöste Lidars großes Potential haben für die Überwachung der globalen Menge von Wolken-Kondensationskernen.

17. Wegmann et al., 2016

Die Erwärmung der Arktis Anfang des 20. Jahrhunderts (ETCAW) zwischen 1920 und 1940 ist ein außerordentliches Ereignis der Klimavariabilität im vorigen Jahrhundert. Die Erwärmungsrate erreichte erst vor kurzem wieder die Größe der damaligen Rate. Anders als die jüngste Erwärmung, die großenteils dem anthropogenen Strahlungsantrieb zugeordnet werden kann, war die Erwärmung während der ETCAW am stärksten in der mittleren Troposphäre. Sie wurde vermutlich ausgelöst durch einen außerordentlichen Fall von natürlicher Klimavariabilität. Nichtsdestotrotz gibt es immer noch Diskussionen über ultimative Wirkungsweisen und Gründe für ETCAW. Hier verwenden wir hypermoderne globale Zirkulationsmodelle, Reanalysen und Rekonstruktions-Datensätze, um die interne atmosphärische Dynamik von ETCAW zu untersuchen. Wir untersuchen die Rolle des mitteltroposphärischen Wärmetransports im borealen Winter sowie die Zirkulation, welche die Energie für die großräumige Erwärmung liefern. Analysiert man sensible Wärmefluss-Komponenten und regionale Unterschiede zeigt sich, dass Klimamodelle nicht in der Lage sind, die Evolution von Wärmeflüssen zu reproduzieren, die man in der Reanalyse und den Rekonstruktions-Datensätzen gefunden hatte. Diese Datensätze zeigen eine Zunahme stationärer Eddy-Wärmeflüsse [?] und eine Abnahme des flüchtigen Eddy-Wärmeflusses während ETCAW. Außerdem zeigt die troposphärische Zirkulations-Analyse die wichtige Rolle sowohl des Atlantischen als auch des Pazifischen Sektors bei der Konvergenz von aus südlichen Breiten stammenden Luftmassen in der Arktis während des Erwärmungs-Ereignisses. Als Folge davon wird vermutet, dass die innere Dynamik der Atmosphäre eine wichtige Rolle bei der Bildung von ETCAW gespielt hat.

18. Kim et al., 2016

Zirruswolken in der tropischen Tropopause (TTL) und Wasserdampf, der in die Stratosphäre transportiert wird, haben bedeutende Auswirkungen auf den globalen Strahlungshaushalt und die Zirkulation. Klimamodelle jedoch weisen große Unsicherheiten auf bei der Repräsentanz von Dehydrierung und der Wolkenprozesse an der TTL. Folglich verhindert deren Rückkopplung mit dem Klima an der Oberfläche eine genaue Projektion der zukünftigen globalen und regionalen Klimaänderungen. Hier verwenden wir beispiellose Luftmessungen über dem Pazifik, um atmosphärische Wellen aufzufinden als starken Modulierer von Eiskristall-Wolken in der TTL. Es wird gezeigt, dass durch Wellen induzierte kalte und/oder abkühlende Bedingungen einen fast allgegenwärtigen Einfluss auf das Vorkommen von Zirruswolken in Höhen zwischen 14 und 18 km haben, außer unmittelbar nachdem die Luft konvektiv entfeuchtet worden ist. Wir zeigen außerdem, dass verschiedene vertikale Mächtigkeiten von Wolkenschichten mit verschiedenen vertikalen Mächtigkeiten von Wellen assoziiert sind. Dies unterstreicht, wie wichtig es ist, TTL-Wellen in den Modellen zu repräsentieren.

19. Dhomse et al., 2016

Es gibt immer noch große Unsicherheiten in den gegenwärtigen beobachteten und meteorologischen Reanalyse-Datensätzen. Daher ist eine genaue Quantifizierung des Einflusses der Variabilität der solaren Einstrahlung auf das Klimasystem weiterhin eine offene wissenschaftliche Frage.

20. Sterl, 2016

Die große Wärmekapazität der Ozeane im Vergleich zur Atmosphäre stellt ein Gedächtnis im Klimasystem zur Verfügung, welches das Potential für fachkundige [skilful] Klima-Prophezeiungen für einige Jahre im Voraus hat. Allerdings haben Experimente bisher lediglich eine begrenzte Vorhersagbarkeit ergeben, nachdem man das deterministische Antriebs-Signal berücksichtigt hatte, welches von zunehmenden Treibhausgas-Emissionen ausgeht. Eines der Probleme ist die Drift, zu der es kommt, wenn sich das Modell von den Initial-Bedingungen entfernt hin zu seinem eigenen Klima. Diese Drift ist oftmals größer als das vorherzusagende dekadische Signal. In dieser Studie beschreiben wir die Drift im Nordatlantik im Erde-Klima-Modell und stellen sie in Beziehung zum Fehlen dekadischer Vorhersagbarkeit in jener Region. Während diese Drift abhängig von der Auflösung sein kann und in höher aufgelösten Modellen verschwindet, identifizieren wir einen zweiten Grund für die geringe Vorhersagbarkeit. Eine Wärmegehalt-Anomalie unter der Oberfläche kann nur dann die Atmosphäre beeinflussen, falls tiefgreifende Konvektion diese an die Oberfläche bringt, aber das Auftreten von Konvektion ist zufällig und möglicherweise hauptsächlich unvorhersagbarem atmosphärischen Rauschen geschuldet.

21. Rugenstein et al., 2016

Die Ozeane dominieren den planetarischen Wärmehaushalt, und sie brauchen Tausende von Jahren, um mit gestörten Oberflächen-Bedingungen ins Gleichgewicht zu kommen, und jene langen Zeiträume sind kaum verstanden. Hier analysieren wir die ozeanische Reaktion auf eine Bandbreite von Antriebs-Niveaus und Zeitrahmen in einem Klimamodell mittlerer Komplexität und in den CMIP5-Modellen. Wir zeigen, dass im Zeitrahmen von Jahrhunderten bis Jahrtausenden Regionen anomaler Wärmespeicherung und globale thermische Expansion nicht linear vom Antriebs-Level und der Oberflächen-Erwärmung abhängen. Als Konsequenz ist es problematisch, eine langzeitliche Wärmeaufnahme aus einer kurzzeitigen Wärmeaufnahme abzuleiten oder die Verteilung der Wärmeaufnahme zwischen den Szenarien. Diese Ergebnisse stellen auch einfache Methoden in Frage, den langzeitlichen Anstieg des Meeresspiegels abzuschätzen aus Oberflächen-Temperaturen und der Verwendung von Tiefsee-Proxys, um Temperaturänderungen an der Oberfläche während Klimaten der Vergangenheit zu repräsentieren.

Link: http://notrickszone.com/2016/06/20/paging-attorneys-general-2016-scientific-consensus-climate-models-arent-working/#sthash.SI6SIlbQ.dpbs

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: De Übersetzung der einzelnen Studienauszüge war schwierig und inhaltlich teilweise unverständlich. Bitte korrigieren, falls Unstimmigkeiten enthalten sind.




Teil 2 des Faktenchecks Vortrag von Prof. Thomas Stocker Vaduz 10.5.16

Teil 2

Die Pause

Nicht nur EIKE Leser wissen, dass die Erwärmung seit langem, beginnend irgendwo zwischen 1995 bis 1998, eine Pause eingelegt hat. Das wissen auch die Kollegen von Stocker und suchen verzweifelt nach Erklärungen dafür. Hier haben wir die ersten 66 davon zusammengetragen. Nur Stocker sieht die Pause nicht und versucht mit spitzfindigen Hinweisen auf Feinheiten der Trendbestimmung den Eindruck zu erwecken, dass es „die Pause „ gar nicht gibt.

Daher hier ein paar Kostproben seiner Einlassungen dazu:

Min 8:35 … es kommt sehr darauf an, wann sie beginnen die  15 Jahre zu berücksichtigen…Min 9:45 von 1998 bis 2012 kriegen Sie einen Trend von 0,05 pro Jahrzehnt … …Min 10:16 …das sollte genügend Hinweis sein, dass man nicht 15 Jahre nehmen darf um einen Klimatrend festzustellen. Min 10:41 nicht nur 2015 war ein Rekordjahr sondern auch 2014 war schon wärmer als alle Jahre zuvor – Anmerkung des Verfassers Widerspruch zu Minute 08:55   ….und zuvor nicht jedes Jahr ist wärmer, nicht jedes Jahrzehnt ist wärmer ….. Min 10:50– ich sage nicht, dass wir den Klimawandel beweisen mit 2015, das geht nicht….. es geht nicht einmal mit nur 15 Jahren. Wie ich zuvor ausgeführt habe… sie müssen die Trends genau ausrechnen aus genügend langen Zeitreihen (11:07)…

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Nun hat niemand von den Skeptikern behauptet, dass 15 Jahre für sich die Bestimmung eines Klimatrends erlaubten, d.i. eine Beachtung wissenschaftlicher Prinzipien, denen sich die Alarmisten um Stocker und Gefährten allerdings nicht verpflichtet fühlen, denn sie  ordnen ungerührt jeden Starkregen, jede Hitzewelle, jeden Sturm oder Tornado, jede Überschwemmung regelmäßig dem „Klimawandel“ á la IPCC zu. Div. Äußerungen zu den jüngsten Regenfällen und Überschwemmungen (Siehe auch Video des Teams von „Klimamanifest von Heiligenroth) dokumentieren das vielfach.  

Doch hier geht es um die „Pause“, also den Stopp weiterer Erwärmung trotz ständig steigenden CO2 Emissionen.  Und alle offiziellen Datenreihen zeigen sie. Mit einer Ausnahme, das ist die jüngste Datenreihe des Goddard Institute for Space Sciences kurz GISS.

Robert Brown  von der DUKE Universität hat sich deshalb die Zeitreihen daraufhin genau angesehen und  Werner Brozek und Walter Dnes haben sie in Auszügen veröffentlicht[11].

Dort finden wir: Zusammenfassung

For UAH[12]: There is no statistically significant warming since May 1993

For RSS: There is no statistically significant warming since October 1993

For Hadsst3: There is no statistically significant warming since July 1996.

For GISS: The warming is significant for all periods above a year.

Interessant dabei: RSS und UAH greifen auf denselben Datensatz zu, in diesem Fall von Satelliten erfasst, wie auch HadCrut[13] und GISS auf den terrestrisch erhobenen Datensatz

Da die Auswertungen von Hadcrut und GISS stark voneinander abweichen, aber nicht beide gleichzeitig richtig sein können, ist es möglich stundenlag darüber zu streiten welche der beiden richtig ist. Das GISS ist seit längerem  dafür bekannt, seine Datenreihen ständig in Richtung Erwärmung zu „adjustieren“[14]. Daher empfiehlt es sich der Vernunft zu folgen und die Satelliten-Werte von RSS und UAH als Schiedsrichter zu verwenden.

Und damit erkennen wir den Beginn der „Pause“ 

irgendwo zwischen 1993 bis 1996 und dauert bis heute

d.h die „Pause“ dauert nun schon zwischen 20 bis 23 Jahre!

Sie beginnt also deutlich vor der Stocker´schen Angabe von 1998

Rückgang der Gletscher

Stocker fährt fort die Auswirkungen des „Klimawandels“ nach IPCC Regeln in den schwärzesten  Tönen zu malen. Zunächst kommt der Rückgang der Gletscher und „Eiskörper“ dran.


Min 12:04
…der große Aletschgletscher, … der sehr stark zurückgegangen ist …Min  12:08 sicher eine Kombination der natürlichen Klimavariabilität und eine erste Reaktion von Eisköpern und Gletschern auf die Erwärmung

 

Abbildung 8 Folie von Stocker der Rückgänge einiger Alpengletscher seit 1880. Er führt sie auf eine Kombination von „natürlicher Klimavariabilität“ und (menschgemachter) Erwärmung zurück

 

Kleine Eiszeit vs. Aletschgletscher

Mehr bringt Stocker zu diesem Thema nicht, kann er sich doch sicher sein, dass in der Alpenrepublik Schweiz und dem eingelagerte Fürstentum Liechtenstein jede Erwähnung des Rückganges der Gletscher  als große Bedrohung empfunden wird.

Er erwähnt auch mit keinem Wort die „kleine Eiszeit“, also die Zeit vor der jüngsten Klimaphase, die in allen vorhandenen Berichten als sehr schlechte Zeit für Mensch und Tier beschrieben wurde und immerhin um die 500 Jahre dauerte. Auf dieses Manko von mir angesprochen weicht er aus und verweist fälschlich auf seine Aussagen zum Aletschgletscher

Doch die Gletscher-Geschichte hat mit der Erwärmung durch den „Klimawandel“ á la Stockers IPCC und anders als dieser behauptet, nichts Erkennbares zu tun.

Der inzwischen emeritierte Glaziologe  der Universität Innsbruck Prof. em. Gernot Patzelt, kommt daher auf eine ganz andere Erklärung. Seinen intensiven Gletscherforschungen nach, ist die momentane Erwärmung nichts Besonderes. So gab es sehr, sehr häufig in den letzten 10.000 Jahren sowohl wesentlich höhere Temperaturen, aber auch steilere Rückgänge als heute,. In mehr als 66 % der Zeit, lag die Sommertemperatur der Alpen z.T. deutlich über der heutigen.

Abbildung 9 Temperaturverlauf (Sommertemperaturen) der Alpen und in Grönland der letzten 10.000 Jahre. Es ist klar erkennbar, dass mehr als 2/3 der Zeit die Temperaturen deutlich höhere Temperaturen zu beobachten waren als heute. Grafik und Daten Gernot Patzelt. Aus Wald- und Gletscherentwicklung  in den Alpen in den letzten 10.000 Jahren, zur 9.IKEK 11.12 Essen

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat

Extremereignisse

Dann wurde vom Vortragenden vom  allgemeinen „Klimawandel“ ins Besondere übergegangen. Doch auch hier nur Schreckensbotschaften.

O-Ton Stocker Min 15:14 Der Klimawandel manifestiert sich nicht nur in der Temperatur (Bild Meerespiegelanstieg) es sind viele Größen, die sich verändern u.a. der Meeresspiegel (Bild der Msp ist seit 1900 um 19 cm angestiegen)

 Abbildung 10: zeigte   die Stocker Folie „nach verschiedenen unabhängigen Daten“ des Meerespiegelanstiegs von  1900 bis 2012 

Und….Min 15:40 Meereisbedeckung hat sich verändert (Bild Arktis) …und so gibt es viele Messungen …viel Größen im (16:15) Klimasystem  dann folgt (Min 16:17 ohne weitere Erklärung)… aus dem Synthesereport

… sie zeigt die Ursache des Klimawandels

Abbildung 11: zeigt die Ursachen  des Klimawandels  „nach genauen Messungen“ von  1850 bis 2013

…dann folgen Zahlen über den Anstieg.. (Tonstörung) von CO2, CH4 etc. Min 18:10 Bild: Die mensch-verursachten Emissionen sind die höchsten der Geschichte

(Anmerkung erst seit 1956 werden sie hinreichend genau gemessen, davor nur sehr ungenaue Messungen aus Eisbohrkernen)

…Der (globale) Meeresspiegel steigt…

Schauen wir uns zunächst den (globalen) Meeresspiegel an.  Zunächst einmal sollten wir fragen, ob es den denn gibt? Jeder weiß, oder glaubt zu wissen, dass es ihn gibt. Aber gibt es den globalen Meeresspiegel überhaupt? Und was macht die Erwärmung für seinen Anstieg aus? Weiß doch jeder, dass sich Wasser bei Erwärmung ausdehnt.

…durch Erwärmung…

Zunächst sollte man sich die Frage stellen: Kann eine äußerst geringe – und nur um die handelt es sich hier – und auch nur vermutete- Erwärmung der Luft, um 0,8 bis 1,0 C die Riesenwassermenge der Ozeane wirklich so schnell erwärmen? Wer das einfach so glaubt, möge bitte nur ein paar überschlägige Berechnungen mit Wissen aus der frühen Oberstufe vornehmen.

…gerade einmal um 3cm –pro Jahrhundert!

Hierzu ein Beispiel:

Erwärmt[15] sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm. d.h. die wenn sich die gesamte Erwärmung des letzten Jahrhunderts auf das Meerwasser übertragen hätte, wäre das gerade mal um 3 cm, zwar mit großer Verzögerung, aber insgesamt gestiegen. Mehr geht nicht. Doch auch diese Annahme ist unrealistisch denn…

…Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser die Nähe von 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt.

Und was liefern die Gletscher?

Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. es gäbe einen Anstieg um ca. 10 cm in einem Jahrhundert.

Nur, die weitaus größte Eismenge von über 90 % ist in der Antarktis gebunden. Doch die Antarktis denkt nicht daran zu schmelzen, was sie früher, als es dort deutlich wärmer war als heute – besser gesagt : deutlich weniger kalt als heute- auch nicht tat. Wie eine neue Studie herausfand[16] war die Antarktis häufiger in den letzten 8000 Jahren wärmer als heute. Ganz ohne anthropogenes CO2.

Nur in Grönland, das weitere 9 % der Eismasse beherbergt, tauen die Ränder. Die von Stocker als Beispiel gezeigte schmelzende Arktis taugt hingegen nicht dazu, denn es handelt sich um Meereis, dessen Schmelzen keinen Einfluss auf den Meeresspiegel hat.

Und dass das Schmelzen der Alpengletscher oder anderswo einen messbaren Einfluss auf den Meeresspiegel hat, glaubt Stocker sicher selber nicht.

Globaler Meeresspiegel

Und damit sind wir wieder bei der Frage gibt es ihn, oder gibt es ihn nicht. Man braucht ja nur an die Küste fahren, auf endlose Meer blicken, sich an die Schulphysik, mit der Sache von den kommunizierenden Röhren erinnern und schon ist klar, dass es

a) einen globalen Meeresspiegel gibt und

b) dass dieser – glaubt man Stocker und dem Rest des IPCC- steigt durch die globale Erwärmung.

Doch an diesen beiden Aussagen ist fast alles falsch. Es gibt den globalen Meeresspiegel ebenso wenig wie die globale Mitteltemperatur, sondern viele verschiedene Meeresspiegel, die an manchen Standorten[17] an der Küste seit vielen Jahrzehnten eher weniger als mehr genau – per Pegelmessung- gemessen werden. Und alle sind verschieden und verhalten sich auch sehr verschieden. Insgesamt definiert die Forschung ca. 15 Einflussgrößen, welche auf den Meeresspiegel wirken. Die thermische und der Zufluss von Gletscherwasser gehören zu den kleinsten.

Die lokalen Pegelstände werden – zwar nicht vollständig- seit 1933 in der PSMSL Datenbank erfasst und stehen dort der Forschung zu Verfügung Die dort abrufbaren  lokalen Pegelmessungen können allerdings nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen. Das ist mindestens so schwierig wie die Temperaturbestimmung. Manche meinen, es sei noch schwieriger, weil die Datenbasis noch viel dünner ist und es keinen absoluten Bezugspunkt gibt.

Abbildung 12:Anstieg des globalen Meeresspiegels seit dem Ende der Eiszeit. Deutlich zu erkennen, dass dieser seit ca 9.000 Jahren nur noch moderat und seit ca. 6000 Jahren sehr moderat ansteigt. (Weitere Details dazu u.a. hier ) Einen wunderbaren Überblick über den gegenwärtigen Stand der Meerespiegelforschung hatte zuletzt EIKE Autor Kuntz[18] zusammengetragen. Er untersuchte viele Forschungsergebnisse, welche die letzen 10.000 Jahre (Holozän) abdecken

Sein Fazit lässt an Deutlichkeit nicht zu wünschen übrig:

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbar, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezweifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Wer nun richtig liegt, Stocker oder der kritische Ingenieur Kuntz, mag sich der Leser aussuchen. Es bleibt die Frage, wie Stocker und Kollegen auf ihre spektakuläre Aussage vom gefährlich ansteigenden Meeresspiegel kommen? Dies ist nicht recht ersichtlich, dient aber dem Alarmismus.

Fazit:

Die Ausführungen von Stocker sind zwar IPCC konform, in der Sache aber völlig unbestimmbar und daher spekulativ übertrieben. Ihre Zuordnung zur Ursache ist daher rein alarmistisch und durch nichts begründbar

Hitzewellen und Starkniederschläge

Im Vortrag (etwa um Minute 30) und später zu meinem Kommentar (ca. Minute 49:00) äußerte sich Stocker auch zur Zunahme der Extremereignisse, namentlich von „Hitzewellen und Starkniederschlägen,  die als einzige dem Klimawandel zugeordnet werden können“.

Trotz Widerspruchs beharrte Stocker auf dieser Behauptung. Ich bat ihn daher in einer Mail zur Klärung der Fakten diese zu belegen. Diese Klärung erfolgte leider nicht.

Warum?

Weil  40 Jahre Klimawandel à la IPCC diese Erhöhung der Extremwetter bisher nicht erkennen lassen. Im Gegenteil, viele Extrem-Wetterphänomene wurden weniger und manche sogar schwächer. Im den IPCC Bericht zu „Extremereignissen“ zu lesen wir dazu:

Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “No robust trends in annual numbers…“

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends….”

Über außer-tropischeZyklone[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:  “In summary, confidence in large scale changes in the intensity of extreme extra tropical cyclones is low …“

Über Dürren [IPCC 2013, AR5, WGI, Technical Summery,

Seite 50]:”There is low confidence in a global-scale observed trend in drought or dryness …“.[IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present…“

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence …“

Über Hagel und Gewitter (Starkniederschläge)_ [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale ..“

Zusammenfassung des_[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]:

“There is limited evidence of changes in extremes  associated with other climate variables since the mid-20th century.”

Fazit:

Extremwetterzunahmen im jüngeren Klimazeitraum sind von den Wetterdiensten nicht auffindbar.

Zur kleinen Eiszeit bzw. der Rückerwärmung danach

Als ich dann in der Diskussionsrunde erwähnte, dass er die kleine Eiszeit in seinem Vortrag und die (u.E.n. völlig natürliche) Rückerwärmung danach nicht erwähnte, korrigierte Stocker mich und verwies auf Ihre Ausführungen zum Aletsch-Gletscher. Doch auch da erwähnten er die kleine Eiszeit mit keinem Wort – er stellte nur fest, dass der Rückzug des Aletsch „..sicher eine Kombination der natürlichen Klimavariabilität …und der ersten Reaktion von Gletschern und Eiskörpern auf die Erwärmung, die stattgefunden hat…..ist“.

Wieder zeigten er allein Klima-Phänomene, aber lieferte keinerlei Beleg für seine „wirkliche Realität“, (O-Ton Stocker) dass das CO2 ursächlich daran schuld sei. 

Zum Carbon Budget

Mit dem Aufzeigen des sog. Carbonbudget kam Stocker zum eigentlichen Ziel seines Vortrages. Nach den Schrecken des Klimawandels – ausgelöst durch das anthropogene CO2- und umgerechnet auf die seiner Meinung gerade noch zulässige Erzeugung desselben (wenn man das 2 ° Ziel noch halten will), forderte er dann die vollständige  

Dekarbonisierung der Wirtschaft.

Dazu zeigte er eine Folie mit der er das sog.  Carbonbudget einführte. Sie zeigt dessen Veränderung seit Beginn der Industrialisierung (was immer das heißen mag), sowie das, was nach Meinung „der Wissenschaft“ noch zulässig emittierbar wäre.  Ausdrücklich deklarierte Stocker das dort Gezeigte mit viel Nachdruck als „wissenschaftlich“ und damit als unabweisbar und wahr.

Abbildung 13:Bereits verbrauchtes  und noch zulässiges „Budget“ an Kohlenstoff Äquivalent  nach Stocker

Dann berichteten er kurz über die Idee des Budgets an Emissionen -je nach zulässiger Erhöhung um 2°, 3° oder gar 4,7 °- CO2. Doch wie er zu dieser Budget-Berechnung überhaupt gekommen waren (ab Min 32:25), erklärte er – auch auf Mail-Nachfrage- nicht.

Seine Konsequenz ist, dass für das 2° Ziel noch 195 Mio t Cequiv (Anmerkung: Ceqiv ist die Menge an Kohlenstoff C die im CO2 gebunden ist, sowie die aus anderen Treibhausgasen umfguerechnete CO2 Menge, bzw. deren Ceqiv) an Emissionen zur Verfügung stünden, dann wäre das „Budget“ von 790 Mio t Cequiv erreicht. 

Abgesehen von der nicht unwichtigen Frage, warum er dem Publikum den erheblichen Unterschied zwischen Emissionen und atmosphärischer CO­2 Konzentration und die Tatsache, das es einen um knapp zwei Potenzen größeren natürlichen CO2-Kreislauf gibt, nicht einmal im Ansatz zu erklären versuchte, bleibt auch offen, was ihn zu dieser Behauptung gebracht hat.

Ich vermute, dass er sich zur Berechnung des Budget im Wesentlichen der (Equilibrium) Climate Sensitivity (CS oder ECS) bediente. Die gibt an, um wieviel die Temperatur rechnerisch bei Verdopplung der Treibhausgaskonzentration ansteigt. Das Problem mit diesem rein hypothetischer Rechenwert  ist jedoch, dass er als Wert sich -bisher jedenfalls – jeder genauen Bestimmung entzogen hat. Das mussten auch seine Kollegen einsehen, welche die Summary für Policymakers  (SPM) schrieben bzw . redigierten, denn dort steht– wenn auch in einer Fußnote versteckt – auf S.16:

No best estimate for equlibrium climate sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies“.

Doch in seinem Vortrag ignorierte Stocker nicht nur dieses IPCC Eingeständnis, er beschäftigte sich nicht einmal mit dieser wichtigen Frage,  sondern stellte einfach die o.a. Behauptungen in den Raum.

Wir wollten versuchen dem Geheimnis auf die Spur zu kommen und baten Stocker um Aufklärung. Doch die kam nicht. Daher können wir nur vermuten, dass er mit großer Wahrscheinlichkeit den politisch „offiziellen“ IPCC Wert von 3 °C für seine Berechnungen einsetzte. Anders kommen die von ihm genannten Zahlen auch nicht zustande.

Also per THG Verdopplung ergibt sich eine Temperaturerhöhung von 3 °C.  

Thomas Stocker müsste jedoch wissen – und weiß es sicher auch – dass ein ECS mit 3 °C nach heutigem Wissen völlig unhaltbar ist, weil sich gerade in jüngster Zeit die Studien häufen, welche diesen Wert auf unter 1 °C verorten, manche gehen sogar bis auf 0,45 °C ± 30 % und noch weiter herunter.

Wendet man diese Werte an, dann erledigt sich das „Problem Klimaerwärmung“ von selbst. Auch deswegen, weil selbst bei Verwendung des sog. Berner Modells zur Berechnung der CO2 Konzentration aus den Emissionen, (ein Modell, welches erlauben soll, die Zunahme der CO2 Konzentration aus den anthropogenen Emissionen zu bestimmen – an dessen Definition Stocker vielleicht sogar beteiligt war- mit 3 verschiedenen Halbwertzeiten für den „Zerfall“ des CO2 in der Atmosphäre,) die Berechnungen zeigen, dass, selbst wenn man ein exponentielles Wirtschafts-Wachstum für die nächsten acht Jahrzehnte annimmt und man dafür jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würde,  der CO2-Gehalt immer noch nicht doppelt so hoch wäre wie heute.[19]

Auch die 600 ppm Marke, also eine Verdopplung gegenüber dem -auch nur vermuteten- vorindustriellen Wert, würde schwerlich erreicht werden. All diese wichtigen Ergänzungen fehlten leider in Stockers Vortrag.

Und last but not least ließ er auch die – im Gegensatz zur Klimahypothese- eindeutig belegte positive Wirkung des CO2 Anstiegs auf den Pflanzenwuchs und damit auf die Welternährung völlig unberücksichtigt. 

Angeblich fehlende Mitwirkung Skeptiker

Am Ende seiner Ausführungen sagte Stocker die folgenden Sätze

Min 50:45 ..Sie haben 3 x Gelegenheit gehabt unseren Bericht zu begutachten. Drei mal!… wir haben insgesamt 54.677 Kommentare erhalten,  …wir haben auf jeden Kommentar schriftlich reagiert…im Internet verfügbar…Ich hatte eigentlich gehofft als Vorsitzender der Arbeitsgruppe 1, als ich das Amt übernommen hatte..in einer turbulenten Zeit wie Sie sich erinnern können, dass ich sehr viele intelligente Kommentare von Klimaskeptikern kriege, die wir dann Punkt für Punkt adressieren können….leider hat es sich dann herausgestellt, dass niemand von diesen Leuten, die in den Blogs(?) sehr aktiv waren, bei uns beigetragen haben. Tut mir Leid! Wir konnten auf diese Expertise nicht zurückgreifen. (Zwischenruf Limburg) Das stimmt nicht

Und es stimmt auch nicht. Bspw. hat Dr. Vincent Gray aus Neuseeland überschlägig ca. 800 Kommentare eingereicht, ebenso reichten, um nur einige weitere zu nennen, Prof Singer und Lord Monckton viele tlw. umfangreiche Kommentare ein, aber erhielten nie eine Antwort.

Auf meine spätere Nachfrage räumte Stocker dies auch ein, hielt es aber nicht für angebracht sich für seine öffentliche Falschinformation zu entschuldigen. Er  sandte mir aber eine pdf Datei mit allen Kommentaren von V. Gray und deren Behandlung seitens seiner  Arbeitsgruppe. Nach erster Sichtung wurden die allermeisten Kommentare „rejected“.

Ob dies aus objektiven oder subjektiven Gründen geschah, ist für diese Thematik eigentlich jetzt nicht relevant. Denn Tatsache bleibt, dass entgegen seiner klaren Ansage vor dem LIFE Auditorium, die „Klimaskeptiker“ hätten „trotz dreimaliger Gelegenheit“ zu diesen 54.677 Kommentaren nichts dazu mit „ihrer Expertise“ beigetragen, falsch ist. Und, da er es besser wusste, sogar vorsätzlich falsch.  Auch die umfangreichen Kommentare von S.F. Singer und Ch Monckton räumte Stocker nachträglich ein, verwies jedoch nur auf die IPCC Website um sie zu finden. Das ist uns bis heute nicht gelungen.

Fazit:

Ab Min 42:20, wies Stocker auf die so wichtige Glaubwürdigkeit hin

  „Das Grundlegende was wir in dieser komplexen Situation tun können ist unsere Glaubwürdigkeit pflegen…damit die Entscheidungsträger nicht auf irgendwelchen Halbwahrheiten oder Partikular Interessen entscheiden müssen sondern auf den Fakten die die Wissenschaft zur Verfügung stellt.“

Prof. Thomas Stocker hat also seine Aussagen bei klarem Bewusstsein, klarer einfacher Sprache, ohne jeden Zweifel und im Brustton des ehrlichen Wissenschaftlers vorgetragen.

Und er hat damit die Zuhörer überzeugt.

Nach seinen Worten gibt es keinen Zweifel, dass der „Klimawandel“ menschgemacht ist und fürchterlich für diesen Planeten wird, wenn wir nicht durch „Dekarbonisierung“ massiv und unverzüglich  gegensteuern.

Als Ergebnis dieses Gegensteuerns mittels Dekarbonisierung schildert er -wieder ohne jeden Zweifel- als zukünftiges Paradies, mit einer Energieversorgung aus „Erneuerbaren“!

Die Fragwürdigkeit von Stockers Behauptungen und „Beweisen“.

Auf den vorigen vielen Seiten – kürzer ging leider mal wieder nicht, wofür ich mich entschuldige- habe ich versucht die ganze Fragwürdigkeit, der mir am wichtigsten erscheinenden Behauptungen und Beweisführungen Stockers aufzuzeigen.  Nun dürfte das alles auch Stocker gut bekannt sein, aber wenn er trotzdem so berichtet wie er berichtet, dann kommt es ihm allein auf die Wirkung der Botschaft an sich an. Und damit verlässt er die Position des neutralen und ehrlichen Wissenschaftlers – obwohl er sie immer und immer wieder für sich beansprucht- und wird zum Aktivisten mit eigener Agenda. Er wäre in der Riege der bekannten alarmistischen Klimaforscher bei weitem nicht der einzige. Was die Sache nur schlechter und nicht besser macht.

In Würdigung dessen, drängt sich mir deshalb als sachkundigem Chronisten der Verdacht auf, dass Thomas Stocker ein würdiger Schüler des bereits verstorbenen Klimaforschers und (ebenfalls)– Aktivisten Stephen Schneider ist, der, seinerzeit Leitautor des IPCC seine Kollegen eindringlich zu folgendem Verhalten in der Öffentlichkeit ermahnte:  

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

An dramatischen Statements fehlt es in Stockers Vortrag nicht, ebenso erlaubte er sich und dem Publikum keinerlei Zweifel am Gesagten.

Daher bleibt Ihnen liebe Leser überlassen, zu entscheiden, ob Thomas Stocker eher ehrlich oder effektiv war.

Teil 1 finden Sie hier


[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten 

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

 URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden * – Ein Faktencheck

**Anmerkung I: Stocker verwendet den Begriff „Klimawandel“,ohne jede Erklärung, durchgehend als „vom Menschen gemacht“ bedeutend. Natürlicher Klimawandel heißt bei ihm „Klimavariation“.  Im Faktencheck folge ich dem nicht, sondern dem allgemein wissenschaftlichen Sprachgebrauch und unterscheide nur zwischen natürlichem und menschgemachtem Klimawandel.

Prof. Thomas Stocker wirft anderen Kollegen oder  Organisationen, die sich auf diese Kollegen beziehen, gelegentlich schon einmal Unkenntnis oder Verbreitung von Falschinformationen vor, wie z.B. bei seinem jüngsten Vortrag am 10.Mai 2016 in Vaduz oder in einem Interview der Schweizer Sonntagszeitung der SVP vom 12.6.16. In Vaduz behauptete er wenig Richtiges, vieles Zweifelhafte und diverses Falsches, darunter, dass die „Klimaskeptiker“ dem IPCC Team vor Veröffentlichung des letzten Berichtes nichts von ihren Bedenken oder anders lautenden Ergebnissen mitgeteilt hätten, der Diskussion also ausgewichen seien. Bei anderer Gelegenheit warf er der Schweizer Volkspartei (SVP) pauschal vor „wider besseres Wissen Falschinformationen“ zu verbreiten. Sich selbst aber bescheinigt er ..die Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft… zu tragen. Der folgende Faktencheck in zwei Teilen zeigt, wie wenig von Stocker Behauptungen stimmen.

Anmerkung II:

Es empfiehlt sich für den interessierten Leser zunächst einmal das Ton-Video mit allen Folien Stockers in Ruhe anzuhören bzw. –schauen. Und dann erst in den Faktencheck einzusteigen. Zur besseren Unterscheidung sind alle Äußerungen Stockers in Kursiv gesetzt, die Kommentare in Normal

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Es ist mir ein Anliegen, dass Informationen der Wissenschaft korrekt und unverfälscht an die Gesellschaft getragen werden[1]

Prof. Dr. Thomas Stocker, Leiter der Abteilung für Klima- und Umweltphysik des Physikalischen Instituts der Universität Bern und bis Ende 2015 vor kurzem Leiter der Arbeitsgruppe I (Die wissenschaftlichen Grundlagen) des IPCC, referierte am 10.5.16 auf Einladung der dortigen LIFE Klimastiftung in Vaduz über den Klimawandel und die Notwendigkeit diesen durch „Dekarbonisierung“ der gesamten Wirtschaft zu stoppen. Im Laufe seines Vortrages (hier) stellte Stocker viele Behauptungen über klimatische und zukünftige Veränderungen auf, sowie über deren Ursachen. Z.B ab Min 5:32 „der Einfluss des Menschen auf das Klimasystem ist klar“

Wie auch in den bisher 5 IPCC Berichten lieferte er jedoch keinerlei Beweise für  seine Behauptung dass

. „der Einfluss des Menschen auf das Klimasystem (ist) klar“ sei…

noch darüber, dass die Treibhausgase (Minute 18:10, siehe auch Abbildung 10) die ihnen unterstellte Wirkung wirklich hätten.

Stocker sprach zwar vielfach – insbesondere am Ende seines Vortrages- von „Evidenzen“ also Beweisen, nannte und lieferte aber merkwürdigerweise keine einzige dieser „Evidenzen“.  Solche Evidenzen wären z:b. begutachtete Fachpublikationen, die es jedoch mit der von Stocker behaupteten  klaren Aussage nicht gibt. Als Kläger oder Staatsanwalt, wäre er vor jedem Gericht damit durchgefallen. Denn jeder auch nur halbwegs fähige Verteidiger, aber auch jeder Richter, hätte seine Argumente als ungenügende Indizien gewertet und den Beschuldigten mindestens mangels Beweisen freigesprochen.

Klimaphänomene statt Beweisen

Stattdessen beschrieb Stocker detailliert verschiedene Klimaphänomene, wie den Anstieg der globalen Mitteltemperatur, den Rückgang von Gletschern (u.a. am Beispiel des Aletschgletschers) den Anstieg des Meeresspiegels, die behauptete Zunahme von Extremereignissen wie Hitzewellen und Starkniederschlägen, und ordnete diese Klimaphänomene ausnahmslos und nur aus Gründen einer nicht mal engen, Korrelation, dem Ausstoß von Treibhausgasen zu.

Folgte man Stocker und -bis auf wenige Ausnahmen- taten dies die etwa 100 Teilnehmer, dann hat es vor dem Beginn  seiner Betrachtung der Klimaphänomene (die meisten seiner Zeitreihen begannen um 1880) keinerlei „Klimawandel“ gegeben, und noch klarer: All die gezeigtenVeränderungen gingen – so Stocker – würden hauptsächlich auf den menschlichen Einfluss zurückgehen. Damit folgte er zwar der klimawissenschaftlich unhaltbaren Definition des United Nations Framework Convention on Climate Change (UNFCC) ohne diese fragwürdige Definitionsübernahme seinem Publikum auch nur im Ansatz zu erläutern. Das breite Publikum versteht aber immer noch und völlig zu Recht unter dem Begriff „Klimawandel“ eben den Wandel des Klimas. Daraus erklärt sich auch der irreführende Vorwurf vieler Klima-Alarmisten an die „Klima-Skeptiker“ diese würden bestreiten dass es einen Klimawandel überhaupt gäbe.

Klimavariabilität vs Klimawandel

Um evtl. späterer Kritik vorzubeugen und ohne den gewollten Eindruck im mindesten abzuschwächen, erwähnte Stocker zwar gelegentlich eine „natürliche Klimavariabilität“ sprach aber zwischendurch konsequent ausschließlich vom Klimawandel. Und ließ keinen Zweifel,

der würde für die Welt riskant sein, weil er fatale Konsequenzen habe

und

und der Mensch sei daran schuld

und

die Rettung sei einzig und allein die völlige Dekarbonisierung der Weltwirtschaft

Damit erwies er sich einmal mehr als treuer Aktivist für die IPCC Doktrin in der genau dieses Mantra (# 1 und # 2, Pariser Accord  2015 für # 3) die politische Vorgabe[2] für die gesamte Arbeit dieses politischen Gremiums ist. Seine Treue zum Auftraggeber darf auch nicht verwundern, denn immerhin arbeitet Stocker schon seit 1998 im IPCC tonangebend mit. Mit neutraler unabhängiger Wissenschaft hat diese rein politische Ausrichtung einer unbewiesenen Ergebnisvorwegnahme jedoch nichts zu tun. sondern ausschließlich mit Aktivismus, also eher mit dem Missbrauch von Wissenschaft.

Wegen der vielen Ungereimtheiten, Widersprüchlichkeiten und Halbwahrheiten, bis hin zu kompletten Falschaussagen, die Stocker unter Nutzung des Vertrauensbonus gegenüber einem renommierten Wissenschaftler ungerührt aussprach, ist es erforderlich, die wichtigsten seiner Aussagen einem Faktencheck zu unterziehen. Dieser erfolgzt doppelt, einmal in Form eines Videos, welches das Team vom Klimamanifest von Heiligenroth erarbeitete  (Sie finden es  ganz unten bzw. hier) und zum Zweiten in Form des vorliegenden Textes, der den Behauptungen Stockers Widerlegung bzw. Relativierung entgegenstellt.

„Nun, Mittelwerte aus einer zeitlich und räumlich variablen Grösse zu berechnen ist wirklich elementar[3].“

Fast alle Zeitreihen die Stocker für die verschiedensten Klimaphänomene zeigte, begannen um 1880 manchmal auch erst um 1900. Alles was davor war, existierte für Stocker nicht. Dabei sind die oft für Mensch und Tier einschneidenden klimatischen Veränderungen fast für das gesamte Holozän –also die letzten 10.000 Jahre-, sicher aber für die Geschichte der letzten 2000 Jahre bis in die Neuzeit hinein recht gut erforscht und dokumentiert. Dies zwar erst in jüngerer Zeit durch Erfassung und Übermittlung direkter instrumenteller Messungen, aber für die Zeit davor, durch Proxydaten – also Stellvertreterdaten- wie aus Sedimenten, Baumringen, Stalagmiten, Eisbohrkernen und weiteren Belegen wie z.B. Auffinden vom Baumresten in alpinen Hochlagen, in denen heute keine Bäume mehr wachsen, bis hin zu Klimainformationen gewonnen aus Kirchenbüchern.  Die so erschlossene Klimageschichte zeigt, dass frühere klimatischen Schwankungen häufig rascher und stärker waren, als wir sie aus den letzten 150 Jahren kennen. Diese wissenschaftlichen und oft veröffentlichten Fakten passen aber nicht in Stockers Strategie, die sich zum Ziel setzt ohne Zweifel festzulegen, dass der Mensch am Klimawandel nach der industriellen Revolution allein verantwortlich sei. Selbstredend wurden die zuvor erwähnten, den Menschen entlastenden Daten in Stockers Vortrag einfach übergangen.

Einschub: Zitat Klimaforschers und -Aktivisten Stephen Schneider, seinerzeit Leitautor des IPCC:

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

Und noch etwas fiel auf:

So gut wie keine der vielen Graphen die Stocker zeigte Fehler/Unsicherheitsmargen oder Fehlerbalken[4]. Obwohl die fast immer groß bis sehr groß sind. Und ebenso wenig informierte Stocker sein Publikum über die häufig viel zu geringe Anzahl und oft sehr mangelhafte Qualität der Daten, die zur Berechnung der verschiedenen Klimagrößen verwendet werden mussten, auch nicht ihre offensichtlich höchst ungleiche regionale Verteilung auf dem Globus.  Stattdessen beeindruckte er das Publikum mit großen Zahlen – sprach von „Millionen von Daten“ nannte diese „genügend und qualitativ hochstehend“ und dass sie erlaubten „statistisch robuste“ Aussagen (Min 13:50) zu machen.

Doch die Daten früherer Zeiten – etwa vor 1950- sind weder robust, noch zahlreich, noch gleichmäßig verteilt, sondern oft qualitativ schwach bis mangelhaft und nur für wenige Orte  verfügbar,.  Weil sich das auch nicht mehr ändern lässt, ist die verlässliche Rekonstruktion verlässlicher Zeitreihen mit möglichst geringen aber glaubwürdigen Unsicherheitsbändern alles andere als „elementar“. Im Gegenteil, es ist ganz hohe Schule unter sehr gekonnter Anwendung erprobter statistischer Messtechnik und ausgefeilter Methodik. Normale Ingenieure und Naturwissenschaftler wissen das und handeln seit jeher danach.  Offenbar aber nicht Klimatologen wie Herr Prof. Stocker und eine Reihe von IPCC Kollegen. Die wissen das nicht -und wenn doch- kümmern sich offensichtlich nicht darum.

Zwischen-Fazit:

Wenig vom Gesagten in Stockers Vortrag stimmte sachlich, oder ließ sich überhaupt belegen, wie er es behauptete, jedenfalls dann nicht, wenn man sich die Daten vor 1950 anschaut, für manche Größen gilt das sogar schon vor 1979 (dem Jahr ersten  Temperaturbestimmungen durch Satelliten) oder noch später – wenn man sich z.B. die Daten und deren Qualität für die Bestimmung „des Meeresspiegels“ ansieht. Und noch viel weniger stimmte dass, was Stocker verkündete, wenn man die Zeiten vor 1880 mit einbezieht. Wenn man jedoch die Klimavergangenheit nicht wirklich kennt, dass ist es irreführend, wenn man dann den Eindruck erweckt man könne darauf aufbauend die Zukunft projizieren. Ein Umstand der z.B. bei der Bestimmung der absoluten Mitteltemperatur der Erdatmosphäre deutlich wird, die noch vor wenigen Jahren mit 15°C festgestellt wurde und nun – ohne weitere Erklärung auf 14,76 °C abgesenkt wurde. Im Video des Klimamanifestes von Heiligenroth (hier) wird auf diese sponate „Abkühlung“ besonders eingegangen. Stocker vermied die Erwähnung dieser wichtigen Kenngröße gleich ganz.

Ob diese offensichtliche Irreführung des Publikums auf mangelndes Wissen des Herrn Stocker zurückzuführen ist, der ja die präzise und aussagefähige Berechnung dieser Größen als elementar ansieht, oder ob es schlichter Glauben an seine und die Fähigkeiten seiner Kollegen ist, spielt eigentlich keine Rolle. Falsch, tlw. grob falsch oder einseitig übertrieben sind viele dieser Aussagen auf jeden Fall. Das wollen wir an mehreren Beispielen zeigen.

Globale Mitteltemperatur

Beispiele:

Ab Min  7:56 und folgend werden mehrfach Zeitreihen der globalen Mitteltemperatur gezeigt und erläutert. So die (Neuere) Zeitreihe für die Nordhemisphäre und Südhemisphäre ab 1880 Min  8:15 O-Ton „Sie sehen hier die globalen Temperatur Messungen basierend auf Millionen von Temperaturdaten seit 1880..

Abbildung 1 . Zeitreihen der globalen Mitteltemperatur nach Stocker aufgeteilt in die Nord (rot)- und Südhemisphäre.(blau)

..Min 8:55 Sie sehen ganz klar einen Anstieg, wir können diesen Anstieg quantifizieren…..Im IPCC Bericht hatten wir die Zahl von 0,855 ° C Erwärmung von 1900  bis 2011 drin..

13:09 Das ist ein weiteres Bild.. ….der Klimawandel kann nicht festgemacht werden an einer globalen gemittelten Temperatur,  die niemand als solche erlebt, die ein mathematisches aber sehr nützliches Konstrukt ist, sondern Sie müssen auch Karten anschauen, wo dies möglich ist.

Abbildung 2 Darstellung der Temperaturzunahme  von 1901 bis 2012 geographisch verteilt… Stocker zeigt die Erwärmung „statistisch robust“ von 1901 bis 2012

Min 13:40 das ist die Karte die wir den politischen Entscheidungsträgern vorgelegt haben,.. sie zeigt die Temperaturtrends von 1901 bis 2012 in denjenigen Orten der Welt wo wir (13: 50) genügend qualitativ hochstehende Messungen haben.. …Min13:58 Die Welt ist nicht ganz farbig sie ist auch nicht ganz weiß, im Gegenteil wir können in den meisten Gebieten – die wichtig sind, wenn es um die Diskussion des Klimawandels geht, den Trend angeben  und (14:08) wir können diesen Trend robust angeben,…statistische Robustheit ist hier indiziert durch Kreuze (nicht erkennbar) ..14:18 mit Ausnahme des Nordatlantischen Ozeans, wo sie eine Abkühlung haben, haben sie überall eine statistisch signifikante Erwärmung  …. wir haben aber auch Regionen – dass muss man deutlich sagen, wo wir zu wenig Daten haben. (Anmerkung: Untertreibung des Jahres) um über die lange Periode von über 100 Jahren eine verlässliche Aussage zu machen..Trotzdem … 14:46 „Die Erwärmung des Klimasystems ist eindeutig“

Soweit einige der klaren Aussagen des Vortragenden Prof. Dr. Stocker

Was ist daran auszusetzen?

Nun, zunächst ist festzustellen, dass nur die Aussage ..von den Millionen Klimadaten“ zweifelsfrei feststeht und damit korrekt ist. Doch diese Aussage, allein dafür gedacht das Publikum gehörig zu beeindrucken, sagt für sich genommen überhaupt nichts aus. Jeder erinnert sich vielleicht an den etwas unfeinen Satz „..Millionen Fliegen können nicht irren“ .. tun es dann aber – wenn auch nur aus menschlicher Sicht- doch.

Nehmen wir ein Beispiel aus den Temperaturaufzeichnungen. Jede Wetterstation in den USA und den englisch dominierten Teilen der Welt wird 2 x täglich abgelesen (Max- und Min Temperatur). Daraus wir dann der Mittelwert gebildet. Ohne Mittelwertbildung erzeugt also jede Station pro Jahr 365 x 2 = 700 Messwerte. Nehmen wir 1850 als Beginn, so sind das bis z.B. 2010 160 Jahre. D,h von jeder Station dieser Art und Messdauer liegen  160 x 700 = 112.000 Daten vor. Bei nur 9 Stationen weltweit hätten wir die Million schon leicht überschritten. In Europa, das auf eine noch längere Messtradition als die USA zurückblickt kann, hat man überwiegend 4 Messwerte pro Tag abgelesen. Da genügten also schon weniger als 5 Stationen um über 160 Jahre die Million zu erreichen. D.h. insgesamt weniger als 15 Stationen liefern schon mehr als 2 Mio Messwerte. Es gibt aber viel mehr Wetterstationen, inzwischen über 7000. Doch reichen sie aus?

..doch es kommt noch schlimmer.

Da wir uns ja mit dem „Weltklima“ beschäftigen, dass es übrigens aus naturgesetzlichen Gründen ebenso wenig geben kann, wie eine Welttemperatur (es gibt nur Klimazonen von tropisch bis polar),  sollten wir auch Daten über allen Teilen der Welt verfügen. Und die über möglichst lange Zeiträume mit kontinuierlicher Messung. Dazu noch regional gleichmäßig verteilt. Aber an allem  hapert es gewaltig. Und lässt sich auch nicht mehr ändern. Vergangen ist vergangen! Die Welt ist mit 510 Mio km^2 Fläche riesig, und dazu noch zu 71% von Wasser bedeckt. Es nützt ja wenig bis nichts, wenn die Messstationen nur auf ein oder zwei Gebiete dieser  Welt konzentriert sind. Und es nützt auch wenig, wenn die Stationen intermittierend oder nur kurz ihre Arbeit verrichteten.  Aber genau so ist die Realität.

A

Abbildung 3 Das Video zeigt die Entwicklung der Zahl und der Verteilung der Wetterstationen, die zur Bestimmung der globalen Mitteltemperatur herangezogen wurden( Quelle climateaudit station di#200ADF1). Deutlich ist deren geringe Anzahl –besonders in den Jahren vor 1950- zu erkennen, ebenso wie ihre starke Konzentration auf faktisch nur zwei Gebiete. Nämlich Europa und die USA. Der Rest der Welt blieb weitgehend unbeobachtet.

Insgesamt enthält die NASA GISS Datenbank, hervorgegangen aus dem (GHCN) Global Historical Cimatology Network 7364 Datenreihen von Wetterstationen weltweit[5]. Einige gehen bis 175 Jahre zurück, andere nur wenige Tage.

Für Klimazwecke sind aber nur Stationen mit

a) kontinuierlicher ununterbrochener Aufzeichnung, möglichst am selben Ort mit derselben Ausstattung (kommt leider kaum vor) brauchbar und

b) mindestens ab 1880 (je früher je besser)[6].

Nach den Untersuchungen von F.K. Ewert anhand der NASA GISS Listen von 2010 lieferten aber nur 1086 Stationen über 100 oder mehr Jahre kontinuierlich Temperatur-Daten. Und davon lagen ca. 80 – 85 % in den USA und Europa. In den Folgejahren kamen zwar rd. 6000 Stationen dazu, von denen aber nur weitere 757 Stationen Daten aufwiesen, die für Langzeitvergleiche, dank ununterbrochener Aufzeichnungs-Dauer, tauglich sind. Das ist zwar schon eine bessere Datenbasis, aber lange noch keine gute, wenn man allein an die riesige Landfläche von 146 Mio km^2 denkt deren Klimaentwicklung es zu beurteilen gilt.

Allein deshalb eine erste Feststellung:

Keine Bauvorschrift eines entwickelten Landes würde es zulassen, dass anhand von Daten dieser dürftigen Qualität (wofür man aber den Altvorderen keinerlei Vorwürfe machen kann) jemals eine Brücke oder eine Bahn, oder ein Auto oder gar ein Flugzeug gebaut, geschweige denn für den Verkehr freigegeben werden dürfte. Die IPCC Klimaforscher aber erlauben sich ein solches Vorgehen und – noch schlimmer- es wird Ihnen geglaubt, dass sie spärliche Daten mit mangelhafter Qualität in solche (vermeintlich) hoher Qualität umrechnen und damit ganze Gesellschaften aus den Angeln heben. Ihre Computer rechnen zwar brav und schnell das aus, was ihnen eingegeben wird. Richtiger wird das Ergebnis dadurch nicht, nur schneller falsch

Abbildung 4 zeigt die Anzahl der genutzten Wetterstationen mit kontinuierlicher Aufzeichnungsdauer aus der NASA-GISS Datei von 2010 und ihr jeweiliges Startjahr.  Es gab zwar noch mehr Stationen mit diesen Gründungsjahren, aber deren Betriebsdauer war für Klimabeobachtungen zu kurz.  Daten NASA-GISS;Auswahl K.F. Ewert; Grafik: M.Limburg

Flächendeckung

1880 1900 1920 1940 1960
Anzahl 116 883 1093 1280 1602
80 % davon USA & Europa 93 706 874 1024 1282
Rest der Welt 23 177 219 256 320
für 1 Station im Rest der Welt in Mio km ^2 4,21 0,55 0,45 0,38 0,30
ergeben Ø 4 Station für Russland 1 Station für Kenia 1 Station für Schweden 1 Station für Japan 1 Station für Italien

Tabelle 1 Sie zeigt, welche Flächen bei angenommener regionaler Gleichverteilung für den Rest der Welt von einer Wetterstation abgedeckt gewesen wäre.  Die Zahlen sprechen für sich.

Und wie war es auf den Ozeanen, z.B dem Nordatlantik mit dem weißen Fleck?

Auf den Ozeanen – immerhin zu 71 % die Erdoberfläche bedeckend-  gab es außerhalb der Hauptschifffahrtsrouten so gut wie keine Messungen. Mit am dichtesten befahren war und ist die Nordatlantik Route, die bei Stocker aber einen weißen Fleck zeigt.

Auf dem Meer wird jedoch nicht die Lufttemperatur sondern vorrangig die SST gemessen. SST steht dabei für Sea Surface Temperature . d.i. lt. Definition die Wassertemperatur  1 m  unter der Wasseroberfläche. Sie wird als Proxy für die eigentlich gewünschte Lufttemperatur verwendet, weil sie sich wg. der großen Wärmeträgheit des Wassers weniger erratisch ändert als diese. Sie ist aber nicht dasselbe, sondern unterliegt  eigenen anderen Beeinflussungen, die jedoch völlig unbeachtet blieben. Deswegen ist die 1:1 Übertragung eigentlich nicht zulässig und erhöht nur die tatsächliche Unsicherheit.  Temperaturmesssungen der Weltmeere waren bezogen auf die Fläche noch weit spärlicher vorhanden als an Land. Ihre unvermeidbaren Unsicherheiten waren infolgedessen noch deutlich größer als die vom Land.

Abbildung 5 Darstellung der gemeldeten SST´s (Sea Surface Temperature, ein Proxy für die noch viel schlechter bekannte Meeres-Lufttemperatur, die man eigentlich für Vergleichszwecke benötigt) für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die extrem dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit sehr großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Von wegen statistisch robust!

Inzwischen gibt es auch einige begutachtete Papers[7],[8],[9]  -unter anderem vom Verfasser dieser Zeilen-, die nachweisen, dass die unvermeidbaren Unsicherheiten, die sich durch systematische Messfehler ergeben, welche zwar der Art nach bekannt, aber weder in der Größe noch Richtung korrigierbar sind,  bei der Berechnung der Zeitreihe der globalen Mitteltemperatur deutlich größer als ± 1,084 ° C bis ± 2,084 ° C sind. Vermutlich sogar ein Vielfaches davon. Sie werden zudem trichterförmig größer, je weiter man in die Vergangenheit zurückgeht.

Wenn sich das bestätigt, und daran kann eigentlich kein Zweifel bestehen, denn die in den papers verwendeten statistischen Methoden sind klassisches Ingenieurswissen, seit über hundert Jahren bekannt und wurden seitdem in allen Maschinen- und  Bauwerkskonstruktionen überaus erfolgreich angewendet, dann ist klar, dass auch jegliche Zuordnung irgendwelcher Ursachen der Änderung der globalen Mittel-Temperatur der letzten 150 Jahre nur spekulativ sein kann.

Und weiter kann daher jeder seriöse Experte wohl nur den Schluss ziehen, dass die im Bild 2 angegebenen Kreuze die für die „Robustheit“ der Aussage stehen sollen-nach allen Regeln der Statistik- nur reine Spekulation sind.

Gab es eine Erwärmung?

Bei Anwendung der grundlegenden Regeln für den Umgang mit unsicherheitsbehafteten Daten,  ist aus diesen Daten nicht mal festzustellen, ob es überhaupt eine Erwärmung gegeben hat. Gäbe es die Einzelwertanalysen nicht, wie sie dankenswerter Weise Karl Friedrich Ewert[10] angefertigt hat, er hat dafür die o.a. angeführten über 1839 Langzeit-Einzelzeitreihen  ausgewertet-  dann wären wir nur auf Proxydaten angewiesen. So aber zeigt sich, dass die Temperatur der Atmosphäre der Erde rhythmischen Schwankungen unterworfen ist, deren Zyklen,  anders als die Absolutwerte, auch nicht im Rauschen verschwinden, sondern in den Zeitreihen klar identifizierbar bleiben.

Abbildung 6 : Zeitreihen des Verlaufs der Temperatur nach verschiedenen Quellen. Grafik F.K. Ewert 

Als Fazit aus all dem ergibt sich:

1.     Von robusten gar qualitativ hochstehenden Daten (O-Ton Stocker) kann überhaupt keine Rede sein.

2.     Eine „elementare“ Aufgabe ist deren Auswertung keineswegs

3.     Weder sind präzise Angaben über die absolute noch relative (Anomalie) historische  globale Mitteltemperatur der Erde vor der Satellitenerkundung (1979) möglich, jedenfalls dann nicht, wenn man sich an die klassischen Prüf- und Bewertungsverfahren von Messergebnissen der Ingenieur/Naturwissenschaften hält.

4.     Qualitativ wie quantitativ vernünftig auswertbar sind nur die einzelnen Zeitreihen, wie es F.K. Ewert vorschlug. Das erfordert allerdings einen Zeitaufwand den die Verantwortlichen scheuen, zumal das Ergebnis ihnen nicht passen dürfte.

5.     Deutlich erkennbar und auch metrisch auswertbar sind hingegen Zyklen in den Zeitreihen (man sehe z.B hier)

6.     Diese unterscheiden sich in Nichts von den klimatischen Zyklen früherer Zeiten

7.     Ein Einfluss von Treibhausgasen insgesamt, insbesondere von CO2, ist in keiner der Zeitreihen erkennbar. Schon deren Korrelation mit den Klimagrößen ist auf allen Zeitskalen denkbar schlecht bis nicht vorhanden

Abbildung 7 : Zeitreihen des Verlaufs der globalen Temperatur, der CO2 Konzentration und der Portogebühren für US Briefe,  nach verschiedenen Quellen.

Zu vergleichbaren Aussagen kommen daher auch die schon  erwähnten Autoren J.D´Aleo und A. Watts in ihrer 110 seitigen Analyse: Sie schreiben u.a in ihrer Summary for Policymakers auf Seite 4

 

1. Instrumental temperature data for the pre-satellite era (1850-1980) have been so widely, systematically, and unidirectionally tampered with that it cannot be credibly asserted there has been any significant “global warming” in the 20th century.

 

2. All terrestrial surface-temperature databases exhibit very serious problems that render them useless for determining accurate long-term temperature trends.

3. All of the problems have skewed the data so as greatly to overstate observed warming both regionally and globally.

Teil 2 folgt in Kürze

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat


Fußnoten und Quellen

[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Klima ist ein Wort für das Wetter, das es an einem Ort in vielen Jahren gibt

Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit: Nationale Klimaschutzinitiative

Rubrik Leichte Sprache

[1] Erklärung des Klimawandels

Herzlich willkommen auf der Internet-Seite von der Nationalen Klima-Schutz-Initiative.

Klima ist ein Wort für das Wetter, das es an einem Ort in vielen Jahren gibt. Auf der Erde wird es immer wärmer. Dazu sagt man Klima-Wandel.

Das ist schlecht für die Umwelt. Zum Beispiel schmelzen Eisberge und die Wüsten werden größer.

Das passiert zum Beispiel durch Abgase. Abgase gibt es, wenn wir Strom machen oder wenn wir mit dem Auto fahren.

Die deutsche Bundes-Regierung will, dass es weniger Abgase gibt. Sie will das Klima schützen. Deshalb gibt es die Klima-Schutz-Initiative.

Die Klima-Schutz-Initiative kümmert sich darum, dass es weniger Abgase gibt.

Zum Beispiel: Wenn eine Schule neue Lampen kauft, die weniger Strom brauchen, dann hilft die Bundes-Regierung der Schule.

Quellen

[1] Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit: Nationale Klimaschutzinitiative Leichte Sprache

http://www.klimaschutz.de/de/artikel/leichte-sprache

———————————————————-

Anhang: Unser Übersetzer Chris Frey hat einen Text in (hoffentlich) genauso leichter Sprache verfasst. In Anlehnung an den obigen Unsinn liest sich das so:

Herzlich willkommen auf der Website von Klimarealisten.

Klima ist das Wort für Wetter, das man an einem Ort viele Jahre lang beobachtet und dann daraus einen Mittelwert bildet.

Auf der Erde wird es seit ihrer Entstehung vor vier Milliarden Jahren ständig mal wärmer, dann wieder kälter. Dazu sagt man Klima-Wandel.

Die Umwelt hatte also mehr als genug Zeit, sich an diese Wandel anzupassen. Eisberge nahmen zu und wieder ab, Wüsten wurden größer und wieder kleiner.

Das passiert durch die Sonne. Unsere Abgase sorgen nur dafür, dass die Pflanzen besser wachsen. Abgase gibt es, wenn wir Strom machen oder wenn wir mit dem Auto fahren.

Die deutsche Bundes-Regierung will, dass es weniger Abgase gibt. Das ist eigentlich Unsinn. Sie will das Klima schützen. Das ist noch größerer Unsinn. Um das deutlich zu machen, gibt es eine Website von Klimarealisten.

Die Klimarealisten kümmern sich darum, dass die verheerenden Folgen für die Umwelt und unsere Gesellschaft bekannt gemacht werden.

Die Bundes-Regierung will davon nichts wissen. Sie sorgt mit ihren „Hilfen“ dafür, dass die Umwelt immer weiter zerstört wird und unser Strom immer teurer gemacht wird.