Der Stillstand geht ans Eingemachte – neue Stillstand-Rekordlänge: keine Erwärmung seit 18 Jahren und 7 Monaten

Abbildung 1: Die lineare Regression kleinster Quadrate des Trends der globalen monatlichen Temperaturanomalie nach RSS zeigt keine globale Erwärmung seit 18 Jahren und 7 Monaten, also seit Januar 1997.

Die Stillstandsperiode von 18 Jahren und 7 Monaten ist der am weitesten zurück reichende Zeitraum, den man betrachten kann und der immer noch einen Null-Trend zeigt. Das Anfangsdatum ist nicht cherry picked, es ist berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Der Stillstand geht inzwischen ins Eingemachte. Im Vorfeld der Klimakonferenz in Paris im Dezember hat die Weigerung der Welt, sich während über der Hälfte der Zeit mit Satellitenbeobachtungen überhaupt zu erwärmen, die Klimaextremisten zu verzweifelten Maßnahmen greifen lassen in dem Versuch, den Stillstand irgendwie zu beseitigen.

Zunächst war da Tom Karl, der mit seiner Studie versucht hat, den Stillstand auszuradieren, indem er willkürlich alle Wassertemperaturmessungen der 3600 in den Ozeanen treibenden ARGO-Bojen drastisch nach oben korrigiert hat. Und Hokuspokus – alle drei der längsten existierenden terrestrischen Temperatur-Datensätze – GISS, HadCRUT4 und NCDC – wurden entsprechend adjustiert, wieder einmal, um mehr globale Erwärmung vorzugaukeln als es tatsächlich der Fall war.

Allerdings sind die gemessenen und aufgezeichneten Fakten nun mal da. Während der 11 ganzen Jahre von April 2004 bis März 2015, während derer die ordnungsgemäß kalibrierten ARGO-Bojen vernünftige, wenn auch unvermeidlich sehr schlecht aufgelöste Daten lieferten (jede Boje muss 200.000 km³ Ozeantemperatur repräsentieren mit nur drei Ablesungen pro Monat), gab es in den oberen 750 m keinerlei Erwärmung und in tieferen Schichten eine nur sehr geringe. Daraus ergibt sich während dieses Zeitraumes ein Erwärmungstrend äquivalent zu 1°C alle 430 Jahre.

Abbildung 1a: fast globale Ozean-Temperaturen pro Schicht, 0 bis 1900 m. Quelle: ARGO-Meeresatlas.

Und in der unteren Troposphäre ergab sich RSS zufolge eine Erwärmungsrate äquivalent zu 1°C alle 700 Jahre.

Abbildung 1b: Der lineare Regressionstrend kleinster Quadrate im UAH-Satelliten-Datensatz der globalen mittleren Temperatur zeigt keinerlei globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Dann erschien eine andere Studie, diesmal mit der Aussage, dass die globale Temperaturaufzeichnung des GISS eine globale Erwärmung während des Stillstands zeigt und dass daher GISS globale Erwärmung während des Stillstands zeigt. Dieses Beispiel eines Zirkelschlusses passierte ohne Schwierigkeiten die Begutachtung, weil die Studie zu der politisch korrekten Schlussfolgerung gekommen war, dass es keinen Stillstand gibt.

Allerdings kam die Studie zu dieser Schlussfolgerung, ohne das Wort „Satellit“ zu erwähnen. Die UAH-Daten zeigen keine Erwärmung seit 18 Jahren und 5 Monaten.

Abbildung 1c: Der lineare Regressionstrend kleinster Quadrate des via Satellit gemessenen Trends der globalen Temperaturanomalie zeigt keine globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Der Vollständigkeit halber folgt hier noch die „Erwärmungs“-Rate der terrestrischen Datensätze seit Januar 1997, obwohl diese völlig unzuverlässig sind:

Abbildung 1d: Der lineare Regressionstrend kleinster Quadrate in der mittleren monatlichen Temperaturanomalie nach GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu etwas über 1°C pro Jahrhundert im Zeitraum des Stillstands von Januar 1997 bis Juli 2015.

Wenn man bedenkt, dass ein Drittel des Strahlungsantriebs von 2,4 W/m² aus allen anthropogenen Quellen während des Stillstands-Zeitraumes stammt, ist eine Erwärmungsrate von etwas mehr als 1°C pro Jahrhundert nicht wirklich alarmierend. Allerdings hat es die Studie, die das vermeintliche Fehlen des Stillstands zeigte, sorgfältig vermieden zu erwähnen, wie gering die Erwärmung in den terrestrischen Datensätzen tatsächlich ist – selbst nach all den zahlreichen Manipulationen.

Wie immer muss man hier aber aufpassen: Nur weil es während der letzten Jahrzehnte keine oder nur eine geringe Erwärmung gegeben hat, kann man daraus nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien messen nur das, was geschehen ist; sie sagen nicht voraus, was geschehen wird.

Außerdem hat die lange, allmähliche Bildung des gegenwärtigen El Niño, der nicht vor dem Jahreswechsel seinen Höhepunkt erreichen wird, schon jetzt die tropischen Temperaturen beeinflusst und wird infolge des Wirkens der thermohalinen Zirkulation eventuell auch die globalen Temperaturen beeinflussen.

Obwohl man erwarten kann, dass dieser El Niño von einer La Niña gefolgt wird, was die temporäre Erwärmung wieder aufhebt, ist das nicht immer der Fall. Kurz gesagt, der Stillstand könnte zu Ende gehen und dann verschwinden. Allerdings haben wir hier schon oft zuvor betont, dass der Stillstand – so politisch nützlich er auch für alle sein kann die wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft seiner Pflicht zum Hinterfragen nachkommt – weit weniger wichtig ist als die immer größer werdende Diskrepanz zwischen den Prophezeiungen der globalen Zirkulationsmodelle und der beobachteten Realität.

Die Diskrepanz zwischen den Modellprophezeiungen im Jahre 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Messungen andererseits vergrößert sich immer weiter. Falls sich der Stillstand noch ein wenig weiter fortsetzt, wird die Erwärmungsrate in dem Vierteljahrhundert seit dem ersten IPCC-Zustandsbericht aus dem Jahr 1990 unter ein Äquivalent von 1°C pro Jahrhundert absinken.

Abbildung 2: Echtzeit-Projektionen der Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC im Jahre 1990 für die 307 Monate von Januar 1990 bis Juli 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1 K pro Jahrhundert, gemittelt aus den Satelliten-Datensätzen von RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis Juli 2015 mit einer Rate äquivalent zu 1,7 (1,0; 2,3) K pro Jahrhundert (orangefarbener Bereich mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten, nahe Null liegenden Anomalien (dunkelblau) und Trend (hellblau) der realen Welt, gebildet aus dem Mittel der Temperaturanomalien in der unteren Troposphäre nach RSS und UAH.

Die Liste der Kernfakten über die globale Temperatur (unten) sollte man jedem vorlegen, der weiter daran glaubt, dass – um es mit den Worten von Mr. Obamas Twitterei auszurücken – „die globale Erwärmung real, vom Menschen verursacht und gefährlich“ ist.

In Hintergründe werden die Quellen der IPCC-Vorhersagen aus den Jahren 1990 und 2005 erläutert. Auch wird gezeigt, dass sich die Ozeane den ARGO-Daten zufolge mit einer Rate äquivalent zu weniger als 0,25°C pro Jahrhundert erwärmen.

Kernfakten zur globalen Temperatur

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 223 Monaten von Januar 1997 bis Juli 2015 – also während über der Hälfte der 439 Monate langen Satelliten-Aufzeichnungen.

● Es gab keine Erwärmung, obwohl ein Drittel aller anthropogenen Antriebe seit 1750 erst nach Januar 1997 freigesetzt wurden, also während des Stillstands der globalen Erwärmung.

● Der gesamte RSS-Datensatz von Januar 1979 bis heute zeigt eine globale Erwärmung mit einer wirklich nicht alarmierenden Rate von lediglich 1,2°C pro Jahrhundert.

● Seit 1950, also seit dem Zeitpunkt, an dem ein menschlicher Einfluss auf das Klima zum ersten Mal theoretisch möglich ist, lag der Trend der globalen Erwärmung unter einem Äquivalent von 1,2°C pro Jahrhundert.

● Der globale Erwärmungstrend seit dem Jahr 1900 ist äquivalent zu 0,75°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

● Zur höchsten Erwärmungsrate über 15 Jahre oder mehr seit 1950 kam es während der 33 Jahre von 1974 bis 2006. Die Rate lag äquivalent zu 2,0°C pro Jahrhundert.

● Zum Vergleich, die Erwärmung im Temperatur-Datensatz aus Mittelengland während der 40 Jahre von 1694 bis 1733, also lange vor der industriellen Revolution, erreichte ein Äquivalent zu 4,33°C pro Jahrhundert.

● Im Jahre 1990 lag die Mittelfrist-Prognose des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als seine jüngste Prognose von 1,7°C pro Jahrhundert.

● Der Erwärmungstrend seit 1990, dem Jahr des 1. IPCC-Zustandsberichtes, ist äquivalent zu 1°C pro Jahrhundert. Das IPCC hat eine zweieinhalb mal so hohe Rate prophezeit.

● Damit die zentrale Prognose des IPCC von einer Erwärmung um 1°C von 1990 bis 2025 doch noch eintrifft, müsste es im nächsten Jahrzehnt zu einer Erwärmung von 0,75°C kommen, also einem Äquivalent zu 7,5°C pro Jahrhundert.

● Obwohl das IPCC seine Erwärmungsprognose im Kurzfristzeitraum zurückgefahren hat, sagt es langfristig bis zum Jahr 2100 bei Business as Usual immer noch eine Erwärmung um 4,8°C voraus.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 liegt deutlich mehr als zweimal so hoch wie die höchste Erwärmungsrate über mehr als 15 Jahre, die seit dem Jahr 1950 gemessen worden ist.

● Die IPCC-Vorhersage von 4,8°C bis 2100 liegt viermal so hoch wie der gemessene globale Erwärmungstrend, seit wir diesen theoretisch hätten beeinflussen können, also seit 1950.

● Die Ozeane erwärmen sich den ARGO-Bojen zufolge mit einer Rate von lediglich 0,02°C pro Jahrzehnt, äquivalent zu 0,23°C pro Jahrhundert oder 1°C in 430 Jahren.

Hintergründe

Unsere jüngste Graphik zeigt die lineare Regression kleinster Quadrate des Trends der monatlichen globalen mittleren Temperaturen, der so weit zurückreicht, wie es möglich ist und immer noch einen Null-Trend findet. Das Anfangsdatum ist nicht cherry picked, um mit der Temperaturspitze des El Niño des Jahres 1998 zusammenzufallen. Stattdessen ist er berechnet, um den längsten Zeitraum mit einem Null-Trend zu finden.

Die Tatsache des langen Stillstands ist ein Hinweis auf die sich stetig vergrößernde Diskrepanz zwischen Prophezeiung und Wirklichkeit bei den Temperaturmessungen.

Die Satelliten-Datensätze sind allgemein deutlich weniger unzuverlässig als andere Datensätze, zeigen sie doch den Großen El Niño klarer als alle anderen Datensätze. Dieses Ereignis verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche, was eine unabhängige Verifikation erlaubte, dass Satelliten-Datensätze mehr als alle anderen in der Lage sind, derartige Fluktuationen ohne künstliches Herausfiltern abzubilden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer abseits von menschlichen Wärmequellen zeigen Erwärmungsraten, die unter jenen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Referenzmessungen mittels der genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, welche eine unabhängige Verifikation der Temperaturmessungen ermöglichen, indem man mittels ins Weltall gerichteter Spiegel die kosmische Hintergrundstrahlung heranzieht, die etwa 1% des Gefrierpunktes von Wasser beträgt oder einfach 2,73 Grad über dem Absoluten Nullpunkt liegt. Es waren Messungen von minimalen Variationen dieser kosmischen Hintergrundstrahlung, die es der NASA ermöglichten, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik (Abbildung oben rechts) ist akkurat. Die Daten wurden monatlich direkt von der RSS-Website heruntergeladen. Ein Computer-Algorithmus liest sie aus dem File heraus und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten der Klarheit halber im maximal möglichen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue, über die gezackte dunkelblaue Linie gelegte Trendlinie zeigt die Daten nach der linearen Regression kleinster Quadrate sowie die den Schnittpunkt mit der Y-Achse und die Neigung der Linie.

Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Das Verfahren ist angemessen, weil die globalen Temperaturaufzeichnungen nur wenig Autoregression zeigen, werden doch die Sommertemperaturen auf der einen Hemisphäre durch die Wintertemperaturen auf der anderen Hemisphäre kompensiert. Daher würde ein AR(n)-Modell Ergebnisse erzeugen, die sich ein wenig vom Trend der kleinsten Quadrate unterscheiden.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelationskoeffizient berechnet werden. Dieser ist sehr klein, und obwohl die Daten hoch variabel sind, verläuft der Trend flach.

Bei RSS selbst ist jetzt ernsthaftes Interesse an der Länge des Großen Stillstands aufgekommen. Dr. Carl Mears, der leitende Forschungswissenschaftler bei RSS, diskutiert dieses hier.

Die Ergebnisse von Dr. Mears werden in Abbildung T1 zusammengefasst:

Abbildung T1: Output von 33 IPCC-Modellen (türkis) im Vergleich mit der globalen Temperaturänderung nach RSS (schwarz) von1979 bis 2014. Die vorübergehenden Abkühlungen durch die Vulkanausbrüche des El Chichon (1983) und des Pinatubo (1991) zeichnen sich ab, ebenso wie die Wärmespitze des Großen El Nino von 1998.

Dr. Mears schreibt:

Die Leugner mögen es zu vermuten, dass der Grund für die Diskrepanz zwischen Modellen und Beobachtungen eine Art Problem mit der zugrunde liegenden Modellphysik ist, und sie weisen alle anderen Formen der Erklärung zurück. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich irrig, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen RSS-Daten und den Modellen ein, führt diese allerdings auf Rosinenpickerei des Anfangsdatums der Graphik der globalen Temperatur zurück:

Jüngst war in einer Anzahl von Artikeln der Mainstream-Presse zu lesen, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben zu haben scheint. Deswegen stellt man uns viele Fragen mit dem Tenor ;Ich habe diese Graphik auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während einige dieser Berichte den Endzeitpunkt ,cherry-picked‘ haben, um ihre Beweise noch stärker aussehen zu lassen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen des historischen Klimas im AR 5 vorhergesagt. … Die Leugner mögen es wirklich, die Trends im Jahre 1997 beginnen zulassen, so dass das gewaltige ENSO-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

Tatsächlich wird die vom Großen El Niño 1998 verursachte Temperaturspitze aus zwei Gründen fast vollständig bei der Berechnung des linearen Trends ausgeglichen: dem Fehlen einer ähnlichen Spitze beim El Niño 2010 und der schieren Länge des Stillstands selbst.

[Was ist das für ein „Wissenschaftler“, der alle anderen als „Leugner“ bezeichnet, die lediglich zu anderen Erkenntnissen gekommen sind als er selbst? Anm. d. Übers.]

Komischerweise bevorzugt Dr. Mears die terrestrischen Datensätze vor den Satelliten-Datensätzen. Das UK Met.-Office jedoch verwendet die Satellitendaten, um seine eigenen terrestrischen Daten zu kalibrieren.

Die Länge des Stillstands der globalen Erwärmung, so signifikant sie auch daherkommt, ist weit weniger wichtig als die stetig und rasch weiter zunehmende Diskrepanz zwischen den von den Modellen prophezeiten Temperaturtrends und der weit weniger ausgeprägten Temperaturänderung der realen Welt. Der El Niño dieses Jahres kann sich durchaus noch in diesem Jahr verstärken, was die Länge des Großen Stillstands reduziert. Allerdings setzt sich die Verbreiterung des Grabens zwischen Prophezeiung und Beobachtung weiter fort.

Quellen der IPCC-Projektionen in den Abbildungen 2 und 3.

Im Ersten Zustandsbericht des IPCC wurde prophezeit, dass die Temperatur bis zum Jahr 2025 um 1,0 °C (0,7; 1,5°C) steigen würde, was äquivalent ist zu einer Rate von 2,8°C (1,9; 4.2°C) pro Jahrhundert. In der Executive Summary wurde die rhetorische Frage gestellt: „Wie viel Vertrauen haben wir in unsere Prophezeiungen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber dennoch zu dem Ergebnis:

Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen Ergebnissen der gekoppelten Modelle mittels einfacher Repräsentationen des Ozeans und jenen komplizierteren Beschreibungen, und unser Verständnis der Differenzen, die es auch gibt, bestärkt uns in dem Vertrauen in unsere Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantielles Über-Vertrauen. Und zwar weil die Rate der globalen Erwärmung seit 1990 – die wichtigsten „groben Umrisse des Klimawandels“, die die Modelle vermeintlich prophezeien sollten – inzwischen weniger als halb so groß ist wie vom IPCC damals prophezeit.

Im Jahre 1990 schrieb das IPCC Folgendes:

Auf der Grundlage der gegenwärtigen Modelle prophezeien wir:

Bei Treibhausgas-Emissionen unter dem Szenario A (Business as Usual) gibt es eine Rate der Zunahme der globalen mittleren Temperatur während des nächsten Jahrhunderts um etwa 0,3°C pro Jahrzehnt (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Jahrzehnt). Dies ist größer als während der letzten 10.000 Jahre aufgetreten. Dies wird zu einer wahrscheinlichen Erwärmung um etwa 1°C über dem jetzigen Wert bis zum Jahr 2025 und um 3°C vor dem Ende des nächsten Jahrhunderts führen. Der Anstieg wird nicht gleichmäßig verlaufen infolge des Einwirkens anderer Faktoren (S. Xii).

Später hieß es vom IPCC:

Die Zahlen unten basieren auf hoch auflösenden Modellen, skaliert, um mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 konsistent zu sein. Für Werte, die konsistent mit anderen Schätzungen des globalen Temperaturanstiegs sind, sollten die Zahlen unten um 30% reduziert werden für die niedrige Schätzung oder um 50% erhöht werden für die hohe Schätzung (S. xxiv).

Der orangefarbene Bereich in Abbildung 2 repräsentiert die mittelfristige IPCC-Schätzung unter Szenario A einer kurzfristigen Erwärmung, d. h. 1,0°C (0,7; 1,5) bis zum Jahr 2025.

Die vom IPCC prophezeite globale Erwärmung während der 25 Jahre ab 1990 bis zur Gegenwart differiert wenig um eine gerade Linie (Abbildung T2)

Abbildung T2: Historische Erwärmung von 1850 bis 1990 sowie prophezeite Erwärmung von 1990 bis 2100 unter dem IPCC-Szenario A (IPCC 1990, S. xxii)

Weil diese Differenz zwischen einer geraden Linie und dem leichten Sprung aufwärts der von IPCC im Zeitraum 1990 bis 2025 prophezeiten Erwärmungsrate so klein ist, kann man das noch in anderer Weise betrachten. Um die zentrale Schätzung von 1 K seit 1990 bis 2025 zu erreichen, müsste es eine doppelt so starke Erwärmung während der nächsten zehn Jahre geben, als es während der letzten 25 Jahre der Fall war. Das ist unwahrscheinlich.

Aber ist der Stillstand vielleicht der Tatsache geschuldet, dass CO2-Emissionen nicht annähernd so stark gestiegen sind wie die IPCC-Prophezeiung unter Szenario A im Jahre 1990 benannt? Nein: Die CO2-Emissionen sind ziemlich deutlich über die unter Szenario A prophezeite Menge gestiegen (Abbildung T3)

Abbildung T3: CO2-Emissionen durch fossile Treibstoffe usw. im Jahre 2012 aus Le Quéré et al. (2014) im Vergleich zur Karte der „anthropogenen Kohlendioxid-Emissionen“ in Milliarden Tonnen Kohlenstoff pro Jahr. Quelle: IPCC 1990

Daher haben sich die CO2-Emissionen seit 1990 als viel näher Szenario A entsprechend erwiesen als an jedes andere Szenario, weil trotz all des Geredes um Reduktionen von CO2-Emissionen die Tatsache besteht, dass die Rate der Ausweitung des Verbrennens fossiler Treibstoffe in China, Indonesien, Indien, Brasilien usw. die geringen Reduktionen in westlichen Ländern bis heute weit in den Schatten stellen.

Es stimmt schon, die Methankonzentration ist nicht so gestiegen wie im Jahre 1990 prophezeit, weil die Methan-Emissionen, obwohl weitgehend ungesteuert, einfach nicht so steigen, wie die Modelle prophezeit hatten. Auch hier war also die Grundlage aller Prophezeiungen abwegig.

Das Gesamtbild ist klar. Szenario A ist das Emissions-Szenario aus dem Jahr 1990, dass der Menge der beobachteten CO2-Emissionen am Nächsten liegt.

Abbildung T4: Methan-Konzentration wie in vier IPCC-Zustandsberichten prophezeit, zusammen mit der beobachteten Konzentration, welche sich entlang der unteren Grenze der Geringst-Prophezeiung bewegt. Diese Graphik erschien in der vorläufig-endgültigen Version von IPCC (2013), wurde jedoch auf mysteriöse Weise aus der veröffentlichten Endversion entfernt, vermutlich weil das IPCC einen solchen direkten Vergleich zwischen absurd übertriebenen Prophezeiungen und der wenig aufregenden Wirklichkeit nicht zeigen wollte.

Um genau zu sein, ein Vierteljahrhundert nach 1990 beträgt die globale Erwärmung bis jetzt 0,27°C, was äquivalent zu etwa über 1°C pro Jahrhundert ist – wenn man es ausdrückt als linearer Regressionstrend kleinster Quadrate des Mittels von RSS und UAH der monatlichen mittleren globalen Temperaturanomalien. Die zentrale Schätzung des IPCC von 0,71°C, also äquivalent zu 2,8°C pro Jahrhundert, welche unter Szenario A im Jahre 1990 mit „substantiellem Vertrauen“ prophezeit worden war, war dreimal zu hoch gegriffen. Tatsächlich liegt die tatsächliche Rate sichtlich deutlich unter selbst der kleinsten Schätzung.

Im Jahre 1990 war die zentrale Prophezeiung der kurzfristigen Erwärmungsrate des IPCC um zwei Drittel höher als dessen heutige Prophezeiung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert, heute ist es ein solches von 1,7°C pro Jahrhundert – und wie Abbildung T5 zeigt, hat sich selbst das als eine substantielle Übertreibung erwiesen.

Erwärmt sich der Ozean?

Eine oft herangezogene Erklärung des Großen Stillstands lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen prophezeiten Rate, aber das die Wärme während der letzten Jahrzehnte durch die Ozeane aus der Atmosphäre herausgefiltert worden ist. Und man hypothetisiert angesichts des Umstands, das die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen prophezeit, dass das, was man die „fehlende Wärme“ nennt, irgendwie in die kaum vermessenen Tiefen unter 2000 m diffundiert ist, von wo sie irgendwann in Zukunft wieder freigesetzt wird.

Tatsächlich ist unbekannt, ob sich der Ozean erwärmt: jede der automatisierten ARGO-Bojen führt nur drei Messungen pro Monat durch für eine Wassermenge von 200.000 km³ – grob etwa ein 100.000 Quadratmeilen [ca. 259.000 km²] großes Gitterquadrat mit einer Kantenlänge von 316 km und einer Tiefe von 2000 m. Im Klartext, die Ergebnisse einer so geringen Auflösung sind nicht viel besser als Raten. (Willis Eschenbach drückt es so aus: es ist etwa das Äquivalent zu versuchen, eine einzelnes Temperatur- und Salzgehalts-Profil an einem einzigen Punkt im Oberen See einmal pro Jahr zu erstellen).

Unglücklicherweise scheint es, als ob ARGO den Ozean-Datensatz seit Dezember 2014 nicht mehr aktualisiert hat. Allerdings haben wir 11 ganze Jahre mit Daten. Die Ergebnisse zeigt Abbildung T5. Falls die ARGO-Messungen richtig sind, ist die Erwärmung der Ozeane äquivalent zu 0,2°C pro Jahrhundert.

Abbildung T5: Der gesamte, fast globale ARGO-Datensatz der Wassertemperatur der Ozeane in den oberen 2000 m von Januar 2004 bis Dezember 2014 (schwarze gezackte Kurve), zusammen mit dem linearen Regressionstrend kleinster Quadrate, berechnet aus den Daten vom Autor (grüner Pfeil).

Und schließlich, obwohl die ARG-Bojen die Temperaturänderung in den Ozeanen direkt messen, ändert die NOAA die Temperaturänderung künstlich in Zetajoule der Änderung des ozeanischen Wärmegehaltes, wodurch die Änderung viel größer aussieht.

Die erschreckend klingende Änderung des Wärmegehaltes von 260 ZJ im Zeitraum 1970 bis 2014 (Abbildung T6) ist äquivalent zu lediglich 0,2 K pro Jahrhundert globaler Erwärmung. All jene „Hiroshima-Bomben von Wärme“, von denen die extremistischen Klima-Websites reden, sind in Wirklichkeit ein kaum wahrnehmbarer Nadelstich. Der Ozean und dessen Wärmekapazität sind viel größer als so Mancher wahrhaben will.

Abbildung T6: Änderung des ozeanischen Wärmegehaltes von 1957 bis 2013 in Zetajoules vom NODC Ocean Climate Lab der NOAA: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT, wobei die Werte des Wärmegehaltes zurück konvertiert wurden zu den Änderungen der Wassertemperatur in den Ozeanen in Kelvin, wie sie ursprünglich gemessen worden sind. Die Konversion der NOAA der minimalen Erwärmungszahlen in Zetajoule, kombiniert mit einer übertriebenen vertikalen Achse der Graphik, hat die Auswirkung, dass eine sehr kleine Änderung der Wassertemperatur viel signifikanter aussieht als sie ist.

Die Rück-Konversion der Änderung des ozeanischen Wärmegehaltes in Temperaturänderungen enthüllt eine interessante Diskrepanz zwischen den NOAA-Daten und denen des ARGO-Systems. Während des Zeitraumes der ARGO-Daten von 2004 bis 2014 implizieren die NOAA-Daten eine Erwärmung der Ozeane um 0,05°C pro Jahrzehnt, äquivalent zu 0,5°C pro Jahrhundert – oder eine fast doppelt so hohe Rate wie von ARGO gemessen.

Zwar hat ARGO den besser aufgelösten Datensatz, aber da die Auflösung aller Ozean-Datensätze sehr gering ist, muss man all diese Ergebnisse mit Vorsicht betrachten. Was man sagen kann ist, dass aufgrund solcher Beweise, wie sie diese Datensätze erbringen können, die Differenz zwischen dem zugrunde liegenden Erwärmungstrend des Ozeans und dem der Atmosphäre nicht statistisch signifikant ist. Dies zeigt, dass falls sich die „fehlende Wärme“ wirklich in den Ozeanen versteckt, sie auf magische Weise den Weg in tiefe Schichten gefunden hat, ohne die oberen Schichten auf ihrem Weg zu erwärmen. Ebenfalls aufgrund dieser Daten gibt es keine Beweise für eine rapide oder katastrophale Erwärmung der Ozeane.

Außerdem gibt es bis heute keine empirische, theoretische oder numerische Methode, komplex oder einfach, die erfolgreich mechanistisch spezifiziert hat, wie entweder die durch die anthropogene Anreicherung der Atmosphäre mit Treibhausgasen verursachte Erwärmung die Tiefsee erreicht hat, ohne den Wärmegehalt der durchdrungenen oberen Ozeanschichten wesentlich zu verändern, oder wie die Wärme vom Grund der Ozeane eventuell irgendwie wieder die Klimabedingungen nahe der Oberfläche beeinflussen kann, die für das Leben auf dem Festland der Erde relevant sind.

Die meisten Ozean-Modelle, die zur Berechnung der gekoppelten allgemeinen Modell-Sensitivität herangezogen worden sind, können die meisten der physikalischen Prozesse nicht auflösen, die für die Wärmeaufnahme durch die Ozeane relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass sich jedwede in der Tiefsee akkumulierte Wärme via verschiedener Diffusionsprozesse auflösen muss. Es ist nicht plausibel, dass irgendwelche durch die Tiefsee aufgenommenen Wärmemengen plötzlich die oberen Ozeanschichten erwärmen und damit auch die Atmosphäre.

Falls die „Tiefsee“-Erklärung für den Stillstand korrekt wäre (und diese ist lediglich eine von Dutzenden Anderen, die präsentiert worden sind), haben die komplexen Modelle dabei versagt, dies korrekt abzubilden: anderenfalls wäre die wachsende Diskrepanz zwischen den prophezeiten und beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall ist.

Warum waren die Modell-Prophezeiungen übertrieben?

Im Jahre 1990 prophezeite das IPCC – unter seinem Szenario A (Business as Usual) – dass es vom Beginn der industriellen Revolution an bis zur Gegenwart einen Strahlungsantrieb von 4 Watt pro Quadratmeter geben würde, der durch den Menschen verursacht ist (Abbildung T7):

Abbildung T7: prophezeite, vom Menschen verursachte Strahlungsantriebe (IPCC 1990).

Allerdings hat sich das IPCC von 1995 an entschlossen, aufgrund dürftiger Beweise zu vermuten, dass anthropogene Aerosole – meist Ruß durch Verbrennung – die Erde abschattet, und zwar stark genug, um einen starken negativen Strahlungsantrieb auszulösen. Auch hat es inzwischen verspätet erkannt, dass seine projizierten Zunahmen der Methan-Konzentration wilde Übertreibungen waren. Als Folge dieser und anderer Änderungen schätzt es jetzt, dass der gesamt-anthropogene Antrieb der industriellen Ära lediglich 2,3 W/m² beträgt oder etwas weniger als halb so groß ist wie laut dessen Prophezeiung im Jahre 1990.

Abbildung T8: Gesamt-anthropogene Antriebe von 1750 bis 1950, 1980 und 2012 (IPCC 2013).

Allerdings könnte selbst das noch eine erhebliche Übertreibung sein, beträgt doch die Best Estimate des tatsächlichen gegenwärtigen Strahlungs-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) lediglich 0,6 W/m² (gesamter natürlicher und anthropogener Antrieb); Abbildung T9:

Abbildung T9: Energiebudget-Diagramm für die Erde nach Stephens et al. (2012).

Kurz gesagt, der größte Anteil des vom IPCC prophezeiten Antriebs ist entweder eine Übertreibung oder hat bereits zu der Temperaturänderung geführt, welcher auch immer, die er verursachen sollte. Es gibt nur wenig globale Erwärmung in der Pipeline als Folge unserer Emissionssünden in Vergangenheit und Gegenwart.

Es kann auch sein, dass das IPCC und die Modelle unablässig die Klimasensitivität übertrieben haben. Eine jüngst erschienene Studie zu dieser Frage von Monckton of Brenchley et al. (2015), kam auf eine Klimasensitivität im Bereich von 1°C pro Verdoppelung des CO2-Gehaltes (man gehe zu www.scibull.com und klicke dort auf „Most Read Articles“). Die Studie identifizierte Fehler in der Art und Weise, wie die Modelle mit Temperatur-Rückkopplungen umgegangen waren, sowie deren Verstärkung, welche für zwei Drittel der Gleichgewichts-Erwärmung verantwortlich waren, die das IPCC prophezeit hatte.

Prof. Ray Bates hat jüngst in Moskau eine Studie veröffentlicht, in der er auf der Grundlage der Analyse von Lindzen & Choi (2009, 2011) zu dem Ergebnis gekommen war (Abbildung T10), dass Temperatur-Rückkopplungen insgesamt negativ sind. Demzufolge hat er die Schlussfolgerungen sowohl von Lindzen & Choi (1990) als auch von Spencer & Braswell (2010, 2011) bestätigt, denen zufolge die Klimasensitivität unter – und vielleicht beträchtlich unter – 1°C pro CO2-Verdoppelung liegt.

Abbildung T10: Realität (Mitte) im Vergleich zu 11 Modellen. Aus Lindzen & Choi (2009).

Eine zunehmende Anzahl begutachteter Studien kommt zu dem Ergebnis, dass die Klimasensitivität deutlich unter den 3°C (1,5; 4,5) pro CO2-Verdoppelung liegt, die zum ersten Mal im Charney-Report aus dem Jahr 1979 für die Academy of Sciences in den USA kolportiert worden war. Hierbei handelt es sich bis heute um die Best Estimate des IPCC.

Auf der Grundlage der bis heute vorliegenden Beweise gibt es daher keine wissenschaftliche Basis, überhaupt irgendwelche Maßnahmen zu ergreifen, um die CO2-Emissionen abzuschwächen.

Und zum Schluss: Wie lange wird es dauern, bevor die Freiheits-Uhr (Abbildung oben rechts!) 20 Jahre ohne jede globale Erwärmung erreicht? Falls das geschieht, wird die Klimaangst unhaltbar werden.

Link: http://wattsupwiththat.com/2015/08/06/the-pause-draws-blood-a-new-record-pause-length-no-warming-for-18-years-7-months/

Übersetzt von Chris Frey EIKE




Zur 70. Jahrestag Hiroshima – Darstellung: Nachgefragt

Wie bei Hinweisen auf verzerrende Darstellungen seitens offizieller Institutionen argumentiert wird, zeigt das Beispiel der Stadt Fürth.

Auf der Homepage der Stadt Fürth erschien zum Gedenktag der folgende Infotext (Hervorhebung durch den Autor):

Pressetext auf der Homepage der Stadt Fürth

70 Jahre nach Hiroshima

Die Stadt Fürth gedenkt am Donnerstag, 6. August, 18 Uhr, der Opfer der Atombombenabwürfe auf Hiroshima und Nagasaki im August 1945, aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011. Dazu sind alle Bürgerinnen und Bürger herzlich eingeladen. 

Nun ist es bestimmt sinnvoll, schlimmen Ereignissen der Geschichte zu gedenken und sie in Erinnerung zu halten. Aber dann sollte die Wahrheit nicht dem guten Zweck geopfert werden.

Der Autor schrieb deshalb an den Verantwortlichen der Stadt Fürth. Anm.: Im Folgenden wurden alle nicht direkt Fukushima betreffenden Texte weggelassen.

Sehr geehrter Herr xxx,

zur Pressemitteilung der Stadt Fürth zum Hiroshima-Gedenktag (Anlage) habe ich ein paar Fragen an die Verantwortlichen:

…… – Es wird der Opfer der Atomkatastrophe in Fukushima gedacht.

Frage: Können Sie bitte Opfer der Atomkatastrophe Fukushima nennen und ev. die Gesamtzahl? Mir sind keine bekannt. Allerdings hat der Tsunami ca. 20.000 Opfer gefordert. Warum wird nicht denen gedacht?

Vielen Dank für die Fakten zur Hiroshima-Gedenktaginformation der Stadt Fürth

Zurück kam die folgende Antwort (Hervorhebung durch den Autor):

Sehr geehrter Herr yyyy, 

……  Bei der Nuklearkatastrophe von Fukushima wurden nachweislich zahlreiche Arbeiter einer sehr hohen Strahlenbelastung ausgesetzt und damit Opfer dieses schrecklichen Unfalls. Da es bei dem Hiroshima-Gedenktag auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.

Darauf erwiderte ich:

Sehr geehrter Herr xxxx,

erst einmal danke für die Rückmeldung. Allerdings kann ich Ihrer Argumentation nicht folgen. 

Im Infotext der Stadt Fürth steht: 

„ …. aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011.“

Bei einer solchen Textpassage, welche direkt hinter den gemeinsamen Opfern von zwei Atombombenabwürfen mit mindestens 232.000 direkten Toten (WIKIPEDIA) steht, „erwartet“ man schon eine besonders hohe Mortalität. Genannt werden aber selbst im Untersuchungsbericht des UNSCEAR-Reports 2013 für Fukushima keine Strahlen-Opfer.

Meinen Sie nicht, dass es eine bewusste textliche Suggestion darstellt, einer Strahlung ausgesetzte Katastrophen-Einsatzkräfte – welche davon keinen letalen Schaden davongetragen haben – in diesem Zusammenhang als Opfer im Sinne des besonderen, im Text ausschließlich einer extremen Atom-Opfer-Zahl bezogenen Gedenktages zu nennen? 

Bezogen auf Ihre Argumentation

„…auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.“

erlaube ich mir anzumerken, dass man bitte nicht Atombombenabwurf und Energiegewinnung in einem „Gedenken“ mischen sollte, nur weil eine gemeinsame Technologiebasis besteht. Dann muss man auch Tsunamis und Wasserkraftwerke so behandeln, wobei die Mortalität dieser extrem schrecklichen Energieform Wasserkraft (alleine der Tsunami 2004 forderte: 230.000 Tote , über 3 Millionen Menschen verloren ihr Zuhause, geborstene Staudämme forderten ebenfalls schon extreme Opferzahlen) dann um ein Vielfaches höher als die der Atomkraft selbst im Kriegseinsatz wäre.

Gerade Fukushima hat gezeigt, dass selbst der schlimmste Gau – mehrere gleichzeitige Kernschmelzen – zu keinem wirklich Bevölkerungs-relevanten Schaden führen muss.

Man mag gegen eine bestimmte Technologie sein (die Präsident Obama aktuell als die Zukunftstechnologie für die USA preist). Es ist aber bestimmt nicht Aufgabe der Stadt Fürth, dies mit falschen Darstellungen zu unterstützen.

Personen, welche keine genaueren Hintergründe kennen – und das ist die überwiegende Mehrheit – werden durch den Gedenktext auf jeden Fall vollkommen falsch informiert.

Fazit: Man sollte den Infotext der Stadt Fürth bezüglich der Darstellung Fukushima unbedingt richtigstellen, oder den Bezug zu Fukushima entfernen.

Als Anlage etwas Information zum Thema Fukushima

Abschließend kam die folgende Antwort

Sehr geehrter Herr yyyy,

ich respektiere Ihre Argumente und Ihre Meinung. Aber aus den in meiner Antwort genannten Gründen werden wir unseren Text nicht ändern.

Viele Grüße

xxx

[1]

Claudia Roth
11. März 2013 um 06:33

Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres Mal eine ganze Region und mit ihr die ganze Welt in den atomaren Abgrund blicken ließ. Insgesamt starben bei der Katastrophe in Japan 16.000 Menschen, mehr als 2.700 gelten immer noch als vermisst. Hunderttausende Menschen leben heute fernab ihrer verstrahlten Heimat. Unsere Gedanken sind heute bei den Opfern und ihren Familien. Die Katastrophe von Fukushima hat uns einmal mehr gezeigt, wie unkontrollierbar und tödlich die Hochrisikotechnologie Atom ist. Wir müssen deshalb alles daran setzen, den Atomausstieg in Deutschland, aber auch in Europa und weltweit so schnell wie möglich umzusetzen und die Energiewende voranzubringen, anstatt sie wie Schwarz-Gelb immer wieder zu hintertreiben. Fukushima mahnt.

https://www.facebook.com/Roth/posts/10151525525735664




Obamas Klimainitiative: Etwas wird ihm schließlich gelingen…..nämlich: Die Energiekosten massiv in die Höhe zu bringen!

Ich wiederhole diese interessanten Diagramme hier:
Link zu den Diagrammen: Viele Leute wissen das nicht

 EU Installationen in erneuerbarer Energie: Megawatt / Million Einwohner.

 

Strompreise in Europa
Private Nutzer incl. Steuern und Abgaben

Interessant, nicht wahr? Aber ich bin ein Zahlenmensch, ich will die Ergebnisse analysieren. Mit den Daten aus diesen Veröffentlichungen und das Hinzufügen der US Daten, habe ich die Beziehung graphisch dargestellt…. Folgende Grafik zeigt das Ergebnis:

 

Grafik Eschenbach: Stromkosten als Funktion der installierten, erneuerbaren Kapazität pro Kopf. nur Wind und Photovoltaik, ohne Wasserkraft [Updated: Australien hinzugefügt und Einheiten korrigiert]

Das ist ein sehr interessantes Ergebnis. Die Kapazität der installierten Erneuerbaren Pro-Kopf erklärt für sich bereits 84% der Variation der Stromkosten. Keine große Überraschung angesichts der verrückt-hohen Kosten der erneuerbaren Energien, aber es ist sehr nützlich für eine weitere Berechnung.

Heute, sagte Präsident Obama, er wolle, dass in Amerika bis zum Jahr 2030 28% der Elektrizität aus erneuerbaren Energien kommt. Er hat seinen Plan nicht detailliert, so dass ich annehme, Wasserkraft ist in Kalifornien und anderen Staaten mit [eigenen] Zielen für Erneuerbare, wie auch bei obiger EU Grafik, nicht in den Zahlen für Erneuerbare enthalten. Und die Energie muss aus Wind und Solar kommen. (Warum? In Kalifornien, erklärten sie, dass Wasserkraft ausgeschlossen wurde, weil es sonst zu einfach wäre, die erneuerbaren Ziele zu erreichen … ernsthaft, das war ihre Erklärung.)

Derzeit erhalten wir etwa 4% unseres Stroms aus Wind und Sonne. Er will es auf 28% anheben, was bedeutet, wir brauchen die installierte Leistung sieben Mal. Derzeit haben wir etwa 231 Watt / Kopf [1] Wind- und Solar installiert (siehe Abbildung 1). Obamas Plan erfordert, dass wir das fast sieben Mal benötigen, 1537 Watt / Kopf [1]. Und unter der Annahme, dass wir die Beziehung in Abbildung 1 verlängern, bedeutet dies, dass der durchschnittliche Strompreis in den USA notgedrungen bis zu nicht weniger als 43 Cent pro Kilowattstunde ansteigt. (Dies umfasst die verborgenen 1,4 Cent / kW Kosten aufgrund der fünf Cent pro Kilowattstunde Zuschuss zu den Solar / Wind Produzenten).

Da die aktuelle durchschnittliche US-Kilowattstunde etwa 12 Cent kostet … bedeutet das, der Preis für Strom wird sich in den nächsten 15 Jahren wahrscheinlich fast vervierfachen

Und da Präsident Obama bekanntlich voraussetzt, dass unter seinem Energieplan die Strompreise zwangsläufig "in die Höhe schnellen" … sieht es so aus, als ob ihm vielleicht endlich etwas gelingen wird.

Da dies illegal oder zumindest stark unsachgemäß durch Obamas präsidialen "Edikt und Erlass" [fiat] geschehen wird, scheint es , das wir nur wenig dagegen tun können, außer, dass Sie Ihre Freunde und Nachbarn wissen lassen, dass dank Obama und der Demokratischen Partei, ihre Stromrechnung in die Höhe schnellt … sonst wird Obama wahrscheinlich alles auf Präsident Bush schieben.

Alles Gute für Sie,

Willis Eschenbach.

Mein übliches Plädoyer: Wenn Sie mit etwas nicht einverstanden sind, zitieren Sie bitte die genauen Worte, denen Sie widersprechen. So können wir alle genau verstehen, gegen was Sie Einwände haben.

Informationen zur Vorhersage: Es ist immer gefährlich, zu versuchen, die Zukunft vorauszusagen. In diesem Fall haben wir ein paar Probleme: Erstens wissen wir nicht, ob diese Beziehungen auch weiterhin in der Zukunft zutreffen werden. Und wir wissen nicht, ob Amerikas Weg wie die der anderen Länder sein wird. Die gute Nachricht ist die Tatsache, dass es 19 Länder gibt, die stark sowohl in der installierten Leistung als auch der wirtschaftlichen Entwicklung abweichen, das gibt einigen Trost.

Als nächstes die Ausreißer. Ich habe getestet, indem ich Dänemark und Deutschland entfernt habe, um zu sehen, ob es den Trend verändert, … es verändert kaum. Das war sehr ermutigend, weil es bedeutet, dass wir die gleiche Beziehung erhalten, wenn wir die Daten von 600 kW / Kopf (Spanien etc.) hochrechnen, auf etwa 1000 kW / Kopf, eine Projektion von etwa 60% mehr. Da die Hochrechnung der projizierten US-Kapazität / Kopf (1000 auf 1500 kW / Kopf) etwa die gleiche Größe ist, erhöht dies das Vertrauen in die Schätzung.

Schließlich müssen wir einige Annahmen über US Stromverbrauch im Jahr 2030 treffen. Es wird sich erhöhen … aber um wie viel? Glücklicherweise ist die unabhängige Variable der erneuerbaren Kapazität pro Kopf fixiert. Dies bedeutet, dass die Verlängerung der Zeile enthält die stillschweigende Annahme enthält, dass der Stromverbrauch sich mit etwa der gleichen Rate wie die Bevölkerung zunimmt Während wir keine Möglichkeit haben um zu wissen ob dies wahr ist, hat der US-Stromverbrauch pro Kopf sich in den letzten zwei Jahrzehnten abgeflacht, so ist es eine vernünftige Annahme.

Erschienen auf WUWT am 3. August 2015

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/08/03/obama-may-finally-succeed/

[1] update vom 15.08.2015, Demmig
– im Original kW;  in W korrigiert, siehe #3 Kühn 

Einen ähnlichen Beitrag gab es bereits im April 2014 auf EIKE, allerdings damals noch weniger dramatisch als es Willis Eschenbach beschreibt.

Studie-der-windindustrie-zeigt-strompreise-in-windkraft-staaten-explodieren

http://tinyurl.com/p2jv5q5




Taschenrechner-Klimamodell stellt Milliarden Dollar teure Elektronengehirne in den Schatten

Das unüberbietbar einfache Klimamodell zeigte nicht nur, dass es in diesem Jahrhundert nur zu einer Erwärmung unter 1°C kommen würde anstelle der 2°C bis 6°C, die die „offiziellen“ Modelle prophezeit hatten. Sondern es zeigte auch, warum diese offiziellen Modelle so falsch liegen.

Im April haben die Klima-Campaigner eine Studie veröffentlicht, die darauf abzielte, dieses einfache Modell zu widerlegen, und zwar mit der Aussage, dass die skeptischen Forscher dieses nicht mit gemessenen Temperaturen während des vorigen Jahrhunderts verglichen hätten.

Jetzt haben sich Christopher Monckton of Brenchley, Dr. Willie Soon vom Harvard-Smithsonian Center for Astrophysics, Dr David Legates, Geographieprofessor an der University of Delaware und Dr. Matt Briggs, Statistician to the Stars, mit einer neuen, im Science Bulletin veröffentlichten Studie zu Wort gemeldet. Sie trägt den Titel [übersetzt] „Bleiben wir beim Einfachen: Der Wert eines unüberbietbar einfachen Klimamodells“, welches erklärt, dass ein einfaches Modell nicht mit Temperaturen der Vergangenheit überprüft worden ist, weil es auf der Basis grundlegender physikalischer Prinzipien erstellt worden ist.

Anders als die komplexen Klimamodelle, von denen jedes im Betrieb so viel Strom verbraucht wie eine kleine Stadt, ist das neue „grüne“ Modell – welches seine Konstrukteure auf einem einfachen Solar-Taschenrechner laufen lassen – nicht wiederholt angepasst worden (d. h. nach dem Ereignis verbogen), bis es zu den Daten der Vergangenheit passte.

Lord Monckton, der das neue Modell eingeführt hatte, und Leitautor der Studie sagte: „Jedes Mal, wenn ein Modell erzwungen verbogen wird, um zu Daten der Vergangenheit zu passen, entfernt man sich von wahrer Physik. Die komplexen Modelle werden manipuliert, bis sie zur Vergangenheit passen – aber sie können die Zukunft nicht vorhersagen. Sie übertreiben“.

„Wir haben einen wissenschaftlicheren Weg gewählt, die Physik zu nutzen, und nicht den Weg der Kurven-Anpassung. Aber als die Klima-Campaigner verlangten, dass wir unser Modell mit ,Nachhersagen‘ verifizieren, haben wir vier Testläufe mit unserem Modell durchgeführt – einen davon gegen Prophezeiungen des UN-Klimagremiums im Jahre 1990 und drei gegen aktuelle Daten. Alle vier Male hat unser Modell die Erwärmung der realen Welt im Nachhinein akkurat abgebildet.

Im ersten unserer vier Testläufe lag die Vorhersage aus dem Jahr 1990 durch das IPCC immer sehr viel weiter entfernt von der Realität als die Central Estimate unseres einfachen Modells“.

Bild oben rechts: Vier Testläufe von ,Nachhersagen‘ unseres einfachen Modells (durchgezogen eingerahmte Kästen: links) im Vergleich mit der beobachteten Erwärmung. Abweichungen vom grünen Balken (dem korrekten Wert) in Grad C. Lauf 1: von 1990 bis 2015 im Vergleich zu den IPCC-Prophezeiungen 1990 bis 2015 (gestrichelt eingerahmte Kästen: oben links) auf der Grundlage einer gradlinigen Erwärmung von 1,0°C (0,7; 1,5) bis zum Jahr 2025. Läufe 2 bis 4: auf der Grundlage der aktuellen Schätzungen des IPCC aller anthropogenen Antriebe von 1750 bis 1950 (2); 1980 (3); und 2012 (4). Die Nachhersagen des einfachen Modells (1 bis 4; links) passen durchweg zur Erwärmung in der realen Welt (der grüne Balken), gemessen vom terrestrischen HadCRUT4-Datensatz (Lauf 1) und dem RSS-Satelliten-Datensatz (Läufe 2 bis 4). Aber die IPCC-Prophezeiungen (oben links) haben sich als weit über der wahren Position liegend erwiesen. Dr. Willie Soon war Opfer einer gut finanzierten und zentral koordinierten Kampagne von Verleumdungen bis hin zu dem absurden Vorwurf, er habe nicht angegeben, dass ihm ein Versorgungsunternehmen Geld zugesteckt hat für einen Beitrag für die Studie der skeptischen Forscher im Januar. Ziel diese Kampagne war es, die Aufmerksamkeit von den Ergebnisse dieser Studie abzulenken, die da zeigten, dass der Klimaalarm auf einer Reihe elementarer Fehler beruhte im Zentrum der komplexen Modelle. Tatsächlich haben sich alle vier Forscher an der Januar-Studie beteiligt, in ihrer eigenen Freizeit und auf ihre eigenen Kosten.

Dr. Soon sagte: „Was die Campaigner interessiert, ist die Kampagne, aber was die Wissenschaftler interessiert ist die Wissenschaft. Die Vorhersage unseres kleinen Modells für die nächsten 85 Jahre mit einer Erwärmung von 0,9°C bis zum Jahr 2100 dürfte vermutlich viel näher am wirklichen Wert liegen als die Prophezeiung der Campaigner mit einer Erwärmung von 4°C“:

Dr. Matt Briggs sagte: „Die versuchte Widerlegung der Klima-Campaigner unserer Originalstudie war durchsetzt mit zahlreichen allgemeinen wissenschaftlichen Fehlern. Hier sind nur einige davon gelistet:

● Die Campaigner haben sich ein Szenario herausgepickt anstatt viele Szenarien zu betrachten in dem Versuch zu zeigen, dass die großen Modelle besser sind als unser einfaches Modell. Aber selbst in diesem speziellen Fall waren die großen Modelle kaum besser als unser einfaches Modell.

● Sie haben uns vorgeworfen, unser Modell solange zu verzerren, bis es zu den Daten der Vergangenheit passt. Stattdessen haben wir Physik angewendet.

● Sie sagten, wir sollten unser Modell mit der Erwärmung in der realen Welt vergleichen. Das haben wir getan. Es hat funktioniert.

● Sie haben unser einfaches Modell kritisiert, aber sie hätten viel eher die weit weniger zuverlässigen komplexen Modelle kritisieren sollen.

● Sie beklagten, dass unser einfaches Modell „viele Physikalische Prozesse“ ausgelassen habe. Natürlich hat es das: es war einfach. Sein Vorzug liegt in der Zurückweisung des Unnötigen und in der Konzentration auf die wesentlichen Prozesse.

● Sie vermuteten, dass Erwärmungsraten der Zukunft zuverlässig aus Erwärmungsraten in der Vergangenheit abgeleitet werden können. Und doch gibt es da schwerwiegende Mess- und Bias-Unsicherheiten, vor allem in den Daten vor dem Jahr 1979.

● Sie vermuteten, dass man natürliche und anthropogene Klima-Einflüsse voneinander unterscheiden kann. Man kann nicht.

● Sie sagten, wir hätten nicht einen einzelnen Impuls anthropogenen Antriebs nehmen sollen. Das aber tun die meisten Modelle.

● Sie sagten, dass unser Modell nicht „validiert“ wäre, obwohl ihre eigener Test gezeigt hatte, dass es sehr wohl gut funktioniert hat.

● Sie sagten, sie würden unserem Modell nicht zustimmen, obwohl sie kaum unsere Parameter in Abrede gestellt haben.

● Sie sagten, wir sollten nicht Temperaturtrends der Vergangenheit in die Zukunft projizieren. So etwas haben wir nie getan.

● Sie haben ,kleinste Fehlerquadrat-Statistiken‘ verwendet (RMSE), aber RMSE-Statistik ist ein schlechtes Verfahren zur Validierung.

● Sie bezogen sich fälschlicherweise auf die Verstärkung in einem geschlossenen System als die "Systemverstärkung", aber in rückgekoppelten Systemen ist die Verstärkung des offenen Regelkreises die Systemverstärkung.

● Sie beschrieben unsere Verfahren falsch, mit denen wir eine negative Gesamt-Rückkopplung gefunden hatten.

● Sie behaupteten, dass ein Zeitraum von 810.000 Jahren genauso gut sei wie einer von 55 Millionen Jahren. Das ist falsch.

● Sie sagten, dass wir eine von uns zitierte Studie falsch interpretiert hätten, aber ihr Zitat aus jener Studie hat eine zentrale Aussage ausgelassen, die unsere Interpretation der Ergebnisse der Studie bestätigte.

● Sie sagten, dass insgesamt negative Rückkopplungen niemals das Ende einer Eiszeit gestattet hätten. Und doch beschrieb die von ihnen selbst zitierte Studie zwei Nicht-Rückkopplungs-Gründe für eine plötzliche globale Temperaturänderung.

● Sie sagten, dass Temperatur-Messbojen eine ,Insgesamt-Erwärmung‘ von einem halben Watt pro Quadratmeter in den Ozeanen gefunden hätten: aber Watt pro Quadratmeter messen keine ,Erwärmung‘; sie messen den Wärmefluss.

● Sie implizierten, dass die ,Erwärmung‘ der Ozeane signifikant sei, aber über den gesamten 11-jährigen Zeitraum von zuverlässigen Wassertemperaturwerten der ARGO-Bojen lag die Erwärmungsrate lediglich äquivalent zu nur 1°C pro 430 Jahre.

● Sie sagten, dass die komplexen Modelle die Erwärmung seit dem Jahr 1998 korrekt vorhergesagt hätten, aber seit Januar 1997 hat es keinerlei globale Erwärmung mehr gegeben. Keines der komplexen Modelle hat das vorhergesagt.

● Sie haben die komplexen Modelle gepriesen, hatten aber nicht erwähnt, dass sich die zentrale Vorhersage bzgl. der Erwärmung im Jahre 1990 als fast dreimal so hoch wie die tatsächliche Erwärmung erwiesen hat während der seitdem vergangenen 25 Jahre.

● Sie konnten nicht erklären, wie eine substantielle Reduktion der Temperatur-Rückkopplungen als Folge eines unveränderten Antriebs zu einer unverändert hohen Klimasensitivität führen soll, wie sie es implizieren.

Prof. David Legates sagte: „Wie wir in unserer neuen Studie zeigen, stehen die komplexen allgemeinen Zirkulationsmodelle jetzt vor einer Glaubwürdigkeits-Krise. Es ist irritierend, dass deren Erschaffer immer höheres Vertrauen in diese Modelle zum Ausdruck bringen, erweisen sich diese Modelle doch als immer stärker übertreibend. Es ist an der Zeit, dies zu überdenken. Unser Modell zeigt, dass es kein vom Menschen verursachtes Klimaproblem gibt. Bislang hat es sich als korrekt erwiesen, was mehr ist als man von den Milliarden teuren Supergehirnen sagen kann, die von den Profiteuren des Untergangs betrieben werden“.

Die neue Studie ist frei zugänglich: http://link.springer.com/article/10.1007/s11434-015-0856-2

Halten wir es einfach: Der Wert eines nicht weiter vereinfachbaren Klimamodells

Christopher Monckton of Brenchley,Willie W.-H. Soon,David R. Legates,William M. Briggs

Abstract

Richardson et al. (Sci Bull, 2015. doi:10.​1007/​s11434-015-0806-z) suggerieren, dass das unüberbietbar einfache, von Monckton of Brenchley et al. (Sci Bull 60:122–135, 2015. doi:10.​1007/​s11434-014-0699-2) beschriebene Klimamodell nicht mit Beobachtungen validiert worden ist und sich stattdessen auf synthetische Testdaten stützt auf der Grundlage einer unterschätzten globalen Erwärmung, unlogischer Auswahl von Parametern und fast sofortiger Reaktionen, die im Gegensatz stehen zur Erwärmung der Ozeane und anderer Beobachtungen. Allerdings konnte das einfache Modell mit den von den Autoren eingegebenen Parametern allgemein beobachtete Temperaturänderungen besser abbilden als die Allgemeinen Zirkulationsmodelle, die eine implausibel hohe Klimasensitivität findent. Mit der Auswahl der Parameter seitens des IPCC wird das Modell weiter validiert dadurch, dass es ordnungsgemäß das Sensitivitäts-Intervall des IPCC nachbildet. Auch ist eine schnelle Klimareaktion konsistent mit einer Temperaturrückkopplung, die nahe Null liegt oder negativ ist. Angesichts der großen Unsicherheiten bei den Ausgangsbedingungen und evolutionärer Prozesse, die die Klimasensitivität bestimmen, die Gegenstand offensichtlicher Schwächen eines einfach auf die Sensitivität konzentrierten Modells sind, muss es nicht signifikant weniger Vorhersageleistung zeigen als die allgemeinen Zirkulationsmodelle; und unser Modell tut das auch nicht.

Link: http://wattsupwiththat.com/2015/08/06/pocket-calculator-climate-model-outperforms-billion-dollar-brains/

Übersetzt von Chris Frey EIKE




Um Antwort wird gebeten: “Kleine Anfrage” bei der Deutschen Bundesregierung zum Klimawandel

1) Sie schreiben:

Naturkatastrophen nehmen zu und verursachen enorme Kosten.

Laut Aussage der Munich Re hat es in den letzten drei Jahren 2012-2014 eher weniger als mehr Naturkatastrophen gegeben. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen“.

Siehe: http://www.fr-online.de/klimawandel/wetterextreme-weniger-schaeden-durch-naturkatastrophen,1473244,29500598.html

2) Sie schreiben:
Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen der US-Weltraumbehörde NASA und des US-Wetteramtes NOAA.”

Die NASA hat sich hier mittlerweile selbst korrigiert und stellt den “Wärmerekord” jetzt offen in Frage. Sie erklärte, aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Klimaexperten der BEST-Projekts der University of California in Berkely äußern sich ähnlich: “…it is impossible to conclude from our analysis which of 2014, 2010, or 2005 was actually the warmest year”. (Übersetzung: …es ist unmöglich zusagen, aus unserer Analyse zu folgern, welches der Jahre 2014, 2010 oder 2005 das tatsächlich wärmste Jahr war).

Siehe: http://www.kaltesonne.de/nasa-rudert-zuruck-2014-war-moglicherweise-doch-nicht-das-warmste-jahr-der-messgeschichte-experten-erwarmungspause-setzt-sich-noch-5-10-oder-15-jahre-fort/

3) Sie schreiben (mit Bezug auf Deutschland):

Extreme Wetterereignisse häufen sich

Auf welche wissenschaftlichen Arbeiten und Zeiträume beziehen Sie sich? Meines Wissens fanden die meisten Studien für die vergangenen 100 Jahre KEINE Zunahme der Wetterextreme in Mitteleuropa. Siehe http://www.kaltesonne.de/klimawandel-in-deutschland-eine-geowissenschaftliche-betrachtung/ und z.B. http://www.kaltesonne.de/?p=15331 und http://www.kaltesonne.de/?p=14602

4) Sie führen in den Einschubboxen “Dauerregen und Sturmfluten nehmen zu” und “Die fünf größten Naturkatastrophen 2014” Beispiele für Extremwetterereignisse auf. Derartige Aufstellungen lassen sich nun aber für jedes beliebige Jahr erstellen. Klimatisch relevant sind in diesem Zusammenhang vor allem Langzeittrends der letzten 100-300 Jahre. Wie sehen diese aus? Was ist die Intention Ihrer Auflistungen?

5) Sie schreiben:

“Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.”

Wissenschaftliche Arbeiten zeigen jedoch, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert. Siehe http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/

Insbesondere ist keine Zunahme der Zyklone zu beobachten. Siehe: http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

6) Sie zitieren Peter Höppe von der Munich Re: “Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu“. Was ist mit anderen Gebieten der Erde? Wie sieht es im globalen Durchschnitt aus? Kann ausgeschlossen werden, dass es sich um natürliche Schwankungen/Verschiebungen handelt? Auf Letzteres deutet z.B. eine Studie aus Brasilien, die fand, dass die Blitzhäufigkeit in Brasilien während der vergangenen 60 Jahre im Takte der Sonnenaktivität variierte.
Siehe: http://www.kaltesonne.de/?p=14624

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

———————————

Da wir leider keine Antwort erhielten, versuchten wir es im Juni 2015 erneut über die Plattform direktzu.de. Dort antwortete uns die Kanzlerin Angela Merkel bzw. Ihre Pressestelle, es hätte bereits eine Antwort im März auf die ursprüngliche Anfrage im März gegeben, die jedoch leider nie ankam. Wir haben daher die Bundespressestelle gebeten, uns diese Antwort erneut zuzuleiten. Weiterhin haben wir – wie von Dr. Merkel vorgeschlagen – die Fragen dem Umweltbundesamt vorgelegt. Wir hoffen, von dort endlich Antwort auf diese wichtigen Fragen zu erhalten.

(Siehe Graphik oben rechts!)

———————————

Nachdem wir wegen der vermissten Email noch einmal nachgehakt hatten, erreichte uns am 24. Juni 2015 das folgende Schreiben der Bundespressestelle:

An: Sebastian Lüning
Von: Bundespressestelle

Gesendet: 24.6.2015

Sehr geehrter Herr Dr. Lüning ,

vielen Dank für Ihre E-Mail zu einem Thema der Umweltpolitik. Nach der Aufgabenverteilung innerhalb der Bundesregierung ist das Ministerium für die Bearbeitung von Anfragen und Stellungnahmen zuständig, in dessen Aufgabenbereich das Anliegen fällt. Für viele Themenbereiche und Fragestellungen hat die Bundesregierung ein umfangreiches Informationsangebot entwickelt, das Ihnen einen schnellen Zugriff auf unser Wissen ermöglicht. In Ihrem Fall möchte ich Ihnen dazu den Internetlink http://www.bmub.bund.de/ empfehlen. Sollten Sie hier die gewünschten Informationen bzw. Klärungen nicht finden, möchte ich Ihnen raten, sich mit Ihrem Anliegen direkt an das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) zu wenden. Sie können das Ministerium per E-Mail über service@bmub.bund.de erreichen.

Mit freundlichen Grüßen
Im Auftrag

Sylke Häring

Bürgerservice
Presse- und Informationsamt
der Bundesregierung

Deutschland im Dialog:
Jetzt mitmachen unter
www.gut-leben-in-deutschland.de

———————————

Von: Sebastian Lüning
An: Sylke Häring, Bürgerservice Presse- und Informationsamt der Bundesregierung

Gesendet: 5.7.2015

Sehr geehrte Frau Häring,

Vielen Dank für Ihre Mail, auch wenn Sie mir bei meinen Fragen nicht weiterhelfen konnten. Ich habe mich wie von Ihnen vorgeschlagen an das BMUB und UBA gewandt. Leider habe ich auch von dort keine Antwort erhalten. Woher bekomme ich nun meine Antworten?

Die Sachlage ist klar: Die Bundesregierung hat auf ihrer Webseite einen Artikel veröffentlicht, der wissenschaftlich fragwürdige Behauptungen enthält. Sie sollten sich der Verantwortung stellen und meine Einwände ernst nehmen. Der Klimawandel ist ein zu wichtiges Thema, um beliebige Behauptungen auf staatlichen Webseiten aufzustellen und sich danach bei fachlicher Kritik vor der Diskussion zu drücken. Ich würde Sie daher bitten, mich mit dem Autor des Artikels in Kontakt zu bringen, um die Fragen wissenschaftlich klären zu können. Vielen Dank im voraus.

Mit freundlichen Grüßen

Dr. habil. Sebastian Lüning

———————————

Nachdem wir am 5.7.2015 nachgehakt hatten (siehe oben) teilte uns Ilka Wagner am 31. Juli 2015 mit, dass das BMUB bereits am 24. Juni 2015 detailliert auf unsere Fragen geantwortet hatte. Die Mail muss wohl im Spam-Filter verschwunden sein. Wir bedauern dies sehr und werden entsprechende Verbesserungen unserer Email-Kommunikationspfade vornehmen. Wir freuen uns sehr über die Antwort.

Von: Ursula Fuentes Hutfilter
An: Sebastian Lüning

Gesendet: 24. Juni 2015

Betreff: Ihr Schreiben vom 1. Mai zum Artikel Kampf gegen die Erderwärmung

Sehr geehrter Herr Lüning,

Vielen Dank für Ihr Schreiben vom 1. Mai 2015 an Frau Bundesministerin Dr. Hendricks. In welchem Sie den Artikel „Kampf gegen Erderwärmung: Klimaschutz hat Priorität“ auf der Website der Bundesregierung kritisieren (zugänglich unter: http://www.bundesregierung.de/Content/DE/Artikel/2015/02/2015-02-24-klima-sucht-schutz.html). Ich wurde gebeten Ihnen zu antworten. Dabei werde ich mich eng an Ihre Aussagen halten (jeweils unten abgedruckt) und dann jeweils darauf reagieren.

Ihre Aussage 1:
“Naturkatastrophen nehmen zu und verursachen enorme Kosten.”
Laut Aussage der Munich Re hat es in den letzten drei Jahre 2012-2014 eher weniger als mehr Naturkatastrophen gegeben. Die Frankfurter Rundschau titelte dazu am 7. Januar 2015: “Wetterextreme: Weniger Schäden durch Naturkatastrophen”.
Siehe: http://www.fr-online.de/klimawandel/wetterextreme-weniger-schaeden-durch-naturkatastrophen,1473244,29500598.html

Unsere Antwort:
In dem von Ihnen zitierten Beitrag in der Frankfurter Rundschau heißt es weiter:

„Bei den Schadensstatistiken ist zum einen viel Zufall im Spiel – ob verheerende Stürme über Städte hinweg ziehen oder wie 2014 sich meistens über Ozeanen austoben, sagt Peter Höppe. Rein von der Anzahl her, hat der Risikoforscher der Munich Re 2014 erstmals fast 1000 schadensrelevante Naturkatastrophen registriert, die meist wetterbedingt waren. Im Schnitt der vergangenen zehn Jahre waren es 830 solcher Ereignisse, blickt man auf die letzten drei Jahrzehnte, kommt man sogar nur auf 640. Die Zahl der Naturkatastrophen nimmt also weiter zu und dass das mit dem Klimawandel in Verbindung steht, bezweifelt kein ernsthafter Experte.“

In der zugehörigen Pressemitteilung der Munich Re vom 7.01.2015 ist festgehalten (https://www.munichre.com/de/media-relations/publications/press-releases/2015/2015-01-07-press-release/index.html):

„Insgesamt wurden (2014) 980 schadensrelevante Naturkatastrophen registriert, deutlich mehr als im Durchschnitt der vergangenen 10 und 30 Jahre (830 bzw. 640). Mehr als neun von zehn (92 %) der schadenrelevanten Naturkatastrophen entfielen auf Wetterereignisse. Auffällig war die deutlich unterdurchschnittliche Hurrikan-Saison im Nordatlantik, wo sich nur 8 starke und daher benannte Stürme bildeten; der langfristige Durchschnitt (1950-2013) liegt bei 11. Dagegen war die tropische Wirbelsturmsaison im Ostpazifik von weit überdurchschnittlich vielen Stürmen geprägt, die meist aber nicht auf Land trafen.“

Aus den beiden Zitaten geht hervor, dass es nicht weniger, sondern mehr Naturkatastrophen gegeben hat. Die letzten drei Jahre werden dabei gar nicht thematisiert, sondern die letzten 30, die letzten 10 Jahre sowie 2014 mit Steigerungen von 640, über 830 auf 980 Naturkatastrophen. Im Jahr 2014 gab es lediglich weniger Schäden, was unter anderem damit zusammenhängt, dass Wirbelstürme im Ostpazifik nicht auf Land trafen. Zudem werden die Frühwarnsysteme verbessert, und die Menschen können besser Vorkehrungen treffen.

Ihre Aussage 2:
“Das Jahr 2014 war weltweit das wärmste seit 1881, dem Beginn der regelmäßigen Messungen. Das ergaben Untersuchungen der US-Weltraumbehörde NASA und des US-Wetteramtes NOAA.”
Die NASA hat sich hier mittlerweile selbst korrigiert und stellt den “Wärmerekord” jetzt offen in Frage. Sie erklärte, aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Klimaexperten der BEST-Projekts der University of California in Berkely äußern sich ähnlich: “…it is impossible to conclude from our analysis which of 2014, 2010, or 2005 was actually the warmest year”.
Siehe: http://www.kaltesonne.de/nasa-rudert-zuruck-2014-war-moglicherweise-doch-nicht-das-warmste-jahr-der-messgeschichte-experten-erwarmungspause-setzt-sich-noch-5-10-oder-15-jahre-fort/

Unsere Antwort:
Alle drei langjährigen Temperaturzeitreihen der NASA (Goddard Institute for Space Studies – GISS, http://data.giss.nasa.gov/gistemp/graphs_v3/Fig.A2.gif), der Universität von East Anglia und des Britischen Meteorologischen Dienstes (Climate Research Unit at the University of East Anglia und Hadley Center – HadCRUT, http://www.cru.uea.ac.uk/cru/data/temperature/HadCRUT4.png) und der amerikanischen Ozean-Atmosphärenbehörde NOAA (National Oceanic and Atmospheric Administration, http://www.ncdc.noaa.gov/sotc/global/2014/13/supplemental/page-4) weisen 2014 als das wärmste Jahr seit Beginn der regelmäßigen Aufzeichnungen im 19. Jahrhundert aus. Die NOAA teilt dazu im Einzelnen mit (http://www.ncdc.noaa.gov/sotc/global/201413):
„Das Jahr 2014 war, gemittelt über die globale Land- und Ozeanoberfläche, das wärmste Jahr seit Beginn der Aufzeichnungen 1880. Das globale Mittel der bodennahen Lufttemperatur lag 0,69 °C über dem Mittel des 20. Jahrhunderts von 13,9 °C und brach damit unschwer die vorangegangenen Rekorde von 2005 und 2010 um 0,04 °C. Es ist das 38. Jahr in Folge (seit 1977), dessen globales Mittel über dem langjährigen Durchschnitt lag. Mit 2014 traten neun der zehn wärmsten Jahre in der 135-jährigen Geschichte der Aufzeichnungen im 21. Jahrhundert auf. 1998 rangiert gegenwärtig auf Platz 4 der wärmsten Jahre.
Auch die globale Ozeanoberflächentemperatur erreichte 2014 Rekordniveau mit 0,57 °C über dem Mittel des 20. Jahrhunderts von 16,1 °C und mit 0,05 °C über den vorangegangenen Rekorden von 1998 und 2003. Bemerkenswert ist, dass über das gesamte Jahr 2014 ENSO-neutrale Bedingungen herrschten.“

Die folgenden Internetseiten enthalten die den Zeitreihen zugrunde liegenden Temperaturabweichungen zum detaillierteren Vergleich:
HadCRUT: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.3.0.0.annual_ns_avg.txt
NASA:   http://data.giss.nasa.gov/gistemp/graphs_v3/Fig.A2.txt
NOAA: Die NOAA teilt dazu im einzelnen www.mitncdc.noaa.gov/sotc/global/201413

Ihre Aussage 3:
Sie schreiben (mit Bezug auf Deutschland):
“Extreme Wetterereignisse häufen sich”
Auf welche wissenschaftlichen Arbeiten und Zeiträume beziehen Sie sich? Meines Wissens fanden die meisten Studien für die vergangenen 100 Jahre KEINE Zunahme der Wetterextreme in Mitteleuropa. Siehe http://www.kaltesonne.de/klimawandel-in-deutschland-eine-geowissenschaftliche-betrachtung/ und z.B. http://www.kaltesonne.de/?p=15331 und http://www.kaltesonne.de/?p=14602

Unsere Antwort:
Die Aussage, dass sich extreme Wetterereignisse häufen, ist nicht nur auf Deutschland bezogen, sondern auch auf andere Regionen der Welt. Als Beispiel werden im selben Abschnitt neben Deutschland ja auch extreme Wettereignisse in Form von Starkregenereignissen, Tornados und Gewitterstürmen in Europa genannt. In diesem Zusammenhang heißt es in einer Pressekonferenz des Deutschen Wetterdienstes (http://www.dwd.de/bvbw/generator/DWDWWW/Content/Presse/Pressekonferenzen/2012/PK__03__05__12/Rede__Schreiber__20120503,templateId=raw,property=publicationFile.pdf/Rede_Schreiber_20120503.pdf):

„Die Klimaforscher haben eine Tendenz zur Zunahme von zentral über Mitteleuropa liegenden, feuchten Tiefdruckgebieten beobachtet. Die mittlere jährliche Zahl stieg von 1951 bis 2011 um 20 Prozent. Das wird sich, wenn die Klimaprojektionen Recht behalten, bis zum Ende des Jahrhunderts fortsetzen. Solche Tiefdruckgebiete enthalten überdurchschnittlich hohe Feuchtigkeit – die beste Voraussetzung für gefährliche Starkniederschläge. Wir müssen also künftig mit mehr Überschwemmungen rechnen – wenn wir uns darauf nicht vorbereiten. Kennzeichnend für diese Wetterlagen sind überdurchschnittlich kräftige Niederschläge, im Sommerhalbjahr verbunden mit Gewittern und stürmischen Winden. Diese Wetterlage kann sich immer wieder auch zu sogenannten Vb-Lagen entwickeln. Dabei entsteht ein Tief über dem Mittelmeer und zieht über den Balkan in das östliche Mitteleuropa. Diese Vb-Lagen können sehr hohe Niederschlagsextreme in Mitteleuropa mit riesigen Schäden verursachen. Beispiele sind die Hochwasser an der Oder im Jahr 1997 und an der Elbe im Jahr 2002. Die Szenarien deuten an, dass wir künftig öfter mit solchen extremen Wetterlagen vor allem im Winterhalbjahr rechnen müssen.“

Der 5. Sachstandsbericht des IPCC, in dem ja eine Vielzahl von Studien ausgewertet wurde, stellt die Zunahme bestimmter extremer Wetterereignisse fest (http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf). Vergleichsweise gut ist die Datenlage im Hinblick auf Temperaturextrema. So wurde über den meisten Landgebieten, die analysiert wurden, eine signifikante Zunahme der Maximum- und Minimumtemperaturen seit 1950 festgestellt. Mit einer Wahrscheinlichkeit von 66 bis 100 % nahm in Europa, Australien und in den meisten Gebieten Asiens, wo ausreichend Daten vorhanden sind, die Häufigkeit von Hitzewellen seit Mitte des 20. Jahrhunderts zu.

In Nordamerika und Europa nahmen entweder Häufigkeit oder Intensität von Starkniederschlägen mit einer Wahrscheinlichkeit von 66 bis 100 % zu. In Nordamerika ist dies wahrscheinlich im gesamten 20. Jahrhundert der Fall. Für Südamerika zeigen viele neuere Studien eine Zunahme von Häufigkeit und Intensität von Starkniederschlägen über dem gesamten Kontinent.

Jedoch ist es unbestritten, dass die Untersuchung von Extremereignissen komplex ist. Schwierigkeiten verursacht unter anderem der Umstand, dass es in der wissenschaftlichen Literatur nicht in jedem Fall allgemeingültige Definitionen von Extremereignissen gibt. So können beispielsweise extreme Ereignisse von Ort zu Ort variieren. Ein heißer Tag in tropischen Regionen ist durch andere Temperaturen gekennzeichnet als ein heißer Tag in mittleren Breiten. Darüber hinaus gibt es Datenlücken, sich mit der Zeit ändernde Untersuchungs- und Beobachtungsmethoden sowie schwer zu verallgemeinernde Aussagen, weil Studien verschiedene Jahreszeiten und Regionen betreffen. Auf dem Gebiet der Erforschung von Extremereignissen gibt es demnach eine Reihe offener Fragen, deren Bearbeitung in näherer Zukunft sicher zu weiteren und vertieften Erkenntnissen führen wird.

Ihre Aussage 4:
4) Sie führen in den Einschubboxen “Dauerregen und Sturmfluten nehmen zu” und “Die fünf größten Naturkatastrophen 2014” Beispiele für Extremwetterereignisse auf. Derartige Aufstellungen lassen sich nun aber für jedes beliebige Jahr erstellen. Klimatisch relevant sind in diesem Zusammenhang vor allem Langzeittrends der letzten 100-300 Jahre. Wie sehen diese aus? Was ist die Intention Ihrer Auflistungen?

Unsere Antwort:
Die Box dient der besseren Veranschaulichung des Sachverhaltes mit Hilfe einiger Beispiele von extremen Wettereignissen in Deutschland. Es ging hier nicht darum, Langzeittrends der letzten Jahrhunderte anzugeben. Zudem begannen regelmäßige Wetteraufzeichnungen erst im 19. Jahrhundert, so dass belastbare Trends extremer Ereignisse über die letzten 200 oder 300 Jahre in den seltensten Fällen vorliegen dürften. Wir empfehlen jedoch, diese Frage an den Deutschen Wetterdienst zu richten. Im Hinblick auf längerfristige Trends extremer Wettereignisse in verschiedenen Regionen der Welt verweisen wir neben unseren Ausführungen zu Ihrer Frage 3 insbesondere auf den 5. Sachstandsbericht des IPCC, Kapitel 2 „Changes in Extreme Events“, S. 208 – 222 und auf den IPCC Sonderbericht “Management des Risikos von Extremereignissen und Katastrophen zur Förderung der Anpassung an den Klimawandel” (Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation – SREX).
http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf
http://ipcc.ch/report/srex/

Ihre Aussage 5:
5) Sie schreiben:
“Der Klimawandel verursacht hohe Kosten. Die Gesamtkosten durch Naturkatstrophen lagen 2014 weltweit bei 110 Milliarden Dollar. Ein Zyklon in Indien verursachte zum Beispiel einen Schaden von sieben Milliarden Dollar.”
Wissenschaftliche Arbeiten zeigen jedoch, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert. Siehe http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/
Insbesondere ist keine Zunahme der Zyklone zu beobachten. Siehe: http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

Unsere Antwort:
Für das Schadensausmaß durch Extremwetterereignisse spielen sowohl sozioökonomische Faktoren als auch die Häufigkeit und Intensität von Wetterextremen eine Rolle. Das konkrete Schadensausmaß hängt dabei stark von den regionalen Bedingungen ab: naturräumliche Situation, Bevölkerungsdichte, Gebäudebestand etc. Ein Anstieg von Wetterextremen kann ebenso zu einer Zunahme der (versicherten) Schäden führen wie beispielsweise die Zunahme von Bevölkerungs- oder Bebauungsdichte. Das Verhältnis der Einflussfaktoren auf das Schadensausmaß ist regional unterschiedlich und ändert sich auch im Zeitverlauf.

Ihre Aussage 6:
6) Sie zitieren Peter Höppe von der Munich Re: “Schadensrelevante durch Gewitter bedingte Unwetter nehmen in verschiedenen Regionen wie den USA und in Mitteleuropa nachweislich zu”. Was ist mit anderen Gebieten der Erde? Wie sieht es im globalen Durchschnitt aus? Kann ausgeschlossen werden, dass es sich um natürliche Schwankungen/Verschiebungen handelt? Auf Letzteres deutet z.B. eine Studie aus Brasilien, die fand, dass die Blitzhäufigkeit in Brasilien während der vergangenen 60 Jahre im Takte der Sonnenaktivität variierte. Siehe:
http://www.kaltesonne.de/?p=14624

Unsere Antwort:
Nach gegenwärtigem Erkenntnisstand hat die Anzahl intensiver Niederschlagsereignisse seit etwa dem Jahre 1950 über mehr Regionen des Festlandes zu- als abgenommen, besonders über Nordamerika und Europa, wo – allerdings mit regionalen und jahreszeitlichen Unterschieden – Häufigkeit oder Intensität solcher Ereignisse angewachsen sind (http://ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter02_FINAL.pdf). Für die Beurteilung der zu erwartenden Schadenssummen bzw. die lokal vorzunehmenden Anpassungsmaßnahmen ist der globale Durchschnitt naturgemäß irrelevant. Auch werden Häufigkeit und Intensität der Unwetterereignisse wie auch alle lokalen/regionalen Klimaänderungen entscheidend von den Veränderungen der atmosphärischen Zirkulation bestimmt, die immanenter Bestandteil des Klimawandels sind.

Grundsätzlich ist aber davon auszugehen, dass im Falle einer Erwärmung der Atmosphäre auch ihr Wasserdampfgehalt und damit die verfügbare Energie für konvektive Umlagerungen (einschließlich schadensrelevanter Gewitter) zunimmt. Diese Prozesse laufen ab, gleich aus welchem Grund sich die Atmosphäre erwärmt, wenn auch ein erheblicher Anteil der gegenwärtigen globalen Erwärmung mit der anthropogenen Zunahme der Treibhausgaskonzentrationen im Zusammenhang steht. Gleichwohl ist es richtig, dass die veränderte Häufigkeit von Unwetterereignissen mehrere Ursachen einschließlich natürlicher (klimasysteminterner) Schwankungen haben kann.

Mit besten Grüßen

Ursula Fuentes

Dr. Ursula Fuentes Hutfilter
Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit
Leiterin Referat KI I 1
Grundsatzangelegenheiten des Klimaschutzes, Klimaschutzplan
Head of Unit KI I 1
Strategic Aspects of Climate Policy, Climate Action Plan
Köthener Str. 2-3, 10963 Berlin

———————————

Von: Sebastian Lüning
An: Ursula Fuentes

Gesendet: 5.8.2015

Sehr geehrte Frau Fuentes,

Herzlichen Dank für Ihre ausführliche Antwort, die ich wie folgt kommentieren möchte:

AUSSAGE 1:
“Naturkatastrophen nehmen zu und verursachen enorme Kosten.”

Es macht in der Tat Sinn, über die letzten drei Jahre hinweg die Daten der letzten 30 Jahre zu betrachten. Sie zitieren hier statistische Daten eines Wirtschaftsunternehmens, der Munich Re. Es bleibt zunächst offen, ob die Zunahme der von der Munich Re verzeichneten schadensrelevanten Naturkatastrophen vielleicht durch eine verbesserte und detailliertere globale Abdeckung zu erklären wäre. Eine lückenlose Satellitenüberwachung liegt nur für einen Teilbereich der letzten 30 Jahre vor. Aus diesem Grund sind für derartige Betrachtungen wissenschaftlich begutachtete Studien auf jeden Fall vorzuziehen. Der IPCC hat die entsprechenden Studien augewertet und kann (bislang noch) keine statistisch robuste Zunahme von Extremwetterereignissen feststellen, mit Ausnahme von Hitzewellen. Mit Ihrer Aussage widersprechen Sie somit den neuesten Erkenntnissen des IPCC. Hier einige wichtige Zitate aus dem 2. Kapitel des IPCC AR5-Berichts:

Insgesamt sind die eindeutigsten globalen Schwankungen der Klimaextreme bei Messungen der täglichen Temperatur zu sehen, einschließlich bis zu einem gewissen Grad Hitzewellen. Extremereignisse bzgl. Niederschlag scheinen ebenfalls zuzunehmen, doch gibt es hier eine große räumliche Variabilität.

● Es gibt nur begrenzt Beweise für Änderungen von Extremen in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts

● Gegenwärtige Datensätze zeigen keine signifikanten beobachteten Trends der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts … Keine robuste Häufung von jährlichen Ereignissen bzgl. tropischer Stürme, Hurrikanen und schweren Hurrikanen konnten während der letzten 100 Jahre im atlantischen Becken ausgemacht werden.

● Allgemein fehlen weiterhin Beweise, so dass nur geringes Vertrauen besteht hinsichtlich der Trendsignale hinsichtlich Größenordnung und/oder Häufigkeit von Überschwemmungen im globalen Maßstab.

Insgesamt gibt es geringes Vertrauen in die beobachteten Trends kleinräumiger Extremereignisse wie Hagel und Gewitter wegen Inhomogenitäten in historischen Daten und Schwachpunkte im Monitoring-System.

Insgesamt kommt man bei einer gegenwärtigen Bestandsaufnahme zu dem Ergebnis, dass nicht mehr als höchstens geringes Vertrauen besteht im global beobachteten Trend von Dürren seit Mitte des vorigen Jahrhunderts. Ursache sind fehlende Beobachtungen, geographische Inkonsistenzen in den Trends und Abhängigkeiten von äußeren Trends bei der Auswahl der Indizes. Auf der Grundlage aktualisierter Studien sind die Schlussfolgerungen im AR 4 hinsichtlich zunehemnder Dürre-Trends seit den siebziger Jahren möglicherweise übertrieben. Allerdings ist es wahrscheinlich, dass die Häufigkeit und Intensität von Dürren im Mittelmeergebiet und in Westafrika zugenommen sowie im zentralen Nordamerika und Nordwest-Australien seit 1950 abgenommen hat.

Insgesamt ist das Vertrauen in großräumige Änderungen der Intensität extremer außertropischer Zyklonen seit dem Jahr 1900 nur gering.

Siehe auch: http://rogerpielkejr.blogspot.de/2013/10/coverage-of-extreme-events-in-ipcc-ar5.html

AUSSAGE 2:

Wärmerekord 2014

Sie schreiben, dass alle drei langjährigen Temperaturzeitreihen von NASA/GISS, Universität von East Anglia/Britischem Meteorologischem Dienst (HadCRUT), und NOAA 2014 als das wärmste Jahr seit Beginn der regelmäßigen Aufzeichnungen im 19. Jahrhundert ausweisen.Wie bereits in meiner urprünglichen Anfrage ausgeführt, sind die entsprechenden Institutionen hier jedoch selber sehr viel vorsichtiger.

NASA & NOAA: Der Leiter des GISS-Temperatursystems Gavin Schmidt räumte am 18. Januar 2015 ein, dass der Rekord keineswegs gesichert ist. Man sei sich nur zu 38% sicher, dass es zum Rekord gekommen ist. Aus statistischer Sicht sei es wahrscheinlicher – nämlich zu 62% – dass es keinen neuen globalen Temperaturrekord 2014 gegeben hat. Schmidt reagierte damit auf die von Ihnen verlinkte NOAA-Meldung, die insofern überholt ist.

HadCRUT: Das Britische MetOffice formulierte von vorneherein viel vorsichtiger. In einer Pressemitteilung vom 26. Januar 2015 schrieb der Britische Wetterdienst:

http://www.metoffice.gov.uk/news/release/archive/2015/2014-global-temperature

Der HadCRUT4-Datensatz (zusammengestellt vom UK Met.-Office und der Universität von East Anglia) zeigt, dass das vorige Jahr um 0,56°C (±0.1°C) über dem vieljährigen Mittel lag (1961 bis 1990). Nominell rangiert das Jahr 2014 unter den wärmsten Jahren des Datensatzes mit dem gleichen Mittelwert wie 2010, aber die Unsicherheits-Bandbreiten bedeuten, dass es nicht möglich ist zu sagen, welches der vielen letzten Jahre das wirklich wärmste war.

In diesem Kontext ist auch eine am 23. Januar 2015 erschiene Zusatzerklärung von Associated Press zu sehen, in der die Unsicherheit bei der Wärmerekord-Zuteilung eingeräumt wird:

http://bigstory.ap.org/article/d7375a310ef6475c9841accc756c4ba4/heat-noaa-nasa-say-2014-warmest-year-record

In unserem Beitrag weisen wir auch darauf hin, dass der NOAA und der NASA zufolge 2014 das wärmste Jahr jemals war. Dabei wird aber nicht der Unzulänglichkeit Rechnung getragen, dass es in anderen Jahren ähnlich hohe Temperaturen gab – und sie alle innerhalb der Fehlerbandbreite, was die Sicherheit schmälert, dass irgendeines davon das wärmste jemals war. In einer früheren Version wurde die Klimawissenschaftlerin Jennifer Francis von der Rutgers University zitiert, die angemerkt hatte, dass die Fehlerbandbreite es fast unmöglich macht zu bestimmen, ob 2014 das wärmste, das zweit-, dritt- oder sechstwärmste Jahr war. Sie sagte, dass der Trend unabhängig davon eine „klare, konsistente und unumkehrbare“ Erwärmung der Erde zeigt. Dieser Hinweis auf die Fehlerbandbreite wurde in späteren Versionen weggelassen.

Auch die Temperaturexperten des BEST-Projekts der University of California in Berkely haben sich zu diesem Thema geäußert. Die Forscher stellen klar, dass es bei solch geringen Temperaturunterschieden statistisch gar nicht möglich ist, einen Spitzenreiter einwandfrei zu bestimmen. Im BEST-Newsletter vom 14. Januar 2015 schreiben die Forscher:

http://static.berkeleyearth.org/memos/Global-Warming-2014-Berkeley-Earth-Newsletter.pdf

Numerisch lautet unsere Best Estimate der globalen Temperatur 2014, dass sie geringfügig über dem bislang wärmsten Jahr 2010 lag (um 0,01°C), doch beträgt die Fehlerbandbreite 0,05°C. Daher ist es unmöglich, aufgrund unserer Analyse zu sagen, welches der Jahre 2014, 2010 oder 2005 wirklich das wärmste jemals war. Die von uns erreichte Fehlerbandbreite war bemerkenswert klein (0,05°C im 95%-Vertrauensintervall). Teilweise wurde dies erreicht durch die Einbeziehung von Daten von über 30.000 Temperatur-Messstationen und durch die Verwendung optimierter statistischer Verfahren. Das ist natürlich ein Hinweis darauf, dass sich die Temperatur der Erde im vergangenen Jahrzehnt nur sehr wenig verändert hat. Man beachte, dass die zehn wärmsten Jahre alle seit 1998 aufgetreten sind.

Im Lichte dieser starken Einschränkungen wird es schwierig sein, das Jahr 2014 als klares Wärmerekordjahr aufrechtzuerhalten.

AUSSAGE 3:

“Extreme Wetterereignisse häufen sich”

Aus dem Kontext erschien mir diese Aussage auf Deutschland bezogen zu sein, insbesondere weil es in der Folge um Anpassungsbemühungen in Deutschland geht. Aber gerne können wir auf Europa erweitern. In Ihrer Antwort sprechen Sie “extreme Wettereignisse in Form von Starkregenereignissen, Tornados und Gewitterstürmen” an. Laut dem neuesten Klimabericht des Umweltbundesamtes (UBA) kann in Deutschland bislang noch kein statistisch gesicherter Anstieg extremer Niederschläge oder von Trockenperioden verzeichnet werden.

http://www.umweltbundesamt.de/publikationen/monitoringbericht-2015

Ähnlich sieht es bei den Winterstürmen in Deutschland aus, die laut Helmholtz-Zentrum Geesthacht noch nicht vom anthropogenen Klimawandel beeiflusst sind.

https://idw-online.de/de/news606456

In Punkto Tornados gibt es aus Europa wenig Literatur. In den USA ist die Lage jedoch besser bekannt. Hier hat die Anzahl der Tornados in den letzten Jahrzehnten trotz Klimaerwärmung signifikant abgenommen.

http://www.kaltesonne.de/die-grose-tornadoflaute-kein-zusammenhang-zwischen-klimawandel-und-tornadohaufigkeit/

Mir ist zudem keine begutachtete wissenschaftliche Arbeit bekannt, die eine langfristige Zunahme von Gewitterstürmen belegen würde.

Sie fürchten weiter, dass hochwasserfördernde Vb-Wetterlagen häufiger werden könnten. Diese Prognose wird in der Fachwelt nicht unbedingt geteilt. Eine Forschergruppe um Katrin Nissen von der Freien Universität Berlin hatte im April 2012 auf einer Tagung der European Geosciences Union eine Prognose zur weiteren Entwicklung von Vb-Wetterlagen vorgestellt. Dabei fanden Nissen und Kollegen, dass bestehende Klimamodelle die Häufigkeit von Vb-Wetterlagen um das doppelte bis dreifache überschätzen. Zudem sagten die Forscher eine Abnahme der Häufigkeit dieses Phänomens vorher.

http://adsabs.harvard.edu/abs/2012EGUGA..14.7040N

Die überaus vorsichtigen Aussagen des IPCC AR5 zur Extremwetterentwicklung hatte ich bereits in der Diskussion zu Punkt 1 erwähnt. Eine Zunahme der Hitzewellen ist durchaus realistisch. Hier fehlt mir jedoch der Vergleich zur vergangenen (natürlichen) Wärmeperiode vor 1000 Jahren, der Mittelalterlichen Wärmeperiode, als es in Deutschland/Europa bereits schon einmal so warm war wie heute. Es ist davon auszugehen, dass es damals mindestens ähnlich viele Hitzewellen gegeben hat.

Sie beschreiben eine Zunahme der Starkniederschläge für Europa, Nordmerika und Südamerika. Mir ist nicht klar, auf welcher Grundlage diese Trends identifiziert wurden. Die mir bekannten Detailstudien können diese Trends nicht nachvollziehen.

Deutschland: UBA-Studie (siehe oben)

Alpen: http://www.kaltesonne.de/monaco/

Italien: http://www.kaltesonne.de/kein-anstieg-der-extremen-niederschlage-in-norditalien-wahrend-der-vergangenen-90-jahre/

Spanien: http://www.kaltesonne.de/analyse-der-hochwasser-in-spanien-ergibt-keinen-trend-fur-die-letzten-40-jahre/

Zudem sind hier zyklische Elemente in der Vergangenheit gerne übersehen worden:

Südamerika: http://www.kaltesonne.de/sonnenaktivitat-steuerte-den-sudamerikanischen-monsunregen-wahrend-der-letzten-1500-jahre/

Brasilien: http://www.kaltesonne.de/forscherteam-findet-tausendjahrige-bond-klimazyklen-vor-der-kuste-brasiliens/

Nordamerika: http://www.kaltesonne.de/millenniumszyklen-vor-florida-neue-arbeit-dokumentiert-bedeutenden-einfluss-der-sonne-auf-das-klima-vor-7000-jahren/

Studien postulieren sogar eine zukünftige Abnahme extremer Hochwässer:

Europa: http://www.kaltesonne.de/neue-begutachtete-studie-in-nature-climate-change-klimawandel-lasst-hochwasser-in-europe-wohl-seltener-werden/

Schweiz: http://www.kaltesonne.de/neue-schweizerische-studien-kunftig-weniger-hochwasser-in-den-zentralalpen-sonnenaktvitat-ubt-signifikanten-einfluss-aus/

AUSSAGE 4:

Einschubbox Extremwetter

Ich bleibe dabei, dass die Einschubbox mit Aufzählung einiger Extremwettereignisse ohne die Kenntnis von Langzeittrends irrelevant ist. Derartige Aufstellungen lassen sich für jedes beliebige Jahr erstellen und können daher nicht als Beleg für Irgendetwas dienen. Natürlich gibt es bereits Erkenntnisse zu bestimmten Langzeittrends, nämlich mithilfe geologischer Methoden. Diese Trends zeigen in der Regel an, dass die heutige Entwicklung den Bereich der natürlichen Schwankungsbreite noch nicht verlassen hat.

AUSSAGE 5:

Kosten für Extremwetterereignisse

Sie beschränken sich an dieser Stelle auf allgemeine Ausführungen. Daher halte ich als Ergebnis fest:

Wissenschaftliche Facharbeiten zeigen, dass der beobachtete Anstieg der globalen Extremwetterversicherungsschäden fast vollständig auf sozioökonomischen Gründen basiert.

http://www.kaltesonne.de/neue-arbeit-von-roger-pielke-jr-anstieg-der-globalen-extremwetterversicherungsschaden-basiert-fast-vollstandig-auf-soziookonomischen-grunden/

http://www.kaltesonne.de/news-xx2-3/ (MunichRe: “Gründe für die starke Zunahme von Schäden durch Wetterkatastrophen [in Ostasien] sind vor allem soziökonomische Faktoren wie das weiterhin hohe Wirtschaftswachstum und der damit verbundene Anstieg an Werten in exponierten Gebieten”)

Eine Zunahme der Zyklone ist nicht zu beobachten.
http://www.kaltesonne.de/wer-hatte-das-gedacht-studien-konnen-keine-zunahme-der-tropischen-wirbelsturme-im-indischen-und-pazifischen-ozean-finden/

AUSSAGE 6:

Unwetterentwicklung

Hier gibt es für mich noch zu unterschiedliche regionale und zeitliche Entwicklungen, um einen generellen Anstieg zu vermuten. Man sollte zunächst natürliche, ggf. zyklische Entwicklungen besser verstehen, bevor voreilige Trends gemutmaßt werden. Siehe u.a. meinen Artikel “Studies of the past as the key to the future? Geological and historical reconstructions provide valuable support for future trend prediction of natural disasters” in Disaster Advances (Oktober 2013).

http://worldresearchjournals.com/disaseditorials/edtoct2013.pdf

Link: http://www.kaltesonne.de/um-antwort-wird-gebeten-kleine-anfrage-bei-der-deutschen-bundesregierung-zum-klimawandel/

Beitrag zuerst erschienen im Blog „die Kalte Sonne“. Übersetzung der englischen Passagen von Chris Frey EIKE