Klimaforscher Stefan Rahmstorf und Hans Joachim-Schellnhuber fordern mit Klimaaktivisten Berliner Landesregierung zur fossilfreien Wirtschaft und Politik zur Rettung des Weltklimas auf

In den Brief wird die Berliner Landesregierung aufgefordert, kein Geld mehr in Unternehmen zu investieren, die fossile Energieträger verbreiten. Auch die Banken, die solche Investments finanzieren, soll Berlin meiden.

Aus Sicht der Unterzeichner – zu den prominentesten zählen Stefan Rahmstorf und Hans-Joachim Schellnhuber (Klimaberater der Kanzlerin) vom Potsdam-Institut für Klimafolgenforschung (PIK) – sind solche Investments nicht nur fragwürdig, sondern auch riskant: Um das weltweit angestrebte Ziel von maximal zwei Grad globalem Temperaturanstieg einzuhalten, sollen nämlich rund 80 Prozent der fossilen Energieträger im Boden bleiben.

Hier der Brief an die Berliner Landesregierung:

Sehr geehrter Bürgermeister Herr Müller,
Sehr geehrter Senator für Finanzen Herr Kollatz-Ahnen,
Sehr geehrte Abgeordnete und Mitglieder des Senats,

die Stadt Berlin will einen ambitionierten Klimaschutz betreiben und bis zum Jahr 2050 klimaneutral werden. Im Gegensatz dazu steht, dass die Hauptstadt zeitgleich durch ihre Geldanlagen in fossile Brennstoffunternehmen investiert. Berlin sollte Klimaschutz ganzheitlich und konsequent ausführen. Dazu gehört, dass bestehende Investitionen in Unternehmen, die fossile Energieträger fördern, verarbeiten und vertreiben, beendet werden und solche Investitionen auch zukünftig ausgeschlossen werden .

Die Beweislage zur globalen Erwärmung ist überwältigend und wird von der Stadt Berlin anerkannt. Klimarisiken, die sich jenseits der 2°C Leitplanke häufen dürften, werden auch Deutschland betreffen. Der Berliner Senat stellte bereits 2009 fest: „In den zurückliegenden Jahren führte der globale Klimawandel auch in Berlin zu wachsenden Belastungen für verschiedene Bereiche der städtischen Infrastruktur.”

Die internationale Staatengemeinschaft einigte sich auf das Ziel, die Erderwärmung aufgrund dieser Risiken auf 2°C zu begrenzen. Daraus ergibt sich ein Maximalbudget für CO2-Emissionen, das beim Verbrennen aller förderbaren Reserven fossiler Energieträger um ein Vielfaches überschritten würde. Um die 2°C Leitplanke zu beachten, müssen etwa 80% der bekannten Kohle-, Öl- und Gasreserven im Boden bleiben.

Derzeit hält die Stadt Berlin rund 1 Milliarde Euro an investierbarem Finanzanlagevermögen. Den größten Anteil davon stellen mit etwa 600 Millionen Euro die Versorgungsrücklagen des Landes, für Pensionen von Beamten. Knapp 36 Millionen Euro umfasst das Vermögen der Stiftungen Berlins. Den Rest des Anlagevermögens stellen Finanzanlagen der Beteiligungsunternehmen des Landes.Teile dieses städtischen Vermögens werden in Aktien oder Fonds gewinnbringend angelegt. Dabei ermöglicht das Anlagekonzept der Stadt unter anderem Investitionen in Firmen, die zu den 200 Kohle-, Öl- und Gasunternehmen gehören, die den überwiegenden Teil an fossilen Brennstoffreserven halten; zu den bekanntesten darunter zählen BASF, E.ON, Enel, ENI, GDF Suez, Repsol YPF, RWE und Total. Außerdem finden sich in diesen Fonds Kreditinstitute, die die fossile Industrie durch Finanzdienstleistungen wesentlich stützen. Darunter Allianz, Commerzbank, Deutsche Bank, Société Générale und UniCredit. Eine Geldanlage in fossile Brennstoffunternehmen ist jedoch nicht nachhaltig.

Hinzu kommt das ökonomische Risiko. Studien, beispielsweise von Bloomberg und der London School of Economics, weisen auf das Risiko einer Finanzblase hin, welche zu platzen droht: die Kohlenstoffblase (engl.: Carbon Bubble). Die Aktienwerte fossiler Brennstoffunternehmen und die Weltmarktpreise fossiler Energieträger richten sich stark nach den vorhandenen Reserven und der Annahme, diese auch nutzen zu können. Werden regulative Mechanismen für die Einhaltung des 2°C-Ziels ergriffen und folglich die Verbrennung fossiler Energieträger beschränkt, verlieren die Unternehmen massiv an Wert. Die Aktien werden zu sogenannten „stranded assets“ (verlorene Vermögenswerte). Eine Studie der britischen Bank HSBC zeigt, dass der Wertverlust von Unternehmen und Investitionen im fossilen Sektor 40-60% ausmachen könnte.

Schon heute sind die Lebensgrundlagen vieler Menschen durch die Folgen des Klimawandels bedroht. In Teilen Afrikas und Asiens nehmen Desertifikation und extremer Wassermangel durch lange Dürreperioden bereits erschreckende Ausmaße an. Der Meeresspiegelanstieg stellt eine Gefahr für viele Bewohner von Küstenregionen dar. Gletscherregionen stehen vor dem Verlust ihrer Süßwasserreserven. Auch deswegen ist es Zeit zu handeln – das haben bereits Städte wie Seattle, San Francisco und Oxford erkannt und sich deswegen zu Divestment entschlossen.

Aufgrund der ökonomischen Risiken und den desaströsen Folgen für das Erdsystem fordern wir die Entscheidungsträger*innen in Berlin respektvoll auf, Anlagen aus fossilen Brennstoffunternehmen innerhalb der nächsten fünf Jahre abzuziehen und diese Investitionen in Zukunft durch Anlagerichtlinien auszuschließen. Investieren Sie stattdessen in eine nachhaltige Zukunft.

Mit freundlichen Grüßen

Übernommen von ScienceSceptical




Wendepunkt in der Klimadebatte? Klimamodelle nähern sich den Realitäten an

Fachveröffentlichungen gehen bis auf KS ~ 0.5 °C herunter, wohlgemerkt mit Berücksichtigung von Rückkoppelungseffekten (hier). Die hohen IPCC-Werte infolge der so genannten "Wasserdampf-Rückkoppelung" basieren auf folgender Annahme: Die mäßige atmosphärische Erwärmung von einigen Zehntel Grad durch zunehmendes CO2 lässt aus den Ozeanen Wasserdampf aufsteigen – insbesondere in Nähe der Tropen. Als unbestritten stärkstes Treibhausgas würde Wasserdampf dann die Erwärmung durch CO2 verstärken. Jedoch: Auch ein umgekehrter Effekt ist denkbar, wobei der vermehrte atmosphärische Wasserdampf bei in aller Regel ausreichend vorhandenen Kondensations-Kernen zusätzliche Wolkenbildung und Abkühlung bewirkt, nämlich Abschirmung des Sonnenlichtes und damit Gegenkoppelung.

Leider ist die KS nicht direkt messbar. Ferner existiert bis heute keine Fachpublikation, die irgend einen Temperatureinfluss durch anthropogene Emissionen belegen kann. Klimamodelle haben den Nachteil, dass sie die Wirklichkeit nicht oder nur mit künstlichen Korrekturen (fudge factors) beschreiben können. Ihr Versagen betrifft insbesondere die Klimavergangenheit mit 17-jähriger Temperatur-Stagnation, die Eintrittszeitpunkte des El Nino und den nicht vorhandenen HotSpot in den Tropen. Auf keinen Fall stimmen die Beobachtungen mit den Rückkoppelungsmodellen überein, so dass die betreffenden Klimamodelle insbesondere hinsichtlich der KS zu revidieren sind 

Arbeiten zur KS gabe es schon vielfach [1], insbesondere eine frühe Arbeit von Richard Lindzen, die sich auf den von Lindzen so benannten "Iris-Effekt" stützt (hier). Diese Arbeit kommt zu dem Ergebnis einer w.o.a. grundlegenden "Gegenkoppelung", und sie wurde damals von den Alarmisten heftig kritisiert und angegriffen. Umso erstaunlicher ist es, dass soeben in einer Fachpublikation von Mitarbeitern des Max-Planck-Instituts für Meteorologie in Hamburg der Iris-Effekt "wieder entdeckt" wurde. 

Zu dieser Fachpublikation haben Bosse und Vahrenholt auf dem Blog "kalte Sonne" eine ausführliche Zusammenstellung verfasst, die nachfolgend unverändert übernommen wird.

Horst-Joachim Lüdecke und Klaus-Eckart Puls (EIKE)

[1] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk

R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

R.W. Spencer, and W.D. Braswell: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sensing 3(8) (2011), http://tinyurl.com/9cvuz32

R.W. Spencer, and W.D. Braswell: On the diagnosis of radiative feedback in the presence of unknown radiative forcing, Journal of Geophysical Research, Vol. 115 (2010), http://tinyurl.com/8kd694d

G. Paltridge et al.: Trends in middle- and upper-level tropospheric hunmidity from NCEP reanalysis data, Theor. Appl. Climatol. 98 (2009),http://www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

H. Harde: How much CO2 really contributes to global warming? Spectrospcopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011), http://meetingorganizer.copernicus.org/EGU2011/EGU2011-4505-1.pdf 

F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

=====================================================

 Hier der Original-Bericht 

Wendepunkt in der Klimadebatte?

Klimamodelle nähern sich den Realitäten an !

Von Frank Bosse und Fritz Vahrenholt (24. April 2015)

Zu vielen Gelegenheiten machten wir an dieser Stelle auf die Diskrepanzen zwischen der beobachteten Welt und deren Wiederspiegelung in den neuesten Klimamodellen des IPCC (CMIP5) aufmerksam (vgl. hier und hier). Die Modellwerte liefen einfach viel zu deutlich von den Beobachtungen davon, das macht auch diese Darstellung von Roy Spencer deutlich:

Abb.1: Die Abweichung der Modellwerte zu den Satellitenbeobachtungen bis 2013, Quelle: Roy Spencer.

Jetzt nahmen sich ein Experte für Modellierung, Thomas Mauritsen und einer für Wolken und Aerosole,  Björn Stevens vom Max-Planck-Institut für Meteorologie in Hamburg der Sache an. In einer brandaktuellen Arbeit in Nature Geoscience (im Folgenden MS15) “Der fehlende Iris-Effekt als ein möglicher Grund für den unterdrückten Wasserzyklus und die hohe Klimasensivität in Modellen“ nahmen sie die Ist-Situation auf (die einigermaßen schlecht verständliche Pressemitteilung dazu kann man hier lesen):

1) Die Modelle reagieren offensichtlich zu empfindlich auf den Treibhausgasantrieb, die neueren Arbeiten zu den Beobachtungen ermitteln deutlich geringere Werte für diesen Antrieb. Die Klimasensivität (ECS) für einen sehr langen dauernden Zeitraum bis zum eingeschwungenen Zustand nach einer Treibhausgaserhöhung wird von Modellen im Mittel mit 3,3 Grad Celsius Erwärmung ausgegeben, die Beobachtungen weisen auf einen Wert um 2 Grad Celsius.

2) Der globale Wasserkreislauf wird in den Modellen nicht richtig berücksichtigt (zu gering).

Darüber hinaus ergibt sich ein weiteres Phänomen: Die obere Troposphäre in den Tropen sollte sich aufgrund jeder Erwärmung nach den Modellen viel mehr aufheizen als das auf dem Boden festzustellen ist. Das wird jedoch nicht in dem Maß beobachtet – wir berichteten darüber im Beitrag “Houston, wir haben ein Problem: Wir können den Hotspot nicht finden“. Die Autoren suchten nach einer gemeinsamen Erklärung für die Diskrepanzen, indem sie einen in Modellen bisher nicht berücksichtigten kühlend wirkenden Effekt im Geschehen suchten, und wurden fündig. Sie griffen einen älteren Ansatz von Richard Lindzen und seinen Kollegen aus dem Jahre 2001 auf: Die Erde hat eine „Iris“, eine Gegenkopplung, die dafür sorgt, dass bei mehr Erwärmung auch mehr Wärme abgegeben wird als bei kühleren Temperaturen. Dieser Mechanismus, so Lindzen, wirkt in den Tropen/Subtropen. In der aktuellen Arbeit wird das so illustriert:

 

Abb.2: Bei höheren Temperaturen entstehen mehr Gewitter über dem Meer und das Gebiet ohne hohe Wolken („Dry and clear“) dehnt sich mehr aus, die Wärme kann besser abgestrahlt werden („Strong OLR“) als bei geringeren Temperaturen, bei denen die Iris kleiner ist. Quelle: Bild 1 aus MS15.

Diese  „Selbstregulierung“ der Temperaturen der Erde nach Lindzen wurde natürlich  vom „Mainstream“ der Klimawissenschaft zurückgewiesen. So schrieben Chambers et al. im Journal of Climate 2002:

„As a result, the strength of the feedback effect is reduced by a factor of 10 or more. Contrary to the initial Iris hypothesis, most of the definitions tested in this paper result in a small positive feedback.”

Kevin Trenberth und Kollegen kanzelten 2010 in den Geophysical Research Letters die Iris-Theorie mit folgenden Worten ab:

„…and their [Lindzen et al. ] use of a limited tropical domain is especially problematic. Moreover their results do not stand up to independent testing.”   

Davon ließen sich die Autoren der aktuellen “Nature” Arbeit nicht beeindrucken, sondern machten sich die Mühe, den von Lindzen beschriebenen Effekt in ein hochmodernes Klimamodell zu integrieren. Was sich ergab, ist einigermaßen überraschend.

Der „tropische Hotspot“

 

Abb. 3: Die Temperaturen in der Höhe laut Modellen, Quelle: Bild S7 aus MS15.

Die Steigung der tropischen Temperaturtrends zwischen 7 und 14 km Höhe im Modell ohne Iris (Abbildung 3 links) und mit Iris (rechts).  Der modellierte Hotspot mit dem markanten Schwerpunkt in etwa 10 km und darüber ist verschwunden, sehr ähnlich zu den Beobachtungen:

Abb.4: Der „Hotspot“ in Modellen ohne Iris und die Beobachtungen. Quelle: „Climate4you“. Die 300hPa Luftdruck entsprechen ca. 8 km Höhe, die 200 hPa ca. 10 km Höhe über NN. Der gemessene Trend (dunkelrot bzw. blau), der modellierte Trend im Modellmittel ohne Iris ist rot gepunktet.

Die Wirkung des Iris-Effektes auf die ECS

Abb.5: Crossplot der ECS mit der zur Erhöhung der Temperatur negativen Wirkung der Iris. Der rote Punkt ist die ECS des Modells ohne Iris, die blauen Markierungen sind die Werte für die ECS in verschiedenen Ausprägungen der Iris.  Quelle: Bild 3a aus MS15

Die Iris verschiebt die ECS des verwendeten Modells von 2,81 hin zu 2,21, das sind 22% weniger Empfindlichkeit gegenüber der Erwärmungswirkung durch Treibhausgase.  Auch die Diskrepanz im Wasserzyklus (im Prinzip die Zunahme von Niederschlag bei Erwärmung) konnte durch Berücksichtigung der Iris im Modell gelöst werden.

Selbst wenn es hier an der einen oder anderen Stelle so erschienen haben mag, dass wir Modellen insgesamt misstrauen, so ist doch anzumerken, dass Modelle gerade in der Klimatologie sehr nützlich sein können wenn sie mit allen Informationen gespeist sind. Wir können mit der Atmosphäre nicht experimentieren und sind mehr oder weniger auf ein Universum im Rechner angewiesen. Nur sollten die Modelle auch die Realität wiedergeben und keine Scheinwelten aufbauen, die Katastrophenszenarien liefern. Um es in einem Beispiel zu erläutern: Die Astrophysik stand auch nach den ersten Bodenproben vom Mond vor dem Problem, dass sie nicht die Frage nach seinem Entstehen beantworten konnte. Die Proben waren wie ein Teil der Erde, enthielten jedoch kein Wasser.  Schließlich baute man ein Modell im Rechner und ließ alle möglichen Hypothesen durchspielen mit dem Kriterium: Am Ende sollte es möglichst genau so aussehen wie wir es heute beobachten.

Es blieb schließlich nur eine Möglichkeit, die das Ergebnis lieferte: In der Frühzeit der Erde wurde sie von einem marsgroßen Körper (postum genannt „Teja“) getroffen und aus den Trümmerteilen beider Körper  formte sich der Mond in relativ großer Nähe zur Erde. Durch die Gezeitenreibung entfernte er sich immer mehr und seine ursprünglich vorhandene Eigenrotation wurde “angehalten“, er weist der Erde immer dieselbe Seit zu.

Die Modellierung dieser Vorgänge war einfacher, man kennt ja das Ergebnis. Das ist bei Klimamodellen anders, daher ist eine saubere und verifizierbare Programmierung unter Berücksichtigung möglichst aller physikalisch wirkenden Faktoren so wichtig. Mit der vorgestellten Arbeit ist sehr wahrscheinlich ein wichtiger  Schritt in diese Richtung gegangen worden, sie brachte ähnlich dem „tapferen Schneiderlein“ gleich drei große Modellprobleme auf einen Streich einer Lösung näher.

Dazu gehört eben auch die mit der Iris-Komponente im Modell ermittelte ca. 22% geringere Empfindlichkeit des modellierten Klimasystems gegenüber Treibhausgasen. Das hören nicht alle gerne. Kevin Trenberth wird mit den Worten zitiert:

Die Arbeit ist schlecht geschrieben und irreführend. Es wäre nicht notwendig gewesen, ins  „Iris-Horn“ zu stoßen.“

Trenberth fast wütend:

Die Autoren haben es sogar in den verdammten Titel geschrieben“.

Welche Angst geht da im „Klima-Establishment“ jetzt wohl um? Dass es sich bis in die Politik herumspricht, dass die Klimakatastrophe nicht stattfindet? Björn Stevens Forschungsergebnisse könnten vielleicht einmal in die Geschichte der Klimawissenschaft als Wendepunkt der Debatte eingehen.

====================================================

Zum vorstehende Thema kürzlich bei EIKE erschienen:

Die Achilles-Ferse der Klima-Modelle : "Wasserdampf-Verstärkung"

http://www.eike-klima-energie.eu/news-cache/die-achilles-ferse-der-klima-modelle-wasserdampf-verstaerkung/  06.03.2013

==> ANLAGE PDF

Z u s a m m e n f a s s u n g :

Seit 20 Jahren prognostizieren die Klima-Modelle stereotyp: ‚Die Erdatmosphäre wird sich bei CO2-Verdopplung um 2-5 Grad erwärmen.‘  Diese Metapher ist allgegenwärtig. Der "gläubigen" Öffentlichkeit ist jedoch nahezu unbekannt, daß die physikalischen Gesetze bei der Auswertung der CO2-Spektral-Banden allenfalls +1 Grad Erwärmung ergeben. Genau das steht auch in den IPCC-Berichten. Alle darüber hinaus gehenden Erwärmungs-Raten werden in den Modellen mit hypothetischen "Selbst-Verstärkungs-Prozessen" erzielt, insbesondere mit der so genannten "Wasser-Dampf-Verstärkung". Umfangreiche Auswertungen von Messungen in der Atmosphäre zeigen, daß die Natur das ganze Gegenteil macht: Die Wasserdampf-Konzentration in allen Schichten der Atmosphäre zeigt seit Jahrzehnten einen abnehmenden Trend !

===================================================================


Related Files




In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil1)

===================================================

Hier Teil 1

===================================================

In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (1)

Helmut Kuntz  / Mai 2015

Die SZ Wochenendausgabe 117 vom 23.-25. Mai 2015  kam gleich mit zwei vollen Seiten Apokalypse zum Klimawandel in Deutschland. Anlass war der Monitoring-Bericht 2015 des Umweltbundesamtes (UBA), herunterzuladen hier.

Im ersten Teil mit der Überschrift „Die ersten Boten des Wandels“  wurde auf das Thema eingestimmt:

„Das Klima ändert sich auch in Deutschland. Die ersten Anzeichen sind schon deutlich zu sehen, berichtet das Umweltbundesamt. Sie sind nur ein Vorgeschmack auf die Umbrüche, die dem Land bevorstehen. Weil sich vieles davon nicht mehr verhindern lässt, müssen sich Behörden, Betriebe und Bürger anpassen.“

Im zweiten Teil „Es gibt kein Entweder – oder“ durfte die UBA-Chefin und ausgebildete Soziologin ein Interview bestreiten: „Maria Krautzberger über den zähen Kampf gegen die Erderwärmung und Katastrophenschutz als letztes Mittel.“

Dabei konnte sie zeigen, wodurch sie sich für dieses politisch wichtige Amt empfohlen hat, zu dem Kenntnis, oder Akzeptanz von Faktenwissen ein erhebliches Hindernis bedeutet (hätte). Denn munter wiederkäut sie politisch korrekt die IPCC-Standard-Statements im Monitoringbericht ihrer eigenen Behörde – gegen die Fakten.

—————————————————————————————————————————–

Hinweis d.A. :

Als „Klimawandel“ ohne Zusatz wird in folgendem immer der anthropogen (CO2-) bedingte Wandel verstanden. Nach „Text:“ folgen Auszüge aus dem Bericht.

—————————————————————————————————————————–

Was im UBA-Monitoring-Bericht 2015 steht

Wenn Deutschland etwas macht, dann gründlich. Die Akademikerschwemme will beschäftigt werden. Und für den Klimawandel ist immer Geld vorhanden – zumindest, wenn er verzweifelt gesucht werden muss. Entsprechend liest sich der Bericht mit 258 Seiten als Arbeitsbeschaffungsmaßnahme für alle, die das Wort Klimawandel bereits richtig aussprechen können. Es werden 97 Klimaindikatoren gemonitort und auf einen Beleg für den Klimawandel „abgeklopft“. Dazu gehören z.B. auch witterungsbedingte Unfälle, Temperaturindex der Vogelartengemeinschaft, (psychische) Betroffenheit durch die ständige „Androhung“ von Stürmen und Hochwasser, Zugriffe auf Klima-Apps usw. Am Bericht selbst sind 54 gelistete Institutionen beteiligt.

Und das Fazit daraus?

Da wohl nicht jeder Leser die lange Sichtung bis zum Schluss durchlesen will, anbei die Meinung des Verfassers. Der Bericht zeigt deutlich, dass praktisch nichts in Deutschland auf den messbaren Einfluss eines anthropogenen Klimawandels hinweist. Das Klima ändert sich natürlich – aber eben nicht „unnatürlich“. Im Grunde haben wir aktuell nichts anderes als das schlechte Wetter, über das sich schon Napoleon beklagt hatte.

Nach der Sichtung plagt einen jedoch eine schlimme Ahnung. Wenn es bereits im Klima-gemonitorten Deutschland nicht möglich ist, den Klimawandel zu belegen, bzw. belastbare Daten zu erfassen, wie schafft das der IPCC dann angeblich weltweit? Was nutzen die Massen an peer-reviewten Papern, wenn die Daten noch wesentlich ungenauer und noch stichproben-artiger sind?

—————————————————————————————————————————–

Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel;

Bericht der Interministeriellen Arbeitsgruppe Anpassungsstrategie der Bundesregierung

—————————————————————————————————————————–

Welche Auswirkungen hat der Klimawandel und wie bereiten wir uns vor?

Text: Treibhausgase, die jetzt in der Atmosphäre sind, beeinflussen das Klima der nächsten Jahrzehnte. Sich auf diese Veränderungen vorzubereiten, heißt, rechtzeitig und aktiv auf Klimaänderungen zu reagieren, die bereits nicht mehr vermeidbar sind. Dies gilt, auch wenn noch nicht alle Zusammenhänge aufgeklärt sind und das mögliche Ausmaß der Klimafolgen heute in vielen Bereichen noch nicht im Einzelnen absehbar ist. Gleichzeitig muss der Klimaschutz zügig voranschreiten, um zu verhindern, dass mit steigenden Treibhausgaskonzentrationen die klimatischen Veränderungen zunehmen und die Anpassungszwänge weiter wachsen.

Auswertung

Eine Analyse ohne Statistik ist nicht vollständig.  Also zählen wir die Verwendung geeigneter Kennwörter, um ein Bild zu bekommen, ob die Verfasser nicht heimlich Aussagen hinterlegt haben, die offiziell nicht verkündet werden durften.

Die Worte "sicher / gesichert“

kommen im ganzen Bericht nur 3 (drei!) mal vor. Zur Temperaturerhöhung seit 1881, zur Erhöhung der Anzahl heißer Tage, und weil die Wasserversorgung auch in Zukunft gesichert ist.

Bei den Begriffen "nicht gesichert"  und „nicht verändert“ habe ich ab 50 aufgehört weiterzuzählen.

Begriffe der Unsicherheit in umschreibender Form wie "es wird davon ausgegangen" , "es wird diskutiert" , "ist zu erwarten" , "es liegt nahe" , "ein Einfluss des Klimawandels ist anzunehmen" , "es könnte …" , "nicht signifikant verändert" , "Unschärfen der Interpretation …“ziehen sich konsequent durch praktisch alle Kapitel. Wegen der Variabilität der (Um-)Schreibungen ist ein Zählen sehr aufwendig und wurde deshalb nicht durchgeführt.

Fazit

Vergleicht man die "sicheren“ mit den "ungesicherten“ Fakten, dann tut sich ein Abgrund auf. Er zeigt aber, der Bericht ist bis auf wenige Kapitel ehrlich, die daraus abgeleiteten Aussagen sind es nicht.

Exemplarische Sichtung einzelner Kapitel

Temperatur

Text: Das Jahresmittel der Lufttemperatur ist im Flächenmittel von Deutschland von 1881 bis 2013 statistisch gesichert um 1,2 Grad angestiegen* (Abb. 1). Auch im Vergleich der Klimareferenzperiode (1961-1990) zum aktuellen Bezugszeitraum (1981-2010) ist der Mittelwert der Lufttemperatur in Deutschland von 8,2 °C auf 8,9 °C gestiegen.

Was zeigt die eigene Auswertung

Bild : Die auf den Startwert 1881 normierten Deutschlandtemperaturen

(gleicher Datensatz wie im Bericht)

Man sieht, dass die Temperatur seit 1880 stetig in einem Trendkanal (leicht) wärmer wird. Schon das ist vollkommen unspektakulär und kann nicht als Klimawandel interpretiert werden.

Würden die extremen Winter von 1930 bis 1965 wegfallen, hätte es damals schon die aktuelle heutige Mitteltemperatur gegeben. Und aktuell haben wir wieder die Temperatur von 1881.

1990 scheint etwas passiert zu sein, was aber nicht mit dem Klimawandel zusammenhängen kann, denn der kann nicht so sprunghaft erfolgen. Vielleicht war es ein el Nino oder einfach eine Datenhomogenisierung, aber sicher nicht das CO2.

                   Bild : Langfristverlauf Stationen Berlin

            (Anm.: der Verlauf Hohenpeißenberg zeigt das gleiche Schema)

Betrachtet man zusätzlich den Langfristverlauf am Beispiel Berlin (für Deutschland gesamt fanden sich  keine für Privatpersonen recherchierbaren Daten), dann sieht man ebenfalls, dass die aktuelle Temperatur nichts besorgniserregendes sein kann. Schnelle Anstiege / Abfälle erfolgten auch früher und damals in noch „schlimmerer“ Ausprägung.

Fazit

Der Temperaturverlauf Deutschlands ist vollkommen unspektakulär. Ein CO2-Einfluss oder der ominöse „Kipp-Punkt“ sind nirgends zu erkennen. Auf eine Erwähnung der ca. 20-jährigen Stagnation der letzten Jahre hat man ganz verzichtet.

Demnach gibt es keinerlei Anlass zu einer Panik. Es bleibt aber die Frage, warum kein Hinweis auf die aktuelle Stagnation zu finden ist,  und warum eine Darstellung und fundierte Interpretation der Langfristverläufe ebenfalls unterlassen wurde.

Niederschlagsmengen

Text: In der Summe ergibt sich daher im Flächenmittel von Deutschland seit 1881 ein Anstieg der mittleren jährlichen Niederschlagsmenge von 10,6 %.

Text: Die stärksten Änderungen wurden bislang für den Winter beobachtet. Wie Abbildung 2 zeigt, hat das Flächenmittel der mittleren Niederschlagsmenge seit dem Winter 1881 / 1882 um 28,0 % zugenommen.

Text: Für die Sommermonate lässt sich bislang kaum eine Änderung feststellen. Zwar hat die mittlere Niederschlagsmenge zu dieser Jahreszeit seit 1881 um 1,2 % abgenommen, jedoch lässt sich aus diesem minimalen, im Bereich der natürlichen Variabilität liegenden Rückgang nicht einmal auf eine Tendenz schließen (Abb. 3).

Die eigene Auswertung zeigt :

Das Niederschlags-Jahresmittel fehlt im Bericht als Grafik, deshalb hier das aus dem DWD-Datensatz selbst ermittelte anbei.

Bis ca. 1960 bleibt der Niederschlags-Anstieg konstant. Aber dann könnte man fast vermuten, dass um 1960 etwas passiert ist, was mit dem Klimawandel gar nichts zu tun hat.

Im Bericht steht nichts dazu.

Allerdings wird man bei Google fündig. Die Erhöhung um 1960 soll den damaligen Atombombenversuchen geschuldet sein, deren Aerosole den Niederschlag verstärkten. Unabhängig davon, ob das stimmt, nimmt der Jahresniederschlag seitdem wieder ab, was eine Auswertung der gleitenden Geraden-Steigung (Endpunkt 2014) deutlich zeigt.

Fazit

Eine Änderung der Niederschlagsmenge seit 1881 um +10,6 % darf man sicher als absolut unspektakulär bezeichnen, vor allem, da diese bereits 1881 begann. Zudem ist der geänderte Verlauf ab 1960 nicht dem Klimawandel zuzuordnen. Da sie seitdem auch wieder abnimmt (zeigt im Bericht die Abb.8 seit 1990 ebenfalls deutlich), kann als ziemlich sicher gelten, dass der alte Trendwert bald wieder erreicht ist. Ein Indiz könnte auch der Winter 2014/15 sein, der die niedrigste Niederschlagsmenge seit „Menschen-Gedenken“ aufwies (wo der Klimawandel doch zwingend nassere Winter fordert).

Änderungen der Extreme

Text: Seit 1951 hat die Anzahl der Heißen Tage im Flächenmittel von Deutschland von im Mittel etwa drei Tagen pro Jahr auf derzeit im Mittel etwa acht Tage pro Jahre zugenommen (Abb. 4).

Dieser Anstieg ist trotz der großen Variabilität dieses Index von Jahr zu Jahr statistisch gesichert. Demgegenüber ist die Abnahme der mittleren Anzahl der Eistage von rund 27 Tagen pro Jahr auf derzeit etwa 21 Tage pro Jahr deutlich weniger markant und statistisch auch nicht nachweisbar (Abb. 5). … In den vergangenen zehn Jahren ist die Zahl der Heißen Tage wieder leicht zurückgegangen, dennoch gab es im Süden und Osten nach wie vor weitverbreitet mehr als zehn solcher Tage pro Jahr.

Die eigene Auswertung zeigt

Leider sind beim DWD keine globalen Temperaturdaten Deutschlands in Tagesauflösung (frei) verfügbar. Deshalb muss die Interpretation anhand eines Bildes aus dem Bericht und einer exemplarischen Station (im Süden, wo die Anzahl höher sein soll) erfolgen.

Station Flughafen Nürnberg 1950 – 2015   Maximalwerte 

Fazit

Die sprunghafte Änderung nach 1990 kann nicht von CO2 verursacht sein (so schnell kann das Klima auf die geringe relative Erhöhung nicht reagieren). Zudem pendelt sich dieser Sprung auch schon wieder ein und hat aktuell schon den Wert von 1960 „zurückerobert“. Bedenkt man, dass dabei sicher auch noch Wärmeinseleffekte „mitspielen“, bangt man eher, ob die wenigen schönen Sommer schon wieder der Vergangenheit angehören.

Die DWD-Station Nürnberg zeigt seit 1950 überhaupt keine signifikante Änderung, aber deutlich die natürliche hohe Variabilität der Tagestemperaturen.

Anm.: Trotzdem hat die Uni Erlangen der damals neu ernannten Nürnberger Klimamanagerin in einer Expertise pflichtbewusst bestätigt. dass Nürnberg sehr vom Klimawandel betroffen sei ("sein kann"). Dies setzt Nürnberg – das sowieso kein Geld hat – auch eifrig um (Politikerweisheit: wenn man kein Geld hat, macht noch weniger auch nichts mehr aus).

Niederschlag

Text: Die zeitliche Entwicklung der Flächenmittelwerte beider Extremindizes ähnelt grundsätzlich dem Verlauf der mittleren Niederschlagsmengen zur jeweiligen Jahreszeit. Im Winter haben daher nicht nur die mittleren Niederschlagsmengen um 28 % zugenommen, sondern auch das Flächenmittel der maximalen 5-Tagessumme ist von im Mittel rund 38 mm zu Beginn des Auswertungszeitraums um ca. 7 mm auf aktuell im Mittel etwa 45 mm angestiegen (Abb. 8). Infolge der großen Unterschiede dieses Index von Jahr zu Jahr ist dieser Anstieg derzeit aber statistisch nicht gesichert. Die Zahl der Tage mit einer Niederschlagssumme von 20 mm und mehr im Sommer ist dagegen seit 1951 nahezu unverändert geblieben und verläuft somit ebenfalls parallel zu der Entwicklung der mittleren Niederschlagsmengen in den Monaten Juni bis August.

Hinsichtlich der Anzahl der Tage mit einer Niederschlagsmenge von mehr als 20 mm im Sommer sind hingegen – in guter Übereinstimmung mit der Entwicklung der mittleren Niederschlagsmengen zu dieser Jahreszeit – über eine auch nur regional und sehr schwach ausgeprägte dekadische Variabilität hinaus bislang keine Änderungen auszumachen (Abb. 10).

Fazit

Dem Berichtsteil braucht man nichts hinzuzufügen. Er sagt einfach, dass die dauernden Meldungen über vorhandene und zu erwartende Sintflut-Regenfälle schlichtweg falsch sind, es gibt sie nicht.

Trockenheit

Text: Neben der Frage nach der Veränderung der Starkniederschläge ist insbesondere im Sommer auch von großer Wichtigkeit, inwieweit die Erwärmung mit einer zusätzlichen Austrocknung einhergeht. Dementsprechend soll noch die Veränderung der Häufigkeit von Trockenperioden betrachtet werden. Hierzu wird die Anzahl der Episoden mit mindestens zehn aufeinanderfolgenden Tagen ohne Niederschlag ausgewertet.

Wie Abbildung 11 zeigt, ist die Anzahl solcher Trockenperioden im Flächenmittel von Deutschland seit 1951 um ca. 0,3 Ereignisse pro Jahr geringfügig angestiegen. Bereits aufgrund der Seltenheit solcher Ereignisse mit einem Mittelwert von nur 1,3 Fällen pro Jahr im klimatologischen Referenzzeitraum 1961-1990 sowie der extrem hohen Variabilität von Jahr zu Jahr ist aber auch diese Zunahme bislang statistisch keineswegs gesichert. Hinzu kommen ausgeprägte natürliche Schwankungen mit abwechselnden Phasen stärker und geringer ausgeprägter Trockenheit, die sich deutlich in der räumlichen Entwicklung der mittleren Anzahl dieser Trockenperioden abzeichnen (Abb. 12).

Anm. zum Bild: Die schwarzen Pfeile wurden durch den Verfasser zugefügt.

Fazit

Auch hierzu braucht man dem Bericht nichts hinzuzufügen. Er sagt einfach ehrlich, dass sich diesbezüglich überhaupt nichts verändert hat.

==================================================

Ende von Teil 1 ; Teil 2 folgt

==================================================

Anm. EIKE-Red.: Anbei die komplette PDF zum Download

Über den Autor:

Helmut Kuntz absolvierte ein Hochschulstudium mit den Schwerpunkten Messtechnik und Statistik. Er analysiert deshalb nicht Klimatheorien, sondern die in den Studien vorgenommenen, statistischen Auswertungen und prüft sie auf Plausibilität (auch im Vergleich  mit anderen Publizierungen). Die dabei gewonnenen Ergebnisse vergleicht er abschließend mit den oft als Pressemitteilung publizierten Kurz-Aussagen. Sein Ergebnis: Die Pressemitteilungen melden oft etwas anderes, als in den Studien ermittelt wurde (so dass man auf die Idee kommen könnte, diese werden teilweise unabhängig von den Studien vor-geschrieben).

Related Files




Bedeutende Denker des Jahrhunderts: Barbara Hendricks – Die Erneuerbaren sind heute konkurrenzfähig!

Dessen Beitrag erschien am 8. Mai in der FAZ hier. Doch statt sich mit den Argumenten Lomborgs sachlich auseinander zu setzen, zieht sie es mit einiger Häme vor, ihn erstmal zu desavouieren, denn sie fängt gleich im zweiten Absatz so an:

Ein bemerkenswerter Zufall wollte es, dass am selben Tag, an dem die F.A.Z. ihm eine Seite freiräumte, um über „Deutschlands gescheiterte Klimapolitik“ herzuziehen, am andern Ende der Welt eine weniger schmeichelhafte Entscheidung getroffen wurde: Die Universität von Westaustralien (UWA) in Perth kündigte einen Vertrag mit Lomborg über die Gründung eines „Consensus Institute“ mit Verweis auf die erhebliche Unruhe, die der Plan im Lehrkörper der Universität ausgelöst hatte. Lomborg sei weder Wissenschaftler noch Ökonom; man befürchte, dass er den Namen der Universität nutzen werde, „um Dinge zu verbreiten, bei denen es sich im Wesentlichen um politische Ansichten handelt, nicht aber um wissenschaftlich fundierte Erkenntnisse, und das im Namen der Universität“, begründete ein Vorstandsmitglied des akademischen Rates der UWA den Professoren-Protest.

Um dann scheinheilig zu behaupten:

Ich maße mir nicht an, die wissenschaftliche Qualifizierung von Lomborg zu beurteilen. Mich interessiert die Qualität seiner Argumente.

Das hat sie natürlich zuvor wenn auch indirekt bereits gemacht und setzt das anschließend und zwar ausgiebig fort.

Wie  weit es mit ihrer eigenen Qualifikation für diesen Job her ist, möge jeder Leser selber beurteilen. Als Orientierungshilfe möge dieses schöne Video dienen:

Video des Interviews von Krautreporter Tilo mit Bundesumweltministerin Barbara (Hendricks).

Die passende ganze Story dazu finden Sie hier

Im Folgenden – und trotz ihrer mangelnden Qualifikation z.B. auf dem Energiesektor- wagte sich Frau Hendricks auch noch an die „Energiewende“ und beschreibt was sie ihrer Meinung nach heute schon bewirkt hätte:

Dass die erneuerbaren Energien schon heute kostengünstig und konkurrenzfähig sind, haben sie unter Beweis gestellt: Strom aus neuen Windkraft- und großen Photovoltaikanlagen produzieren wir heute zu denselben Vollkosten wie neue Steinkohle- oder Gaskraftwerke. Mit einem Anteil von 27,8 Prozent am Bruttostromverbrauch sind die Erneuerbaren heute Deutschlands Stromquelle Nummer eins. Zudem ist erstmalig seit dem Jahr 2000 der durchschnittliche Strompreis für Haushalte leicht zurückgegangen. Auch weltweit zählen die Erneuerbaren zu den günstigsten Stromquellen: Nach Angaben der Internationalen Energieagentur werden heute und bis 2035 weltweit mehr Investitionen in Erneuerbare-Energien-Kraftwerke getätigt werden als in konventionelle Kraftwerke. Erneuerbare Energien können heute auch deshalb zu signifikant geringeren Kosten genutzt werden, weil Deutschland die Anfangsinvestitionen schon geschultert hat.

Wen überkommt bei dieser enthusiastischen Beschreibung der schönen neuen Energiewelt nicht die Erinnerung an ähnlich enthusiastische Sprüche aus jüngster sozialistischer Vergangenheit auf deutschem Boden. Als da z.B. wären:

„überholen ohne einzuholen“ Walter Ulbricht 1957

oder

„Den Sozialismus in seinem Lauf halten weder Ochs noch Esel auf“

Erich Honecker kurz vor dem Mauerfall 1989.

Bei diesem Spruch allerdings muss der Autor innehalten, denn, bei näherem Nachdenken könnte man auf den Gedanken kommen: So falsch war er vielleicht doch nicht, angesichts der Aussprüche einer real existierenden Bundesumweltministerin von der SPD.

Ein Trost bleibt, es sind die bis jetzt 95 Kommentare in der FAZ zu diesem Jubelbeitrag von Frau Hendricks. Sie bescheinigen ihr in überwältigender Mehrheit rasanten Realitätsverlust. Sowas passiert eben wenn man Visionen nachjagt. Von ihr stammt ja auch der berühmte Satz: „Der Klimawandel findet täglich statt!“

Mit Dank an Spürnase H.R. Vogt




Warum es so schwer ist, Warmisten zu überzeugen

Ich weiß, dass die Sozialwissenschaften keine beliebte Wissenschaft der [Skeptiker-] Gruppe sind, aber wenn Sie mir folgen, werden Sie hoffentlich erkennen, wie nützlich die Sozialwissenschaft bei der Beschreibung sein kann, warum Warmisten nicht erreichbar sind. Und möglicherweise, was Sie dagegen tun können.

In ihrer neuesten Reden über die globale Erwärmung, haben Obama und der Papst nicht versucht, Skeptiker davon zu überzeugen, dass CAGW [Climate Anthropogene Global Warming] real ist. Stattdessen sandten sie Signale an ihre Unterstützer, was „alle das Richtige denkenden Menschen“ sagen sollten. Das ist eine klassische group-in /group-out Gruppenkommunikation. Obama und der Papst brachten die Diskussionspunkte für die in-Gruppenmitglieder, die in Betracht gezogen werden können um als Teil der „Sippe“ zu gelten und um die anderen als außerhalb von ihr zurückzuweisen. Dies ist ein Prozess namens Othering [etwa Ausgrenzung]. Othering verdreht politische Feinde in nicht-vorhandene-Wesen. Die Anderen haben keinen Wert. Die Andere können abgezockt und ignoriert werden. Die Anderen können verspottet werden.

Obama und der Papst sind Beispiele für Leithammel; die Schafe mit der Glocke, der die anderen Schafe folgen. Leithammel ist keine abwertende Bezeichnung, es ist ein beschreibender Begriff. Die Aufgabe eines politischen Leithammels ist es, die Position anzugeben, die ihre Anhänger in ihren alltäglichen Gesprächen finden sollen. Obama und aktuelle Reden des Papstes funktionieren wie Positionspapiere für die Delegierten aller das Richtige denkenden Menschen. Sie treffen diese Menschen bei der Arbeit, in der Kirche, in der Schule, im Kaffeehaus, usw. Die Delegierten werden die Worte spiegeln, die der Präsident oder der Papst verwendet, um andere in-Gruppenmitglieder mit normalisierenden Überzeugungen zu identifizieren und um out-Gruppenmitglieder zu verspotten. Eines der Hauptthemen der beiden Reden war Schande. Schande über die nicht das Richtige denkenden Menschen. Schande, dass sie nicht so intelligent und fähig wie „wir“.

Es ist fast unmöglich, diese Art von Selbstgefälligkeit zu durchdringen. Wenn ein Skeptiker nach der Ansicht eines Warmisten auf die globale Erwärmung / Klimawandel fragt, hört ein Warmist etwas ganz anders als das, was der Skeptiker sagt. Ein Skeptiker könnte sagen: „Die Modelle entsprechen nicht den tatsächlich gemessenen Ergebnissen.“ Was der Warmist hört ist, wie dumm [Klima-] Leugner sind, weil das ist es, was John Stewart [bekannter Radio Moderator der late night show]  ihm gesagt hat, was er denken soll. Wenn der Warmist nicht davon überzeugt wäre, das er weiß, dass Skeptiker dumm sind, dann könnte er selbst mit einem Leugner verwechselt werden! Und niemand will für einen Leugner gehalten werden, weil sie verspottet werden, sie bekommen keine Redezeit [Übersetzung wäre Amtszeit] und werden nicht zu den richtigen Partys eingeladen. Kein noch so wissenschaftlich begründetes Argument kann den Schutzschild der Warmisten in ihrem verinnerlichten Glauben an CAGW durchdringen.

Viele der Warmisten sind pure rationale Ignoranten. Rationale Ignoranz ist die Überzeugung, dass die Kosten / Nutzen für die Erforschung jedes Themas so niedrig sind, dass der Zeitaufwand dafür netto Negativ ist. So ist die Unwissenheit rational und jeder nutzt diesen mentalen Prozess bei bestimmten Themen. Menschen, die rational ignorant zur globalen Erwärmung sind, schauen auf die Leithammel die ihre Haltung gut unterstützen. Rational ignorante Warmisten schauen auf Weltmarktführer, Mockutainers  [Wortspiel: Spottende Entertainer] und Warmisten-Wissenschaftler, nach Hinweisen wie sie ihre Position zur globalen Erwärmung kommunizieren.

Das Durchdringen von rationaler Ignoranz ist hart, denn die Position der Warmisten beruht nicht auf Logik. Ihre Position beruht tatsächlich auf einem Appell an Autorität. Der rational ignorante Warmist stellt den Bereich der Wissenschaft als Ganzes in Frage (Wissenschaftsleugner) oder weigert sich die Führung von ihren Lieblings-Leithammel Persönlichkeiten in Frage zu stellen. Dadurch wird der rational ignorante Warmist defensiv und versucht, sich für seine Lieblings-Leithammel einzusetzen. Der rationale Ignorant zeigt auch auf seine Lieblings-Leithammel und sagt: „Wer bin ich denn, um an all diesen intelligenten Menschen zu zweifeln?“ Es ist intellektuelles Offshoring. Es ist bequem. Es ist die menschliche Natur.

Die wissenschaftliche Methode lehnt in-/ aus-Gruppen, Ausgrenzung, Leithammel und rationale Ignoranz geradezu ab. Von einem Wissenschaftler wird erwartet, den Ergebnissen aus einem Experiment zu folgen, auch wenn die Ergebnisse nicht seine Hypothese unterstützen. Vom Wissenschaftler wird eindeutig erwartet, dass er die Daten nicht manipuliert und um das sicherzustellen, wird er zu einem Treffen mit den richtigen Personen oder zur weiteren Finanzierung eingeladen. Aber die Wissenschaft hat eine schlechte Erfolgsbilanz bei kontroversen Themen. Oft dauert es Jahrzehnte, neue Theorien, die klaren Gewinner sind, zu akzeptieren, zB. die Kontinentalverschiebung.

Wissenschaftler sind immer noch soziale Tiere. Soziale Tiere folgen Hierarchie und Incentives. Wenn Sie wirklich die Debatte über die globale Erwärmung gewinnen wollen, ändern Sie die Meinungen der Leithammel. Ändern Sie die wirtschaftlichen Anreize für die wissenschaftlichen Papierfabriken der globalen Erwärmung. Andernfalls werden Sie in der Debatte mit Menschen stecken bleiben, die nicht in der Lage sind, ihre Meinung zu ändern, weil es sie persönlich etwas kosten würde, dies zu tun. Selten ist die Person intellektuell ehrlich genug, die Hand die sie füttert zu beißen, noch ist sie bereit, ihre sozialen Normen zu verletzen um die Wahrheit auszusprechen.

Erschienen am 23.Mai 2015 auf WUWT

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/05/23/why-its-so-hard-to-convince-warmists/