Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor

Im heutigen Beitrag wollen wir eine kleine Übersicht über die neuen Studien des vergangenen Jahres (2014) geben. Wer ist mit welchem Wert aktuell im Rennen? Bevor wir beginnen, sollte jedoch noch kurz erwähnt sein, dass es zwei verschiedene Typen der Klimasensitivität gibt, die nicht verwechselt werden dürfen, die ECS und die TCR. Hier sollte man peinlichst darauf achten, um welchen Wert es in der entsprechenden Arbeit geht, ansonsten vergleicht man Äpfel mit Birnen. Wikipedia erklärt uns den Unterschied:

ECS und TCR
Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur langsam auf Veränderungen des Strahlungsantriebs. Man unterscheidet daher zwischen der Equilibrium Climate Sensitivity, (ECS) und der Transient Climate Response (TCR). Die ECS beschreibt den Temperaturanstieg, der zu beobachten ist, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind. Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist die Transient Climate Response besser geeignet. Diese ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1% anwächst.

Laut dem fünften Klimazustandsbericht des IPCC (AR5) liegt die ECS irgendwo zwischen 1.5°C bis 4.5°C. Der IPCC hat sich diesmal aus taktischen Gründen geweigert, einen offiziellen Mittelwert anzugeben. Nehmen wir daher einen Wert von 3°C an, den hatte der IPCC in seinem vierten Klimabericht (AR4) verwendet und nach eigenen Angaben habe sich vom vierten auf den fünften Bericht nicht viel geändert. Überhaupt geht der IPCC in allen seinen bisherigen Berichten seit 1990 stets von der gleichen Wertespanne aus (Abbildung 1).
Die kurzfristigere TCR sieht der IPCC in ihrem aktuellen AR5-Bericht zwischen 1,0°C und 2,5°C (siehe Seite 14 hier).

Abbildung 1: Übersicht der in den IPCC-Berichten angegebenen CO2-Klimasensitivitäten. Aus Lewis & Crok (2014).
ECS – Die Equilibrium Climate Sensitivity [Gleichgewichts-Klimasensitivität]
Beginnen wollen wir unseren wissenschaftlichen Streifzug mit Studien zum Langfrist-Wert, der ECS. Dabei arbeiten wir uns von den hohen zu den niedrigen ECS-Werten.
Im April 2014 erschien im Fachblatt Climate Dynamics eine Arbeit von Troy Masters. Er kommt auf eine Wertespanne für die ECS von 1,5-2,9°C, eliminiert also einen Großteil der überhitzten IPCC-Szenarien. Als ECS-Mittelwert gibt Master 2,2° C an, was knapp ein Grad kälter ist, als der IPCC-Wert.
Fünf Monate später, im September 2014, kamen von der Heydt und Kollegen in einer Studie in den Geophysical Research Letters auf einen recht ähnlichen Wert, nämlich 2,26°C. Die Forscher untersuchten hierzu das Paläoklima der letzten 800.000 Jahre. Aus der Kurzfassung:
Wendet man ein neues Verfahren an, um die Abhängigkeit vom Hintergrundzustand [background state dependency] zu berücksichtigen, kommt man zu dem Ergebnis Sa=0.61±0.07 K (W/ m²)-1 (±1σ) unter Verwendung einer Rekonstruktion der Abkühlung zum letzten glazialen Maximum (LGM) um -4,0 K und eine deutlich geringere Klimasensitivität während glazialer Klimate.
(Hinweis: Der dort angegebene Wert von Sa=0,61±0,07 K (W m−2)−1 muss mit 3,7 W/m2 multipliziert werden, um auf die ECS pro CO2-Verdopplung zu gelangen.)
In einer Modellierungsstudie ermittelte Crag Loehle vom US-amerikanischen National Council for Air and Stream Improvement eine ECS von 1,99°C. Die Ergebnisse präsentierte er im März 2014 im begutachteten Fachblatt Ecological Modelling.
Im selben Monat erschien im Fachjournal Earth System Dynamics eine Arbeit von Skeie et al., die auf eine ECS von 1,8°C kommen. Zum exakt gleichen Ergebnis gelangte auch Jeff L. in einem Beitrag auf WUWT , der dort am 13. Februar 2014 gepostet wurde.
Bereits im Juni 2010 beschrieb Roy Spencer auf seiner Webseite eine ECS von 1,7°C:
Unter dem Strich stützt meine Analyse eine Best-Estimate-Klimasensitivität von 1,7°C, was etwas mehr ist als die Hälfte von dem, was Tung & Camp (3,0°C) gefunden haben, und es nähert sich der unteren Grenze dessen, was das IPCC als wahrscheinlich behauptet (1,5°C).
Nur einen Tick niedriger verorteten Nicholas Lewis und Judith Curry die ECS. In ihrer im September 2014 im Fachblatt Climate Dynamics publizierten Arbeit kamen die Autoren auf einen Wert von 1,64°C. Lewis präsentierte in einem Beitrag im Blog Climate Audit zudem eine detaillierte Gesamttabelle mit ECS-Spannen für verschiedene Zeitfenster sowie Vergleichswerte anderer Arbeiten (Abbildung 2):

Abbildung 2: Klimasensitivitäten nach Lewis & Curry (2014) sowie weitere Vergleichswerte aus der Literatur. Quelle: Climate Audit.
Bemerkenswert ist auch eine Arbeit von Spencer & Braswell die im Februar 2014 im Asia-Pacific Journal of Atmospheric Sciences herauskam. Die beiden Autoren integrierten die natürliche ENSO-Variabilität in ihr Modell und kamen auf eine ECS von 1,3°C, was ziemlich genau zwischen den beiden in unserem Buch „Die kalte Sonne“ präsentierten Szenarien liegt.
Einige Autoren sehen sogar die Möglichkeit von ECS-Werten unterhalb von 1,0°C. So stellte im November 2014 Hermann Harde von der Hamburger Helmut-Schmidt-Universität im Journal of Atmospheric and Climate Change ein Modell mit einer ECS von 0,6°C vor.
Und schließlich sei noch eine Arbeit erwähnt, die im Oktober 2014 auf der Webseite der Stockholm-Initiative erschien. Magnus Cederlöf beschreibt dort eine ECS von 0,28°C.
Der generelle Trend in der Wissenschaft hin zu niedrigeren ECS-Klimasensitivitäten ist mittlerweile unübersehbar und stürzt den IPCC und die beteiligten Forscher in ein Dilemma. Viele der Arbeiten erschienen nach Redaktionsschluss des AR5-Klimaberichts und konnten daher nicht mehr in den Bericht eingearbeitet werden. Überhaupt gleichen die IPCC-Klimaberichte einem schweren Supertanker, der etliche Jahre benötigt um seinen Kurs auch nur geringfügig zu ändern. Das Herzstück des AR5 bilden aufwendige Computer-Klimamodellierungen, die noch von einer veralteten, überhöhten ECS ausgingen. Im Prinzip hätte man nun die Modellierungsresultate verwerfen und erneut zu rechnen beginnen müssen. Dafür gab es nun aber keine Zeit mehr und die Veröffentlichung des AR5 wäre um mehrere Jahre verzögert worden. Offenbar entschied man sich für die Methode „Augen zu und durch“, in der Hoffnung, dass die Unzulänglichkeiten hoffentlich keinem auffallen. Da der Großteil der Medienlandschaft die IPCC-Ergebnisse sowieso generell ungeprüft übernimmt, hat dies auch ziemlich gut funktioniert.
Im Februar 2014 thematisierten Nicholas Lewis und Marcel Crok das IPCC-Dilemma bezüglich der Klimasensitivität in einem lesenswerten Bericht, der als GWPF Report 12 erschienen ist:

Auszug aus der Zusammenfassung:
Erst während der letzten Jahre ist es möglich geworden, gute empirische Schätzungen der Klimasensitivität vorzunehmen aus gemessenen Daten wie Temperatur und ozeanischen Wärmerekorden. Diese Schätzungen, publiziert in führenden wissenschaftlichen Journalen, zeigen bei einer Verdoppelung des CO2-Gehaltes zumeist eine Klimasensitivität, die zu einer langfristigen Erwärmung unter 2°C führt und unter 1,5°C während einer Periode von 70 Jahren. Dies zeigt eindeutig, dass die Modelle eine zu hohe Sensitivität bzgl. Kohlendioxid annehmen und in fast allen Fällen die wahrscheinliche globale Erwärmung übertreiben. … Gute empirische Schätzungen sowohl langfristig als auch über Zeiträume von 70 Jahren implizieren jetzt sehr unterschiedliche Erwartungen hinsichtlich einer zukünftigen Erwärmung verglichen mit den Klimamodellen – etwa 40% bis 50% niedriger bis zum Zeitraum 2018 bis 2100. Dies ist fast mit Sicherheit das wichtigste Ergebnis der Klimawissenschaft während der letzten Jahre, vor allem weil es gute Gründe gibt, die Zuverlässigkeit der Klimamodell-Vorhersagen anzuzweifeln. Allerdings geht das IPCC in seinem Bericht auf diesen Punkt nur indirekt ein. Mehr noch, anstatt die Best Estimate der Klimasensitivität im Licht der neuen empirischen Schätzungen zu reduzieren hat es einfach die untere Grenze der Unsicherheits-Bandbreite tiefer gelegt und es versäumt, eine Best Estimate zu geben ohne angemessen zu erklären, warum dies zu tun erforderlich war. Erst in der im Januar 2014 veröffentlichten Endfassung wurde in der Technical Summary ein Absatz mit etwas mehr Erklärung hinzugefügt. Die neue Information zur Klimasensitivität zeigt, dass das Zwei-Grad-Ziel der Regierung selbst bei relativ hohen Emissionen wahrscheinlich erst zum Ende des Jahrhunderts erreicht wird.
Eine gute graphische Übersicht von 14 wichtigen Arbeiten der vergangenen vier Jahre haben Patrick Michaels und Paul Knappenberger am 25. September 2014 auf WUWT zusammengestellt (Abbildung 3):


Abbildung 3: Übersicht der ECS-Klimasensitivität aus bedeutenden Arbeiten der vergangenen vier Jahre. Quelle: Patrick Michaels und Paul Knappenberger, WUWT.
Eine noch umfangreichere Auflistung gibt es auf The Hockeyschtick. Hier werden gleich 40 wissenschaftliche Studien vorgestellt, die eine ECS von 2,0°C oder weniger postulieren.
TCR – kurzlebige Reaktionen des Klimas [Transient Climate Response]
Schauen wir jetzt noch kurz in die kurzfristigere TCR. Der IPCC interpretiert in seinem aktuellen 5. Bericht eine TCR zwischen 1,0°C und 2,5°C. Ein Mittelwert ist erneut nicht angegeben, würde aber 1,75°C entsprechen.
Auch hier kommen neuere Studien auf deutlich niedrigere Werte. So reichten van der Werf und Dolman im Mai 2014 eine Arbeit im Fachblatt Earth System Dynamics ein, in dem sie eine TCR von 1,3°C darstellen. Das hat den IPCC-Torwächtern natürlich gar nicht gefallen. Im Begutachtungsverfahren „überzeugte“ man die Autoren, die TCR auf 1,6°C hochzusetzen, so dass die finale Version des Artikels aus dem Oktober 2014 jetzt diesen Wert enthält.
Da waren Nicholas Lewis und Judith Curry deutlich standfester. In ihrer im September 2014 in Climate Dynamics erschienenen Arbeit berichten sie eine TCR in Höhe von 1,33°C, was am unteren Ende des vom IPCC im AR5 verbreiteten Möglichkeitsspektrums liegt.
Craig Loehle geht mit einer TCR von 1,09°C sogar fast an den untersten Rand der IPCC-Werte. Diese Arbeit erschien wie bereits berichtet im März 2014 im Fachblatt Ecological Modelling.
Ein Forscherteam um Krasting und Kollegen ging im April 2014 in den Geophysical Research Letters sogar von noch niedrigeren TCR-Werten aus, nämlich einem Bereich zwischen 0,76 und 1,04°C.
Weitere neuere Erkenntnisse
Neben den harten ECS/TCR-Werten gab es auch noch andere Erkenntnisgewinne. So räumte Kim Cobb im April 2014 im IPCC-nahen Fachblatt Nature Climate Change ein, dass die Klimasensitivität wohl doch insgesamt niedriger ist als gedacht. Man habe die natürliche Klimavariabilität auf der Südhalbkugel wohl unterschätzt.
Im Dezember 2014 berichteten Winton et al. in den Geophysical Research Letters dass man wohl die AMOC-Ozeanzyklik zu wenig auf der Rechnung hatte und die TCR-Abschätzungen deshalb wohl in der Vergangenheit zu hoch ausgefallen sind.
Einen interessanten Einblick in die Denkweise von IPCC-nahen Wissenschaftlern gab es im April 2014 in den Geophysical Research Letters. Dort gestanden Kummer & Dessler ein, dass die historischen Temperaturdaten des 20. Jahrhunderts lediglich eine ECS von 2,3°C rechtfertigen würden, was krass von den 3°C der theoretischen IPCC-Modelle abweicht. Im Paper fangen sie dann an laut zu denken. Wie konnte dies nur passieren, wie kriegen wir diesen unbequemen Umstand möglichst elegant und leise vom Tisch? In ihrer Verzweiflung fangen sie dann an, Gründen für die zu schwache Erwärmung der letzten 150 Jahre zu ersinnen. Dabei greifen sie letztendlich auf den bereits in unserem Buch „Die kalte Sonne“ ausführlich beschriebenen Trick zurück und erhöhen einfach die kühlende Wirkung der Aerosole, der Schwebteilchen in der Atmosphäre. Zur Linderung der Modellierungsschmerzen muss auch das Ozon seinen Beitrag leisten. Nach Anwendung von Trick 17 und Trick 18 ist dann die reale Welt an die wunderbare Computerwelt angepasst und alle können wieder beruhigt ihrem alarmistischen Tagesgeschäft nachgehen. Im Folgenden die Kurzfassung der Arbeit:
Schätzungen der Gleichgewichts-Klimasensitivität der Erde (ECS) aus Beobachtungen im 20. Jahrhundert sagen eine niedrigere ECS vorher als Schätzungen der Klimamodelle, paläoklimatische Daten und Variabilität von Jahr zu Jahr. Hier zeigen wir, dass Schätzungen der ECS aus Beobachtungen im 20. Jahrhundert hinsichtlich der vermuteten Wirksamkeit von Aerosol- und Ozon-Antrieb sensitiv sind (Wirksamkeit eines Antriebs ist die Größe der Erwärmung pro Einheit globaler mittlerer Antrieb dividiert durch die Erwärmung pro Antriebseinheit aus CO2). Frühere Schätzungen der ECS auf der Grundlage von Beobachtungen im 20. Jahrhundert haben nahe gelegt, dass die Wirksamkeit einheitlich ist, wobei sich in unserer Studie eine ECS von 2,3 K ergibt (5% bis 95% Bandbreite von 1,6 bis 4,1 K), was dicht an der unteren Grenze der vom IPCC angebotenen Bandbreite von 1,5 bis 4,5 K liegt. Eine Zunahme der Aerosol- und Ozon-Wirksamkeit auf 1,33 lässt die ECS steigen auf 3,0 K (1,9 bis 6,8 K), ein Wert, der in ausgezeichneter Übereinstimmung mit anderen Schätzungen steht. Die Wirksamkeit von Antrieben bietet daher einen Weg, den Graben zwischen verschiedenen ECS-Schätzungen zu überbrücken.
Eine mysteriöse Geschichte gab es am 3. Dezember 2014 auf der Webseite von Bild der Wissenschaft zu lesen:

Klima: Schnell aufgeheizt und lange warm
Die Treibhauswirkung von Kohlendioxid ist längst unstrittig: Das Gas hält Wärme in der Atmosphäre fest und trägt damit zum Klimawandel bei. Wie schnell sich aber eine Emission von CO<sub>2</sub> tatsächlich am globalen Thermometer bemerkbar macht, das war bisher unklar. Zwei US-Forscher haben diese Unsicherheit nun beseitigt. Ihre Modellsimulationen zeigen, dass das Klimasystem deutlich schneller auf das CO<sub>2</sub> reagiert als gedacht: Schon zehn Jahre nach einer CO<sub>2</sub>-Emission tritt die dadurch verursachte Erwärmung ein – diese Klimawirkung hält dann allerdings über mehr als ein Jahrhundert an. Für die Klimaverhandlungen in Lima sollte das eine Mahnung sein. […] Das Ergebnis: Es dauert im Mittel 10,1 Jahre, bis eine Dosis freigesetzten Kohlendioxids ihre maximale Treibhauswirkung entfaltet. Der CO<sub>2</sub>-Gehalt der Atmosphäre steigt dabei schon deutlich schneller an. Aber vor allem die thermische Trägheit der Ozeane bremst die dadurch erzeugte Erwärmung ab, so dass sie sich erst nach rund einem Jahrzehnt bemerkbar macht, wie die Forscher erklären. 

Im Prinzip heißt dies nichts anderes, als dass ECS und TCR viel näher aneinander liegen könnten als gedacht. Nach 10 Jahren wäre die volle Wärmewirkung erreicht, lautet das Ergebnis der Modellierung. In der Realität sieht es leider anders aus: Seit nunmehr 16 Jahren verharrt die globale Temperatur auf einem Plateauwert, und das obwohl der CO2-Gehalt in der gleichen Zeit munter weiter angestiegen ist. Nach deutlich mehr als 10,1 Jahren hat es das CO2 offenbar immer noch nicht geschafft, die ihm zugeschriebene starke Erwärmungswirkung zu entfalten. Ist das CO2 vielleicht doch nicht so klimatreibend wie gedacht? Oder ist die natürliche Variabilität viel stärker als vom IPCC vorgeschlagen? Fakt ist, dass die angeblich so schnell auf das CO2 reagierende Atmosphäre noch immer voll und ganz durch die natürlichen Prozesse dominiert wird. Weshalb diskutiert Bild der Wissenschaft diese Fragen nicht?
Angesichts der mageren Temperatursteigerung im 20. Jahrhundert und der fehlenden Erwärmung der letzten 16 Jahre fragen sich die Wissenschaftler, wann wohl genug Daten vorliegen könnten, so dass man die wahre CO2-Klimasensitivität endlich festnageln und genau eingrenzen könnte. Ein Forscherteam um Nathan Urban hat im April 2014 in den Geophysical Research Letters versucht, einen Entscheidungshorizont abzuschätzen. Vermutlich wird es erst 2030 möglich sein, zu erkennen, ob die ECS eher 1,5°C oder 3,0°C beträgt. Im Falle noch höherer ECS-Wert würde dies sogar noch länger dauern. Allerdings sind höhere ECS-Beträge angesichts der neueren Arbeiten eher unwahrscheinlich. Auszug aus der Kurzfassung:
Wir zeigen, dass eine Klimasensitivität von 1,5°C statistisch unterschieden werden kann von 3°C bis 2030, 3°C von 4,5°C bis 2040 und 4,5°C von 6°C bis 2065. Das Erkennen von Raten ist am langsamsten in den größte Bedenken hervorrufenden Szenarien (hohe Sensitivitäten) infolge einer längeren Zeit der ozeanischen Reaktionen bei der Abwägung zwischen Abwarten und vorsorglicher Abschwächungspolitik.
Wer sich noch tiefer in das Thema einarbeiten möchte, dem sei der Climate Dialogue aus dem Mai 2014 „Climate Sensitivity and Transient Climate Response“ mit James Annan, John Fasullo und Nic Lewis empfohlen. Eine gute Übersicht zum Thema gibt es auch von Chip Knappenberger, die am 19. März 2012 auf WUWT erschien. Und schließlich greifen auch Frank Bosse und Fritz Vahrenholt in ihrer monatlichen Sonnenkolumne immer wieder das Thema der CO2-Klimasensitiität auf (z.B. hier, hier, hier).
Link: http://www.kaltesonne.de/studien-aus-2014-geben-hoffnung-erwarmungswirkung-des-co2-wohl-doch-deutlich-uberschatzt-und-muss-nach-unten-korrgiert-werden/
Dieser Artikel ist zuerst bei „Die Kalte Sonne“ erschienen (siehe Link). Übersetzungen der englischen Passagen durch Chris Frey EIKE




GWPF mit Analyse zur klimatischen ‘Gehirnwäsche’ an britischen Schulen

Bild rechts: Beispiel, wie das Verständnis von Grundschulkindern der anthropogenen globalen Erwärmung erzeugt werden soll. Quelle: Collace Primary School (Wensite perth & Kinross)
Im Folgenden die Kurzfassung der Analyse:

Executive summary

Wir haben Beispiele schwerer Fehler gefunden sowie irreführende Behauptungen und Verzerrungen durch die unzureichende Behandlung von Klimathemen in Lehrmaterialien für Schulen. Darunter sind viele verbreitet genutzte Lehrbücher, Lehrer unterstützende Ressourcen und Schülerprojekte. Wir finden Beispiele von Ökoaktivismus, den man sich an Schulen frei entfalten lässt, und die Schulen ermutigen ihre Schüler dabei mitzumachen. In jedem untersuchten Teilaspekt liegt der Schwerpunkt auf Angsterzeugung und auf zunehmende Befürchtungen, gefolgt von gezielten Anweisungen, wie Schüler leben sollten und auch dazu, was sie denken sollen. In einigen Fällen fanden wir die Ermutigung, „kleine politische Aktivisten“ in Schulen zu werden, was ihnen eine schwere Last von Verantwortung auferlegt für ihre Aktionen zur ,Rettung des Planeten‘, nicht zuletzt dadurch, dass man Druck auf deren Eltern ausübt. Das National Curriculum wurde kürzlich durch die Regierung begutachtet, aber die vorgeschlagenen Änderungen scheinen nicht geeignet, derartige Praktiken zu unterbinden. Umfragen zeigen, dass viele Kinder wütend oder ängstlich sind durch das, was man ihnen bzgl. des Klimageschehens einredet. Lehrer und Administratoren haben weitgehend freie Hand bei der Auswahl der Lehrbücher, anderen Materialien, Referenten von außerhalb und Schülerreisen für Schüler unter der Voraussetzung, dass diese sich entsprechend der auf Linie liegenden Ziele verhalten. Dadurch erhebt sich das Risiko, dass Einige alarmierende und politisch befrachtete Quellen auswählen, um die Kinder für das ,Umweltproblem‘ zu gewinnen. Dieses ,Problem‘ wird oftmals präsentiert durch den Begriff ,Nachhaltigkeit‘, ein kaum definiertes Schlagwort, mit dem politische und persönliche Aktionen gerechtfertigt werden, an denen kaum fundamental Kritik geübt wird. Viele Kampagnen von NGOs und anderer Organisationen mit Interessen wie Energieunternehmen bieten Lehrmaterialien und andere Quellen für den Gebrauch an Schulen an. Einige davon werden vermutlich auch genutzt. Es gibt eindeutig in dieser Hinsicht sehr ernste Bedenken. Wir appellieren daher an den Minister für Bildung in UK sowie an deren Kollegen in Schrottland, Wales und Nordirland, dringende Untersuchungen vorzunehmen hinsichtlich der Klimabildung an unseren Schulen. Nur eine systematische Evaluierung dessen, was da vor sich geht, kann das Ausmaß der Indoktrination erfassen ebenso wie die emotionalen Schäden und Bildungslücken der Schüler, zu denen es zweifellos dadurch kommt.

———————————-
Apropos “The Hockey Stick Illusion”. Ein wichtiges Element der Hockeyschläger-Affäre waren Baumringe, die in kreativer Weise in fragwürdige Klimasignale umgesetzt wurden. Ein Forscherteam um Matthew Salzer von der University of Arizona hat nun eine weitere Bestätigung gefunden, dass die damals verwendeten Baumringdaten krass von der Temperaturentwicklung abwichen. Alles schön nachzulesen in WUWT, Climate Audit und JoNova basierend auf Salzer et al.. Hier die Kurzfassung der Arbeit aus den Enviromental Research Letters, die dort im November 2014 erschien:
Sich ändernde Klimareaktion in Baumringen von Grannenkiefern mit Höhe und Aussehen
In den White Mountains in Kalifornien wurden acht Chronologien aus der Dicke von Baumringen in Grannenkiefern (Pinus longaeva) entwickelt, und zwar von Bäumen an der oberen Baumgrenze und unmittelbar unter der oberen Baumgrenze entlang nach Norden bzw. Süden weisender Querschnitte von der Baumgrenze bis etwa 90 m darunter. Es gibt Beweise für eine auf das Klima reagierende Schicht zwischen etwa 60 und 80 Metern unterhalb der Baumgrenze. Über dieser haben die Bäume bzgl. ihres Wachstums auf die Temperatur reagiert, darunter aber nicht. Chronologien von 80 m oder mehr unter der Baumgrenze zeigen eine Änderung bei den Reaktionen auf das Klima und korrelieren nicht stark mit temperatursensitiven Chronologien, die entwickelt wurden aus Bäumen an der oberen Baumgrenze. Vielmehr spiegeln sie mehr von Niederschlag abhängige Chronologien weiter unten. An den höchsten Stellen wachsen die Bäume auf Südhängen schneller als auf Nordhängen. Hohe Wachstumsraten im Bereich der Baumgrenze auf Südhängen haben seit Mitte der neunziger Jahre abgenommen. Dies zeigt die Möglichkeit, dass die Klimareaktion der höchsten, nach Süden zeigenden Bäume sich geändert haben könnten und dass die Temperatur nicht länger der Hauptfaktor hinsichtlich des Wachstums an Südhängen sein könnte. Diese Ergebnisse zeigen, dass zunehmende Wärme zu einer Divergenz zwischen Wachstum der Bäume und Temperatur führen kann, und zwar an zuvor temperatur-limitierten Stellen.
———————————-
Ein Musikfestival in Würzburg springt auf den Klimwandelzug auf, um seine Existenz zu retten. Im Jahr 2013 wurden die Musikanten vom Hochwasser geschädigt, einem Wetterereignis. Da es für Wetter derzeit kaum Verständnis gibt, wurde das Missgeschick schnell als Klimaschaden umbetitelt und dadurch kräftig Spendengelder eingesammelt. Die Welt berichtete am 5. Dezember 2014:

Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter Stefan Oschmann am Freitag in Würzburg.

Sicher macht es Sinn, ein Musikfestival gegen Wetterrisiken abzusichern. Die hat es immer gegeben und werden auch in Zukunft ihr Unwesen treiben. Aus klimatischer Sicht ist es jedoch ärgerlich, dass hier mit falschen Karten gespielt wird. Siehe unseren Blogbeitrag “Was waren die wahren Hintergründe der mitteleuropäischen Flut 2013?“.
———————————-
Nochmal Die Welt, diesmal vom 7. Dezember 2014:

Greenpeace: Stürme auf Philippinen zeigen Gefahren durch Klimawandel
Die heftigen Stürme auf den Philippinen verdeutlichen nach Ansicht der Umweltschutzorganisation Greenpeace die Bedrohungen durch den Klimawandel. “Die Natur verhandelt nicht”, sagte Greenpeace-Chef Kumi Naidoo am Sonntag bei einem Besuch in dem Land. “Wir müssen einsehen, dass uns die Zeit davon läuft”, ergänzte er.

Tja, da merkt man, dass Naidoo kein Naturwissenschaftler ist, sondern Politikwissenschaften studiert hat. Denn seriöse Forscher erteilen der Behauptung eine Absage und finden keinen Bezug zwischen Taifun Haiyan und dem Klimawandel. Siehe unseren Blogbeitrag “Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität“.
———————————-
Ein Lob an die grösste Schweizer Konsumentenzeitschrift, das Migros-Magazin. In einem Gletscherartikel werden im Text Zweifel an der unumkehrbaren IPCC-Schmelzhypothese zugelassen. Es ist schön, dass man Prof. Christian Schlüchter zu Wort kommen ließ, was heutzutage schon als grosser Fortschritt gewertet werden kann. Hier der entsprechende Auszug aus dem Artikel “Im ewigen Eis”, der am 8. Dezember 2014 in Migros erschien:

Obwohl [der Langgletscher] der grösste Gletscher der Alpen ist, könnte er aufgrund der Klimaerwärmung in gut 100 Jahren bereits verschwunden sein. Diese Meinung hat der Glaziologe Martin Funk von der ETH Zürich jedenfalls 2006 gegenüber «10 vor 10» vertreten. Er prognostizierte, dass es in rund 100 Jahren, wenn überhaupt, Gletscher nur noch auf Höhen über 4000 Metern geben könnte. Andere wiederum weisen darauf hin, dass es vorübergehende Gletscherschwunde schon immer gegeben habe. Dazu zählt etwa der Berner Geologe Christian Schlüchter, der im SAC-Magazin «Alpen» kürzlich die These konstatierte, dass es seit dem Ende der letzten Eiszeit vor 12 000 Jahren in den Alpen zwölf Phasen gegeben hätte, in denen die Gletscher deutlich kleiner waren als heute. Hansueli nimmts fatalistisch: «Uns Bergführern bleibt derzeit nichts anderes übrig, als uns den Gegebenheiten anzupassen.»

Das dort angesprochene Interview von Prof. Schlüchter in der SAC-Zeitschrift “Die Alpen” (Nr. 4/2014) ist für Mitglieder per Web abrufbar.
Link: http://www.kaltesonne.de/klimanews5-3/
Beitrag zuerst erschienen auf „Die Kalte Sonne“. Übersetzung der englsichen Passagen von Chris Frey EIKE




Ertappt: Geomar verschweigt in Pressemitteilung bedeutende Schmelzphase des arktischen Meereises in den 1960er Jahren

Bild rechts: Offiziell lieber Gras über die Sache wachsen lassen! Bild: Denise / pixelio.de
Damals kam die Welt gerade aus der Kleinen Eiszeit heraus. Man freute sich über die Wiedererwärmung. Warm war gut. Noch gab es keinen IPCC. So konnte man in der neuseeländischen Zeitung „The Press“ am 8. November 1887 auf Seite 6 doch tatsächlich über die Wikingerfahrten und das stark geschrumpfte Meereis lesen, heute unvorstellbar (mit Dank an Spürfuchs Steve Goddard):

Übersetzung des Textes: Im Gegenteil, die Eisbildung nimmt jährlich zu, falls die Winter streng, lang und dunkel sind.Die Umkehrung dieses Zustandes wurde gefunden durch Berechnungen für das Jahr 1122, und genau zu dieser Zeit fuhren, wie wir wissen, Dänen und andere Skandinavier durch die offenen Gewässer des Arktischen Ozeans.
Sie haben Kolonien gebaut in den nördlichsten Gebieten von Grönland und dem nördlichen Teil Nordamerikas, und zwar lange, bevor Christoph Columbus einen südlicher gelegenen Teil des gleichen Kontinents erreicht hatte. Aber diese Kolonien waren dem Untergang geweiht infolge der wieder zunehmenden Kälte. Im 14. Jahrhundert fand man die Gewässer wieder geschlossen vor, selbst im Sommer. Das Große Nördliche Eisfeld (banquise) nimmt täglich zu, die arktischen Kolonisten sind gezwungen, sich weiter nach Süden zurückzuziehen, und die Kälte nahm wieder Besitz von Gebieten, die einige Jahre lang im 12. Jahrhundert frei waren. Die Überreste jener arktischen Dörfer tauchen jetzt auf bei – wie ich sagen möchte – jeder Arktis-Expedition. Das immer kälter werdende Klima von Island beweist, dass der Zustand der Erde im Verlauf von Jahrhunderten variiert, regelmäßig obiger Theorie folgend.
Aber man muss gar nicht so weit zurückgehen. Auch zwischen 1920 und 1940 ereignete sich eine starke Schmelzphase im Nordpolarmeer. Der ehemalige Hamburger Max-Planck-Direktor Lennart Bengtsson fasste 2004 im Journal of Climate das Wissen über die Warmphase zusammen. Schon damals stellte er den Zusammenhang mit Ozeanzyklen her, die im 60-Jahres-Takt das Klimageschehen beeinflussen. Im Folgenden die Kurzfassung der Arbeit:
Die Erwärmung der Arktis Anfang des 20.Jahrhunderts – ein möglicher Mechanismus
Die gewaltige Erwärmung der Arktis, die Anfang der zwanziger Jahre begonnen hatte und fast zwei Jahrzehnte dauerte, ist eines der spektakulärsten Klimaereignisse des 20.Jahrhunderts. Während der Spitzenperiode 1930-40 stieg die Anomalie der jährlich gemittelten Temperatur zwischen 60°N und 90°N auf etwa 1,7°C. Ob dieses Ereignis ein Beispiel interner Klimaverschiebungen oder extern getrieben ist wie etwa verstärkter solarer Effekte, wird gegenwärtig debattiert. Diese Studie zeigt, dass die natürliche Variabilität ein wahrscheinlicher Grund ist, wobei eine verringerte Meereisbedeckung für die Erwärmung ausschlaggebend war. Eine belastbare Beziehung zwischen Lufttemperatur und Meereis wurde durch einen Satz von vier Simulationen gezeigt mit dem atmosphärischen ECHAM-Modell, berechnet mit gemessenen Wassertemperaturdaten und Meereis-Konzentrationen. Eine Analyse der räumlichen Charakteristika der beobachteten Lufttemperatur Anfang des 20. Jahrhunderts enthüllte, dass diese mit ähnlichen Meereis-Variationen assoziiert war. Weitere Untersuchungen der Variabilität der Lufttemperatur in der Arktis und der Meereisbedeckung wurden durchgeführt mittels Analysen der Daten aus einem gekoppelten Ozean-Atmosphäre-Modell. Durch Analysen von Klimaanomalien in dem Modell, die ähnlich jenen sind, die Anfang des 20.Jahrhunderts auftraten, ergab sich, dass die simulierte Temperaturzunahme in der Arktis verbunden war mit einem verstärkten, durch Wind getriebenen Eindringen von Meerwasser in die Barents-See und einem daran gekoppelten Rückzug des Meereises. Die Größenordnung des Eindringens ist abhängig von der Stärke der Westwindströmung in die Barents-See. Diese Studie zeigt einen Mechanismus, der die verstärkten Westwinde durch eine zyklonale atmosphärische Zirkulation in der Barents-See aufrecht erhält. Auslöser für diese Zirkulation war ein starker oberflächennaher Wärmefluss über den eisfreien Gebieten. Messdaten zeigen eine ähnliche Abfolge von Ereignissen während der Erwärmung der Arktis Anfang des 20. Jahrhunderts, einschließlich verstärkter Westwinde zwischen Spitzbergen und Norwegen, reduzierter Meereisbedeckung und verstärkter zyklonaler Aktivität über der Barents-See. Gleichzeitig hatte sich die nordatlantische Oszillation abgeschwächt.
In der Presse liest man über diese Schmelzphase heute recht wenig. IPCC-nahe Wissenschaftler wollen uns glauben lassen, dass es in den letzten 150 Jahren angeblich nur einen einzigen Trend gibt, nämlich den stetig-schleichenden Tod des arktischen Meereises. So erschien im Dezember 2013 im Fachmagazin PNAS eine Rekonstruktion der arktischen Meereisbedeckung für die vergangenen 650 Jahre mithilfe von arktischen Algen. Die Studie wurde angeführt von Jochen Halfar von der University of Toronto. Auch das Kieler Geomar war in Person von Steffen Hetzinger an der Arbeit mit beteiligt. Bereits am 19. November 2013 gab daher das Geomar im Rahmen einer Pressemitteilung bekannt:

Seit dem Ende der Eiszeit um 1850 herum zeigt das Archiv der Rotalge einen kontinuierlichen Rückgang der Eisschicht, der bis heute andauert. Dieser Rückgang ist stärker, als wir jemals zuvor in der 650 Jahre langen Rotalgen-Zeit beobachten konnten.“

Der österreichische Standard fing den Klimaalarm-Ball sogleich auf und informierte seine Leser:

Ein Team von internationalen Forschern hat erstmals die Entwicklung des Meereises in der Arktis bis ins Mittelalter zurück verfolgt. Dabei fanden die Wissenschafter von der Universität Göttingen unter anderem heraus, dass die Eisdecke seit Mitte des 19. Jahrhunderts kontinuierlich schmilzt. Geholfen haben ihnen dabei Rotalgen, die die Klimageschichte der letzten Jahrhunderte gleichsam konservierten. Bislang reichten die Daten von Satelliten über die Arktis nur bis in die späten 1970er-Jahre zurück.

Unter dem Wort „kontinuierlich“ stellt man sich vor, dass das Eis immer weiter abschmilzt, ohne größere zwischengeschaltete Wachstumsphasen des Eises. Nun werden sich die wenigsten Leser die Mühe gemacht haben, die Originalarbeit durchzulesen. Die Autoren werden in ihrer Pressemitteilung doch sicher nur die Wahrheit und nichts als die Wahrheit berichtet haben, oder? Der Blick in die Publikation bringt dann jedoch eine bittere Enttäuschung. In Abbildung 2b der Arbeit ist nämlich die Entwicklung der Meereiskurve für Neufundland für die vergangenen 150 Jahre detailliert dargestellt (Abbildung 1). Das Ergebnis: In den 1960er Jahren in der Vor-Satellitenzeit war das Meereis schon einmal so stark geschrumpft war wie heute. In der Pressemitteilung wird dieser unbequeme Umstand doch glatt verschwiegen.

Abbildung 1: Die blaue Kurve gibt die Entwicklung des Meereises vor Neufundland für die vergangenen 150 Jahre wieder. Ausschlag nach oben markiert Schrumpfen, Ausschlag nach unten Zuwachs. Quelle: Halfar et al 2013.
In der Arbeit selber erklären die Autoren die Entwicklung sogar korrekterweise mit dem Einfluss der atlantischen Ozeanzyklen:
Modellstudien haben gezeigt, dass die NAO einen Einfluss auf die räumliche Verteilung winterlichen Meereises ausübt mittels windgetriebener Anomalien der Meereis-Geschwindigkeit, vertikalem Wärmefluss von der Oberfläche und möglicherweise einem horizontalen ozeanischen Wärmefluss. Es gibt starke Beweise aus Beobachtungen, dass die Meereisverteilung in der Arktis verbunden ist mit dem positiven NAO-Trend von den sechziger bis Anfang der neunziger Jahre.
In der Geomar-Pressemitteilung wird die zyklische Natur des Meereises ebenfalls mit keinem Wort erwähnt. Eine bewusste Irreführung der Öffentlichkeit. Weder schrumpfte das Eis „kontinuierlich“, noch spielt CO2 die einzige Rolle, wie die Forscher uns weismachen wollen. Ob Steffen Hetzinger weiß, was er da tut? Er ist ein junger Kerl, der vermutlich noch eine Dauerstelle benötigt und daher das Klimapanik-Spiel mitspielen muss. Hat ihm das Geomar diese Pressemitteilung aufgezwungen oder war es seine eigene Idee, mit dem Klimaalarm kräftig zu punkten? Mit sauberer Wissenschaft hat dies nichts mehr zu tun. Kein guter Start in das Arbeitsleben.
Wie würde die Meereisdiskussion heute aussehen, wenn schon um 1960 mit der systematischen satellitengestützten Vermessung der Meereisdecken begonnen wurde? Bekanntlich starteten die Messungen erst im Jahr 1979. Im ersten IPCC-Bericht von 1990 war man noch naiv-ehrlich und verriet doch glatt, das kurz vor Beginn der Satellitenmessära offenbar deutlich weniger arktisches Meereis existierte als während der späteren Messphase ab 1979 (Abbildung 2). In den späteren IPCC-Berichten ließ man den Beginn der Graphik dann geschmeidig unter den Tisch gleiten.

Abbildung 2: Entwicklung des arktischen Meereises von 1973-1990. Quelle: 1. IPCC-Klimabericht (1990).
Angesichts der oben angeführten Schmelzphase in den 1960er/70er Jahren wundert es doch sehr, dass das Umweltbundesamt mit einer fragwürdigen IPCC-Graphik den Klimaalarm bewirbt, in dem die Schmelze kaum erkennbar ist (Abbildung 3).

Abbildung 3: IPCC-Graphik, die das Umweltbundesamt auf seiner Webseite zur Illustration der arktischen Meereisentwicklung verwendet. Dargestellt ist angeblich die „beobachtete mittlere Ausdehnung des arktischen Sommer-Meereises (Juli-September)“. Originalquelle: IPCC.
Sehr unrecht muss dem Umweltbundesamt sicher die Wiederentdeckung von alten Nimbus-Satellitenbildern gewesen sein, die für die 1960er Jahre große Löcher im arktischen Meereis dokumentieren. Spiegel Online meldete am 4. November 2014:
Bereits am 21. Oktober 2014 hatte Mashable über die unerwarteten Löcher im Nordpolarmeereis berichtet:
Die NIMBUS-Daten bieten die früheste bekannte Sicht auf das Meereis um die Antarktis, was jüngst Schlagzeilen gemacht hat bzgl. eines neuen Rekords hinsichtlich der Eisausdehnung. Gleichzeitig wurden große Brüche im Meereis der Arktis entdeckt an Stellen, an denen man zuvor deren Auftreten nicht erwartet hätte. Die moderne Satellitenaufzeichnung der Eisverhältnisse in Arktis und Antarktis beginnt im Jahre 1979, so dass die hinzugefügten Daten den Wissenschaftlern längerfristige Übersichten vermittelte, die für das Verständnis der derzeitigen Vorgänge wichtig sind … Die Meereisausdehnung in der Arktis war in den sechziger Jahren viel größer als heute, sagte Gallaher, was konsistent ist mit der durch die globale Erwärmung ausgelösten Abnahme des arktischen Meereises. Und doch, selbst in Jahren mit größeren Eisvolumina ortete der Satellit eisfreie Gebiete nahe dem Nordpol mit einem Durchmesser von 200 bis 300 Meilen [ca. 320 bis 480 km]. „Wir fanden Löcher im Eis des Nordpols, die zu finden wir nicht erwartet hatten“, sagte er. „Es ist ein großes Loch“, sagte Garrett Campbell, der auch am NIMBUS-Projekt des NSIDC arbeitet.
Artikel zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE




Woher stammen die Gelder der European Science Foundation? Ausschuss des US-Senats beklagt fragwürdige Einflussnahme durch umweltaktivistischen Milliardärsclub

In den USA haben die U.S Environment and Public Works (EPW) Committee Republicans Ende Juli 2014 die Ergebnisse einer Untersuchung veröffentlicht, in der die Geldströme der links-extremen Umweltbewegung recherchiert wurden. Das Resultat ist erschütternd: Angeblich unabhängige Umweltorganisationen entpuppten sich als von Milliardären gesteuerte Marionetten. Zudem flossen enorme staatliche Zuwendungen in Aktivistengruppierungen. Ähnlich wie in Deutschland ist das US-amerikanische Bundesumweltamt in erschreckender Weise eng mit der links-extremen Umweltbewegung verbandelt. Den Gesamtbericht finden Sie als pdf hier. Auszug aus der Pressemitteilung:

The Chain of Environmental Command

Zentrale Punkte des Berichtes u. A.:
Der „Milliardärs-Club“, eine exklusive Gruppe von wohlhabenden Individuen dirigiert die Linksaußen-Umweltbewegung. Die Mitglieder dieses elitären liberalen Clubs kanalisieren ihre Schicksale durch private Stiftungen, um ihre persönliche politische Agenda durchzusetzen, in deren Mittelpunkt die Beschränkung der Verwendung fossiler Treibstoffe in den USA steht.
Öffentliche Wohlfahrtsverbände versuchen, das maximale Maß an Bevorzugung für ihre Spender durch steuerliche Förderung zu sichern. Es sind aber rechtlich bedenkliche Innovationen, die auch nur von linker Seite kommen. Wobei aber diese Wohlfahrtsverbände ihren gemeinnützigen Status einer Gruppe tatsächlich gegen eine Gebühr verkaufen.
Öffentliche Wohlfahrts-Aktivistengruppen propagieren die falsche Vorstellung, dass sie unabhängig sind und als von Bürgern finanzierte Gruppen uneigennützig arbeiten. In Wirklichkeit arbeiten sie eng zusammen mit wohlhabenden Spendern, um die Höhe der steuerbefreiten Spenden zu maximieren. Sie sprechen sich ab hinsichtlich ihrer kombinierten Ressourcen zur Einflussnahme auf Wahlen und politische Entscheidungen mit dem Schwerpunkt auf der EPA
Die Environmental Grantmakers Association EGA ist eine Stelle, an der sich wohlhabende Spender treffen und die Verteilung der Zuwendungen koordinieren, um die Umweltbewegung zu fördern. Die EGA ermutigt zum Gebrauch vorgeschriebener Zuwendungen [EGA encourages the use of prescriptive grantmaking]. Es ist eine verschwiegene Organisation, die es ablehnt, ihre Mitgliederliste dem Kongress vorzulegen
Die Obama-Administration hat unverfroren eine sich grün drehende Tür [a green-revolving door] unter leitenden EPA-Funktionären installiert, welche zu einem wertvollen Aktivposten für die Umweltbewegung und deren wohlhabende Spender geworden ist.
Ehemalige für die EPA arbeitende Umweltaktivisten kanalisieren Geld in Gestalt von Zuwendungen an ihren früheren Arbeitgeber und ihre früheren Kollegen.
Unter Präsident Obama hat die EPA über 27 Millionen Dollar an steuerfinanzierten Zuwendungen an bedeutende Umweltgruppen gezahlt. Im Einzelnen haben der Natural Resources Defense Council (NRDC) und der Environmental Defense Fund (EDF) – zwei zentrale Aktivistengruppen mit bedeutenden Verbindungen zu leitenden EPA-Funktionären – jeweils über 1 Million Dollar an Zuwendung erhalten.
Die EPA fördert auch weniger bekannte Gruppen. Zum Beispiel erhielt die Louisiana Bucket Brigade hunderttausende Dollar unter der ehemaligen Administratorin Lisa Jackson, obwohl staatliche Kontrolleure den Gebrauch derartiger Zuwendungen bereits in Frage gestellt hatten.
In New York und Colorado hat eine Pseudo-Initiative Bemühungen zur Verhinderung von hydraulischem Brechen mit massiven Zuwendungen seitens der in New York ansässigen Park Foundation finanziert, ebenso wie die in Kalifornien ansässigen Schmidt Family Foundation und Tides Foundation.
Nebraska ist ein weiteres Beispiel künstlich geschaffener Basisgruppen, wo eine angeblich lokale Organisation in Wirklichkeit ein Arm des Milliardärs-Clubs ist. Diese Gruppen sind nichts weiter als ein Schutzschild für wohlhabende und nichts mit Nebraska zu tun habende Interessen, die danach trachten, eine politische Agenda voranzubringen, ohne auf die Tatsache aufmerksam zu machen, dass sie ebenfalls Außenstehende sind, die kaum Verbindungen zu diesem US-Bundesstaat haben.
Die Umstände der Geldflüsse von 501(c)(3) und 501(c)(4)-Gruppen und die Wahrscheinlichkeit einer laxen Aufsicht werfen die Frage auf, ob nicht-profitorientierte Foundations und Wohlfahrtsverbände indirekt politische Aktivitäten finanzieren.
Der Green Tech Action Fund erhält Millionen Dollar von grünen Organisationen und verteilt diese Gelder an andere Gruppen, die dann für politische Kampagnen spenden.
Der Milliardärs-Club arbeitet wissentlich mit fragwürdigen Finanziers der Offshore-Aktivitäten zusammen, um die Unterstützung für die Linksaußen-Umweltbewegung zu maximieren.
In Europa wird die links-extreme Klimabewegung durch die European Climate Foundation (ECF) gesteuert. Laut eigenem Jahresabschlussbericht (S. 42), hatte die ECF im Jahr 2013 üppige 23,2 Millionen Euro zur Verfügung. 15,3 Millionen Euro gingen an Aktivisten und Projekte. Woher kommen bloß diese enormen Gelder? Bei der kalten Sonne beläuft sich das Jahresbudget auf etwa 25 Euro.  Die ECF hat also ca. eine Millionen mal mehr Gelder für ihre Aktionen zur Verfügung als unser Blog.
Die ECF führt auf ihrer Webseite sechs Hauptsponsoren für 2013 auf: The Children’s Investment Fund Foundation, ClimateWorks Foundation, McCall Macbain Foundation, Oak Foundation, Velux Fonden und die Nationale Postcode Loterij. Das hört sich zum Teil ziemlich amerikanisch an. Lesen wir daher im EPW-Bericht auf Seite 47 etwas näher nach:

Aktivisten-Organisationen dienen als Passier-Organe, die zusätzlichen Einfluss durchsetzen, während sie diverse Unterstützungen erzeugen.

Die Energy Foundation ist ein primäres Beispiel eines öffentlichen „Durchreich“-Wohlfahrtsverbandes, welcher massive Zuwendungen von privaten Foundations erhält. Die Energy Foundation fördert dann eine ganze Palette von Aktivisten-Organisationen. Im Gegensatz zu einem Geldgeber, der eine Abgabe zum Geldsammeln bewertet im Namen unerkannter Gruppen, verteilt eine „Durchreich“-Foundation Geld an bekannte Wohlfahrtsverbände. Die Energy Foundation wurde gegründet als als eine solche Passier-Organisation mit einer Aussteuer von 20 Millionen Dollar, gespendet von den Pew Charitable Trusts, der Rockefeller-Foundation und der John D. & Catherine T. MacArthur Foundation. Gegenwärtig werden auf der Website der Energy Foundation die folgenden Partner gelistet: ClimateWorks Foundation, Children’s Investment Fund Foundation, David and Lucile Packard Foundation, Grantham Foundation, Lakeshore Foundation, The McKnight Foundation, Oak Foundation, Pisces Foundation, Robertson Foundation, Schmidt Family Foundation, Tilia Fund, TomKat Fund, TOSA Foundation, The William and Flora Hewlett Foundation und Yellow Chair Foundation.

In den USA dient die ‘Energy Foundation’ als Geldsammel- und Durchreicheplatz. Von Milliardären kontrollierte kleinere Stiftungen pumpen Geld in die Foundation, von wo die Mittel dann an die Aktivistenprojekte verteilt werden. Auf dem alten Kontinent wurde mit der European Climate Foundation offenbar nun ein europäisches Pendant zur Energy Foundation geschaffen. Gleich drei US-Stiftungen sind bei der ECF als Hauptsponsoren aktiv, ClimateWorks Foundation, Children’s Investment Fund Foundation und Oak Foundation. Offensichtlich wollte man hier von den USA ausgehend ein weltweites Klimaaktivisten-Netzwerk schaffen, um die globale Energiepolitik zu beeinflussen.
Wo gehen die vielen ECF-Gelder eigentlich konkret hin? Auf der ECF-Webseite heißt es dazu:

Beispiele für geförderte Projekte
Mehr in kürze!

Das ist schon etwas dürftig und geheimnisvoll, wenn man bedenkt, dass die ECF bereits 2008 gegründet wurde, also vor 6 Jahren. An anderer Stelle der Webseite lässt man die Katze dann doch ein Stück weit aus dem Sack:

Die ECF fördert in Deutschland eine Vielzahl an zivilgesellschaftlichen Akteuren, zum Beispiel den WWF, den Naturschutzbund (NABU), die Deutsche Umwelthilfe (DUH), Germanwatch, das Forum Ökologisch-Soziale Marktwirtschaft und die Klima-Allianz. Außerdem unterstützen wir progressiv eingestellte Unternehmensorganisationen, wie etwa die Stiftung 2° und die Deutsche Unternehmensinitiative Energieeffizienz e. V. (DENEFF).

Der WWF stellt bekanntlich eines der Hauptprobleme in der transparenten Klimaberichterstattung des IPCC dar, hatte es die Organisation doch in der Vergangenheit geschafft, eine Vielzahl von WWF-Aktivisten in das IPCC-Autorenteam einzuschleusen. Anstatt ergebnisoffen die wischenschaftliche Faktenlage zu berichten, ging es dem WWF-Team vor allem darum, eine Gefahrenkulisse aufzubauen, um das Ziel der Eliminierung der Kohlenwasserstoff-Energieträger durchzuknüppeln. Die kanadische Journalistin Donna Lafromboise beschrieb das ganze Ausmaß der IPCC-Unterwanderung durch Umweltaktivisten in einem Beitrag im September 2013 im Wall Street Journal:
Das Problem ist, dass viele IPCC-Mitarbeiter Verbindungen zu Umweltgruppen haben, von denen viele durch den vermeintlichen Hype um die Gefahr der Klimaänderung Geld einsammeln. Diese Beziehungen wirft die legitime Frage nach ihrer Objektivität auf. Die Beispiele sind eine Legion. Donald Wuebbles, einer der beiden Leitautoren des einführenden ersten Kapitels der Arbeitsgruppe 1, hatte ein Jahrzehnt lang Alarmstimmung erzeugende Berichte zur Klimaänderung für die aktivistische Union of Concerned Scientists geschrieben. Ein weiteres Kapitel des Gesamt-IPCC-Berichtes über „offene Ozeane“ wird geleitet durch den australischen Meeresbiologen Ove Hoegh-Guldberg, der eine Reihe von Berichten geschrieben hat mit Überschriften wie „Pazifik in Gefahr“ für Greenpeace und den World Wildlife Fund WWF.
Der Astrophysiker Michael Oppenheimer, verantwortlich für ein anderes Kapitel im IPCC-Bericht über „steigende Risiken und Schlüssel-Verwundbarkeiten“, berät den Environmental Defense Fund (nachdem er über zwei Jahrzehnte lang auf dessen Gehaltsliste stand). Der Wissenschaftler Richard Moss von der University of Maryland ist ein ehemaliger Vollzeit-Vizepräsident des WWF, während Jennifer Morgan die leitende WWF-Sprecherin bzgl. Klimawandel ist. Beide sind gegenwärtig IPCC-Herausgeber von Begutachtungen – eine Position, die eigentlich sicherstellen soll, dass Feedbacks von externen Begutachtern angemessen berücksichtigt werden. Meine eigene Untersuchung des IPCC-Berichtes 2007 ergab, dass unter den Autoren von zwei Dritteln der 44 Kapitel darin zumindest ein Autor mit Verbindungen zum WWF war. Einige waren ehemalige Mitarbeiter oder sind es noch, andere waren Mitglied des Beratungsgremiums beim WWF, dessen Ziel es war, den Sinn für Dringlichkeit in der Öffentlichkeit um die Klimaänderung zu erhöhen.
Letztendlich fördert die ECF auch diese dubiosen Aktivitäten, obwohl die Aufgabe des IPCC eigentlich eine neutrale wissenschaftliche Darstellung und Abwägung sein sollten, unabhängig von der politischen Sichtweise. Es verwundert kaum, dass auch Projekte beim Potsdamer PIK-Institut durch die ECF gefördert wurden, wie der Förderliste zu entnehmen ist. An einer wirklichen wissenschaftlichen Aufarbeitung des Klimaproblems scheint man bei der ECF nicht interessiert zu sein. Ansonsten hätte sich die Stiftung wohl bereits beim kalten-Sonne-Team gemeldet, um dort wegen Förderung von Projekten zu natürlichen Klimafaktoren wie Ozeanzyklen und solaren Aktivitätsschwankungen anzufragen. Unser Kontaktformular ist übrigens hier.
Link: http://www.kaltesonne.de/?p=20772
Bericht zuerst erschienen bei www.kaltesonne.de. Übersetzung der englischen Auszüge (kursiv) von Chris Frey EIKE




Neue Studie der State University of New York bestätigt Svensmark-Effekt: Wolkenkondensationsskeime durch solare Aktivitätsschwankungen beeinflusst

Dem IPCC und seinen Anhängern schmeckte dies natürlich gar nicht. Man ignorierte die Ergebnisse so gut man konnte, sperrte Fördermittelströme ab und schrieb fleißig Gegenstudien, in denen das angebliche Fehlen des Svensmark-Zusammenhangs belegt werden sollte. Über die Gegenstudien wird in der Presse gelegentlich berichtet. So schrieb der Journalist und IPCC-Freund Christopher Schrader im Oktober 2013 in der Süddeutschen Zeitung einen Artikel mit dem mutigen Titel “Kosmische Strahlung beeinflusst Klima kaum“. Allerdings hatte Schrader da die eine oder andere Kleinigkeit übersehen.
Im April 2014 erschien nun in den Environmental Research Letters ein Fachartikel, der wichtige Hinweise auf die Gültigkeit des Svensmark-Effekts liefert. Fangqun Yu und Gan Luo vom Atmospheric Sciences Research Center der State University of New York fanden dabei jedoch auch, dass sich die Wolkenkondensationskeime in der Reaktion auf die komische Strahlung bzw. Sonnenaktivitätsschwankungen stark differenziert verhielten, je nach atmosphärischem Höhenstockwerk, Erdhalbkugel und Jahreszeit. Zudem ist der Effekt wohl sehr viel stärker als in früheren Studien behauptet. Hier die Kurzfassung der Arbeit:
Auswirkungen solarer Variationen auf die Bildung von Partikeln und Wolken-Kondensationskernen
Der Einfluss solarer Variationen auf die Bildung von Partikeln und Kondensationskernen für Wolken (CCN), einem kritischen Schritt für einen der möglichen indirekten Klimaantriebe durch die Sonne, wird hier untersucht mit einem globalen Aerosol-Modell, optimiert für die Simulation detaillierter Partikelbildung und deren Wachstum. Der Einfluss der Temperaturänderung infolge Verstärkung des solaren Zyklus‘ hinsichtlich des CCN-Signals wird hier zum ersten Mal untersucht. Unsere globalen Simulationen zeigen, dass eine Abnahme der Ionisierungs-Rate im Zusammenhang mit Änderungen des Flusses galaktischer Strahlung vom solaren Minimum zum solaren Maximum die mittlere jährliche Kernbildungsraten reduziert. Das gilt auch für die Anzahl der Kondensationskerne größer als 10 nm und die Konzentration von CCN bei einem Wasser-Übersättigungs-Verhältnis von 0,8% (CCN0,8) und 0,2% (CCN0,2) in der unteren Troposphäre jeweils von 6,8%, 1,36%, 0,74% und 0,43%. Die Einbeziehung eines Temperaturanstiegs von 0,2°C verstärkt die solaren CCN-Signale um etwa 50%. Die jährlichen mittleren solaren CCN-Signale weisen große räumliche und jahreszeitliche Schwankungen auf: (1) sie sind stärker in der unteren Troposphäre, wo sich warme Wolken bilden, (2) sie sind auf der Nordhemisphäre um etwa 50% größer als auf der Südhemisphäre und (3) sie sind um etwa einen Faktor 2 größer während der korrespondierenden Sommer-Jahreszeiten. Die Auswirkung der Durchdringung des solaren Zyklus‘ auf CCN0,2, auf der diese Studie basiert, ist generell höher als in Studien zuvor angegeben, und zwar bis zu einer Größenordnung.
Link: http://www.kaltesonne.de/?p=18111
Englischer Abschnitt übersetzt von Chris Frey EIKE.
Der Original-Artikel war erstmals bei der kalten Sonne  erschienen.