Neue Studie: Die jüngste anthropogene Erwärmung ist nur halb so groß

Diese Studie wird Öl in das Feuer jüngster Debatten über die Natur des globalen Erwärmungstrends gießen und ob sich dieser zuletzt stabilisiert hat oder nicht. Die Autoren schlussfolgern übrigens, dass er sich nicht stabilisiert hat. Ihre Hauptschlussfolgerung lautet jedoch:

Wenn man die AMO zusätzlich zu anderen erklärenden Variablen wie ENSO, vulkanische und solare Einflüsse mit berücksichtigt, die allgemein Eingang in eine multiple lineare Regressionsanalyse finden, reduzieren sich der jüngste 50-jährige und 32-jährige anthropogene Erwärmungstrend um mindestens den Faktor zwei. Es gibt weder statistischen Beweis für eine Verlangsamung noch für eine Beschleunigung der globalen Erwärmung seit Mitte des 20. Jahrhunderts.

Die Studie lehnt sich an Foster/Rahmstorf 2011 und Lean/Rind 2008 an (die versuchen, die globale Temperatur mit ENSO, solaren und vulkanischen Einflüssen zu korrigieren). Dann jedoch wird die Atlantische Multidekadische Oszillation zu ihrer multiplen linearen Regressionsanalyse hinzugefügt. Dies führt zu ihrer Abbildung 1. Was wir sehen, ist ein langzeitlicher Trend, der sich während des vorigen Jahrhunderts kaum verändert hat:

Wie immer kann dieses Ergebnis nun auf vielfältige Weise interpretiert werden. Der Jahrhunderttrend beträgt immer noch 0,68°C, was bedeutet, dass nur ein geringer Anteil des Gesamttrends von 0,8°C solaren und vulkanischen Einflüssen sowie ENSO und AMO zuzuordnen ist. Das ist es auch, was die Autoren zur Debatte stellen, wenn sie schreiben (Fettdruck von mir):
Die Schlussfolgerung, die wir ziehen können, lautet, dass während der letzten 100 Jahre der anthropogene Gesamttrend konstant bei etwa 0,08°C pro Dekade gelegen hat.
Also ist für sie alles, was nach dem Herausfiltern der natürlichen Antriebe und der natürlichen Variabilität übrig bleibt, einfach ‚anthropogen’. Für mich ist diese Schlussfolgerung ziemlich voreilig. Aber bevor ich erkläre, warum das so ist, wollen wir uns auf die von den Autoren gezeigten anderen Trendlinien konzentrieren. Genau wie Foster/Rahmstorf folgern sie, dass es in letzter Zeit keine Verlangsamung gegeben hat:
Es gibt keinen statistischen Beweis einer kürzlichen Verlangsamung der globalen Erwärmung.
Allerdings ist der von ihnen gefundene Trend der letzten 32 Jahre (0,07°C pro Dekade) deutlich geringer als der von Foster/Rahmstorf (0,17°C pro Dekade). Falls diese Vorgehensweise überhaupt irgendeine Gültigkeit hat, würde das zeigen, dass die AMO allein den Unterschied zwischen Zhou/Tung und Foster/Rahmstorf hinsichtlich des Trends erklärt.
Die Studie von Zhou behauptet, dass während der letzten 32 Jahre, dem Zeitraum, von dem man annimmt, dass Treibhausgase der dominante Antrieb sind, tatsächlich um die 60% (0,1°C des Gesamttrends von 0,17°C pro Dekade) als eine Kombination von ENSO, AMO, solaren und vulkanischen Antrieben ‚erklärt’ werden können. Folglich können 40% des Trends anderen Faktoren zugeordnet werden, von denen Treibhausgase natürlich ein logischer Kandidat sind.
Allerdings gibt es natürlich sehr wohl auch andere Kandidaten. Es gibt die immer noch stattfindende Debatte um die Örtlichkeiten der Temperaturmessungen an Land ebenso wie die Diskussion um den städtischen Wärmeinseleffekt UHI und andere sozial-ökonomische Einflüsse. In einer kontroversen und weithin bekannten Studie haben Michaels/McKitrick geschätzt, dass „sich bei Verwendung des Regressionsmodells, um die irrelevanten nichtklimatischen Auswirkungen zu filtern, der geschätzte Temperaturtrend von 1980 bis 2002 an Land um etwa die Hälfte reduziert“. Wenn das stimmt, kann sogar noch weniger des verbleibenden Trends auf Treibhausgase zurückgeführt werden.
Die Studie von Zhou könnte daher weit reichende Implikationen für unsere Schätzungen der Klimasensitivität haben. In der Studie findet sich dazu jedoch absolut nichts, ein Umstand, der Begutachtern hätte auffallen müssen.
Wie oben gesagt, nennen Zhou und Tung den verbleibenden Jahrhundert langen ‚zugrunde liegenden’ Trend ‚anthropogen’. Ob das stimmt, kann mit ihrer Abbildung 2 (unten) in Frage gestellt werden. Hier erkennt man, dass der anthropogene Antrieb (grüne Linie) den adjustierten Trend der Periode von 1889 bis 1970 zu unter- und danach zu überschätzen scheint. Dies bedeutet, dass eben noch nicht alle relevanten Faktoren (seien es nun natürliche oder anthropogene Antriebe oder die natürliche Variabilität) in die Regressionsanalyse eingehen. Die verbleibenden Linien in Abbildung 2b zeigen immer noch Trends, die es nicht geben würde, wenn die Regressionsanalyse perfekt wäre, schreiben Zhou und Tung.
Dies lässt genügend Spielraum, die Studie in jede, von jedem bevorzugte Richtung zu deuten.

Marcel Crok (von seinem Blog De staat van het klimaat)
======================================================
Deducing Multi-decadal Anthropogenic Global Warming Trends Using Multiple Regression Analysis
Jiansong Zhou and Ka-Kit TungDepartment of Applied Mathematics, University of Washington, Seattle, WA 98195, USA

Abstract

Um den anthropogenen Trend zur globalen Erwärmung aus den Klimadaten herauszuarbeiten, werden häufig multiple lineare Regressionsanalysen durchgeführt, um kurzzeitige Fluktuationen durch ENSO, vulkanische Aerosole und solare Antriebe herauszufiltern. Diese Fluktuationen sind hinsichtlich des abgeleiteten multidekadischen anthropogenen Trends unwichtig: ENSO und vulkanische Aerosole zeigen nur einen sehr kleinen multidekadischen Trend. Solare Variationen haben einen Langzeittrend, aber der ist sehr klein und unsicher. Was wichtig ist und in allen multiplen Regressionsanalysen zur globalen Erwärmung bisher fehlt, ist eine langzeitliche Oszillation mit der Bezeichnung Atlantische Multidekadische Oszillation AMO. Wenn der AMO-Index als Regressor (d. h. als erläuternde Variable) mit berücksichtigt wird, wird der abgeleitete multidekadische anthropogene globale Erwärmungstrend so stark beeinflusst, dass die zuvor abgeleiteten Raten der anthropogenen Erwärmungsraten substantiell überarbeitet werden müssen. Der abgeleitete anthropogene Gesamterwärmungstrend war bemerkenswert stetig und während der letzten 100 Jahre statistisch signifikant.
Link: http://wattsupwiththat.com/2012/10/17/new-paper-cuts-recent-anthropogenic-warming-trend-in-half/
Übersetzt von Chris Frey EIKE




Globale Verkohlung

Da haben wir es, bis auf die Tatsache, dass dies nur die halbe Wahrheit ist. Die andere Hälfte geht so: „Kohleära rollt auf Europa zu“, hieß es in Business Week. Bloomberg berichtet, dass „Merkels grüne Bewegung Deutschland zwingt, mehr Kohle zu verbrennen“. In einem anderen Bericht heißt es unter Hinweis auf das World Resources Institute, dass weltweit 1231 neue Kohlekraftwerke mit einer Gesamtkapazität von 1,4 Millionen Megawatt in Planung sind. Climate Wire berichtet: „hinter den größten Verbrauchern – China, Indien und die USA – besteht sehr starker Bedarf an Kohle in Russland, Vietnam, der Türkei und Südafrika. Die USA stehen mit 79 geplanten Kohlekraftwerken an vierter Stelle in dieser Kategorie“.
Diese zwei sich widersprechenden Sichtweisen auf Kohle können nicht lange nebeneinander bestehen, und ein Gambler könnte gut beraten sein, sein Geld in einen bevorstehenden Kohleboom zu stecken. Der Gedanke der sterbenden Kohle scheint zum größten Teil Wunschdenken grüner Aktivisten sowie einiger Politiker und Regulatoren in den USA und Teilen Kanadas zu sein. Ontario hat sich zum Ziel gesetzt, die schmutzige Kohleverstromung zu beenden, und zwar unter immensen Kosten für die Verbraucher, die schon jetzt einen hohen Preis für die vermeintlich sauberen Alternativen Wind und Sonne zahlen. In den USA wurden über die EPA Regeln eingeführt, von denen gesagt wird, dass sie die Kohleindustrie in eine „Sackgasse“ führen.
Aber zurück in die reale Welt. Der globale Verbrauch von Kohle ist einer statistischen Übersicht von BP zufolge im Jahr 2011 um 5,4% gestiegen. Damit ist Kohle der einzige fossile Energieträger mit einem übernormalen Wachstum und die am schnellsten wachsende Energieform außerhalb der Erneuerbaren. Asien führt das Rennen im Verbrauch an. Es scheint außerdem massenhaft Kohle zu geben mit Weltreserven, von denen gesagt wird, dass sie noch für 112 Jahre globaler Erzeugung ausreichen. Das ist das höchste Verhältnis zwischen Reserven und Produktion unter allen fossilen Treibstoffen.
Die Entwicklung riesiger neuer Gasressourcen weltweit könnte ein wesentlicher Konkurrent hinsichtlich Preis und Bedarf werden. Allerdings wäre es fahrlässig wenn nicht töricht zu versuchen, die Preisbewegungen oder Verfügbarkeit und Nachfrage nach fossilen Treibstoffen im Verhältnis zu alternativen Energiequellen vorherzusagen. Vielleicht wird Gas die Kohle auf einigen Märkten mit der Zeit bedrohen, aber das Verhalten der Investoren bzgl. Stromerzeugern und Regierungen legt nahe, dass Big Money nach wie vor in neue Kohlekraftwerke und die Kohleerzeugung fließt.
Selbst in Alberta, welches sich nominell den Anti-Kohle-Bemühungen der kanadischen Zentralregierung angeschlossen hat, werden neue Kohlekraftwerke gebaut. Aber der wirkliche Schub für die Kohle kommt aus Europa und Asien, den Treibhausgasemissionen sei Dank. „Die Wirtschaftlichkeit für Kohle liegt nahe dem Optimum der letzten fünf Jahre, sagte ein  europäischer Fondsmanager im vorigen Monat. Ein UBS-Analyst sagte Bloomberg, dass Betriebe zur Energieversorgung neue Kohlekraftwerke mit einer Kapazität bis zu 10 600 Megawatt in sieben europäische Staaten während der nächsten vier Jahre bauen werden, verglichen mit den 1600 Megawatt aus Gaskraftwerken. Jedes Kraftwerk, wurde mir gesagt, erzeugt das Äquivalent zu vielleicht 100 großen Windparks.
Angesichts all dieser Ausweitung von Kohle in massivem Maßstab in Europa und Asien, warum sollten die USA und Kanada – zumindest offiziell – versuchen, die Generation der Kohlekraftwerke zu schließen? Kohle, wenn man sie ordnungsgemäß und mit Hilfe neuester Technologie verbrennt, kann Energie liefern zu vernünftigen Preisen und minimalen Auswirkungen auf die Umwelt. Hinsichtlich Klimaänderung und Kohlenstoffemissionen wäre es dumm von Kanada [und von Deutschland, A. d. Übers.], Milliarden für die Abscheidung von Kohlenstoff auszugeben, während im Rest der Welt der Kohleverbrauch zunimmt und die Kohlenstoffemissionen steigen. Die globalen Bemühungen zur Kontrolle von Kohlenstoff sind auf allen Ebenen stecken geblieben, von den UN zur EU bis hin zu den USA und Kanada.
Die Präsidentin der WDA Consulting Inc. in Vancouver Aldyen Donnely sagt, dass Kohle für die großen Kohlewerke keinesfalls knapp wird, nicht einmal in den USA, wo es 27,6% der nachgewiesenen Kohlereserven der Welt gibt. In Russland sind es 18,2% und in China 13,3%. „Diese Nationen werden die Kohle als Kern in ihrem Energiemix als nationale Sicherheitsreserve erhalten“.
Kanada verfügt über eine winzige Reserve von weniger als 1% der Weltkohlevorräte, aber die Kohle ist immer noch eine große Sache. Alberta und Saskatchewan sind bzgl. Stromerzeugung von Kohle abhängig. Kohle aus British Columbia [B. C.] gewinnt Frau Donelly zufolge an Bedeutung als Exportartikel. Im Jahr 2002 waren metallurgische [?] Kohleexporte aus B. C. für 5% des Wertes aller Exportartikel verantwortlich, im Jahr 2011 waren es schon 22%. Für jeden Dollar Einnahmen für B. C. aus Gasexporten erhält es 3,72 Dollar für Kohleexporte.
Bleibt also aufgrund dieser Schnellübersicht nur eine Schlussfolgerung hinsichtlich Kohle: Weit davon entfernt, zu Ende zu gehen oder einen Peak zu erreichen, scheint die Inkohlung der Welt in vollem Gange zu sein.
Terence Corcoran
Financial Post, 11 October 2012
Link: http://www.thegwpf.org/terence-corcoran-global-%C2%ADcoalification/
Übersetzt von Chris Frey EIKE
* Im Original lautet der Begriff “Coalification”. Im Übersetzungsdienst LEO wird das mit „Inkohlung“ übersetzt. Im Forum von LEO fügt einer erläuternd hinzu: „Die Bildung von Kohle basiert auf der Anreicherung von Kohlenstoff (C) in den organischen Molekülen einer Pflanze. Man bezeichnet diesen Prozess als ‚Inkohlung’ …“ . Gerade wegen der möglichen Doppeldeutung haben wir ihn mit  „Verkohlung” übersetzt.




Zur Vermeidung von Kurzsichtigkeit bzgl. Kohlenstoff: Drei Überlegungen für Politiker über anthropogenes Kohlendioxid

Die vorgeschlagenen Regulationen wurden mit der vom (IPCC),[1] in Worte gekleideten betrügerischen Auffassung begründet, dass zunehmende atmosphärische CO2-Konzentrationen das Klima dramatisch verändern würden, was in der Folge zu wesentlichen ökologischen und ökonomischen Schäden führen würde.
Während viele Wissenschaftler einschließlich uns beiden einige Änderungen des Klimas beobachtet haben, sind die hypothetischen gefährlichen Konsequenzen des steigenden atmosphärischen CO2-Gehaltes zu spekulativ für eine verantwortbare Regulations-Politik. Bei der Analyse der Klimapolitik sollten die Entscheidungsträger drei Schlüsselüberlegungen durchführen hinsichtlich der Auswirkung des projizierten CO2-Anstiegs: (1) politische Entscheidungen werden wahrscheinlich keinen messbaren Effekt auf Extremwetterereignisse haben; (2) positive Auswirkungen auf Ökosysteme und die Biodiversität sind wahrscheinlich und sollten gegen die Negativa abgewogen werden; und (3) es ist unwahrscheinlich, dass Kohlenstoffhandels-Schemata (wie das in Kopenhagen so aufdringlich verkündete) zu einer Reduktion des CO2 in der Atmosphäre führen werden.
Mit diesen Überlegungen müssen politische Entscheidungsträger sorgfältig ihre Ziele und die potentiellen Auswirkungen einer Kohlenstoff-Emissionskontrolle abwägen, sowohl positiv als auch negativ. Sollte diese Regelung der Klimaänderung unbewertet weitergehen, wird es wahrscheinlich zu politischen Maßnahmen führen, die jeden Kontakt sowohl zur realen Welt als auch objektiver Wissenschaft verlieren. Außerdem werden wahrscheinlich der Gesellschaft horrende Kosten entstehen, von denen nur ein kleiner Kader von „Klimaunternehmern” profitiert und die keine bedeutsame Auswirkung auf das Klima der Erde haben werden.
Überlegung Nr. 1: Politiker müssen die Fähigkeit der Menschheit beurteilen, globale und regionale Klimaänderungen beeinflussen zu können
Es stimmt, das seine Fülle von Forschern die Änderungen der lokalen, regionalen und globalen Temperaturen untersucht haben, ebenso wie die Regenmenge, das Tier- und Pflanzenleben sowie den Meeresspiegel; und dass viele die Schlussfolgerung gezogen haben, dass der steigende Gehalt von Treibhausgasen (GHGs) bis zu einem gewissen Grad verantwortlich ist für die beobachteten und/oder für die Zukunft vorhergesagten Klimaänderungen. Politiker sollten jedoch nicht einfach auf diesen Zug aufspringen. Sie haben die Verpflichtung, die Grenzen dieser Studien sorgfältig zu bedenken, ebenso wie die Auswirkung von Faktoren außer dem vom Menschen erzeugten CO2. Es wäre falsch, alle beobachteten Auswirkungen mit der Klimaänderung in Zusammenhang zu bringen – das gilt noch mehr für Treibhausgase – oder gar den Anschein zu erwecken, dass die Menschen hier etwas kontrollieren können. Hier sehen wir die erste Überlegung für die Politiker: Dass der steigende CO2-Gehalt in der Atmosphäre nicht zu ungünstigem Wetter und Klimaänderungen führt, die über die natürlicher Variation hinausgehen.
Politiker sollten sich vor Augen führen, dass die Hypothesen des IPCC hinsichtlich zukünftiger Schäden durch den steigenden atmosphärischen CO2-Gehalt durch Beweise widerlegt sind, vor allem durch neueste Daten, die belegen, dass das Märchen von der „globalen Erwärmung“ als Klimaänderung ernstlich auf Betrug beruht [seriously flawed]. Zum Beispiel zeigen die jüngsten Daten der globalen Temperatur und des ozeanischen Wärmegehalts [2] das Gegenteil der Behauptungen über katastrophale Konsequenzen. Während Forscher oft bestimmte Zeitperioden auswählen, um ihre Hypothese der gefährlichen Erwärmung zu untermauern, ist inzwischen offensichtlich, dass Vorhersagen einer fortgesetzten Erwärmung und des Anwachsen des ozeanischen Wärmegehalts im Gegensatz zu Beobachtungen der letzten Dekade stehen [3]. Außerdem haben Computermodellierer Schwierigkeiten, die signifikanten Diskrepanzen zwischen der auf der Basis der gefährlichen CO2-Hypothese vorhergesagten Zunahme des ozeanischen Wärmegehaltes und der beobachteten Daten hierzu zu erklären [4].
Genauso vorsichtig sollte man sein, wenn man bestimmen will, ob andere Gründe als die GHGs für die beobachteten Effekte in Frage kommen. Von Küstenstationen in Grönland stammende Temperaturdaten aus der Arktis und Mittel über den arktischen Pazifik, den Nordatlantik, Grönland-Island und das gesamte Gebiet rings um die Arktis stehen nicht im Einklang mit dieser Hypothese der gefährlichen, vom Menschen verursachten Erwärmung [5]. Diese Daten zeigen abrupte Erwärmungen und Abkühlungen alle paar Jahrzehnte, die sehr gut zu den natürlichen Fluktuationen der Sonnenaktivität passen [6]. Im Gegensatz dazu erklärt der stetige Anstieg der atmosphärischen CO2-Konzentrationen während des vergangenen Jahrhunderts, einschließlich vor allem der letzten fünfzig Jahre nicht die Variabilität der Temperatur in und um die Arktis, was ein weiterer Beleg dafür ist, dass die Auswirkungen durch etwas Anderes als GHG2 verursacht worden sein könnten [7]. Genauso hat der Nachweis der Erwärmung in den Städten gezeigt, dass Erwärmung und hydrologische Änderungen das direkte Ergebnis des UHI und künstlichen Veränderungen der Landschaft sind, und nicht die atmosphärische CO2-Konzentration [8]. Als Konsequenz wären Politiker gut beraten, auch alternative Gründe für die beobachteten Effekte zu erwägen.
Während einige Forscher einschließlich uns beiden sagen, dass andere Gründe als die GHGs ausschlaggebend für beobachtete Klimaänderungen sind, tun viele dies nicht. Politiker brauchen die Ergebnisse beider Lager nicht zu akzeptieren, sollten aber diese alternativen Ansichten beachten und auch wirklich bedenken, wenn sie ihre Entscheidungen treffen.
Politiker müssen auch das Scheitern der Wissenschaftler, trotz der extensiven und objektiven Bewertung von Klimadaten aus der ganzen Welt während des vergangenen Jahrhunderts [9] ein Erwärmungssignal durch das CO2 zu finden, in Einklang bringen. Wir und andere Wissenschaftler haben eine sehr einfache Erklärung: atmosphärisches CO2 ist kein wichtiger Antrieb von Wetter und Klima [10]. Diese Hypothese steht in sehr scharfem Kontrast zu den Spekulationen der Computermodelle, welche sich durch eine starke Beziehung zwischen atmosphärischem CO2 und der Lufttemperatur auszeichnen [11]. Solche Ergebnisse zeigen, dass simulierte Computermodelle in ihrer Fähigkeit, akkurate Vorhersagen eines Systems vorherzusagen, das so komplex ist wie das Klimasystem, inhärent begrenzt sein könnten. Damit sagen wir nicht, dass Forschung per Computer per se trivial ist; sondern vielmehr, dass diese Simulation noch nicht weit genug entwickelt ist, um zuverlässige Prognosen für politische Entscheidungen zu liefern.
Politiker sind es ihren Wählern schuldig, Entscheidungen nur unter Berücksichtigung aller Informationen zu treffen und alle beobachteten Klimadaten einzubeziehen, anstatt sich auf Ergebnisse der künstlichen Welten von Computer-Klimamodellen zu verlassen.
Überlegung Nr. 2: Politiker müssen sowohl potentielle Vorteile als auch potentielle Kosten eines sich verändernden Klimas abwägen.
Kommentatoren und politische Aktivisten charakterisieren die Klimaänderung oft negativ als einen unnatürlichen Prozess, der nur zu Katastrophen führen könne. Unglücklicherweise haben einige dieser Charakterisierungen Eingang in rechtliche Entscheidungen und legislative Aktionen gefunden, was zu einem Missverständnis über die Natur der Klimaänderung geführt hat [12]. Um diese Schwachstellen in der nächsten Runde von Aktionen bzgl. des Klimawandels zu vermeiden, sollten vernünftige Politiker die Vorstellung zurückweisen, dass ein sich änderndes Klima etwas durchweg Einseitiges ist. Stattdessen sollten sie die bestmöglichen verfügbaren wissenschaftlichen Daten nutzen, um die potentiell positiven Auswirkungen der Klimaänderung gegen die negativen und die Kosten abwägen, um festzulegen, welchen Weg man einschlagen sollte. Folglich sollte bei der Evaluierung der chemischen und biologischen Einflüsse eines steigenden CO2-Gehaltes in der Atmosphäre unserer zweiten Überlegung für Politiker besondere Aufmerksamkeit zuteil werden: Dass die negativen Auswirkungen auf Ökosysteme und die Biodiversität durch den zunehmenden CO2-Gehalt genau gegen dessen Vorteile abgewogen werden.
Politiker müssen sorgfältig den Fehler vermeiden, wissenschaftlich ungenaue Definitionen in Gesetze und Regeln zu gießen. Im Jahr 2007 beispielsweise hat der Oberste Gerichtshof der USA geurteilt, dass Treibhausgase zur umfassenden Definition von „Luftverschmutzern“ im Rahmen des Clean Air Act gehören [13], was zu einer Definition führte, die nicht der Wissenschaft entspricht. Das atmosphärische CO2 ist kein „Luftverschmutzer“, sondern die Basis allen Lebens, genauer aller Photosynthese betreibenden Organismen: grüne Pflanzen, Algen in Süß- und Salzwasser sowie photosynthetische Bakterien [14]. Es bildet die Basis der meisten Nahrungsketten und ist für das biologische Leben unabdingbar. Legale Definitionen, die im Gegensatz zur Wissenschaft stehen, machen es schwierig, sinnvolle Politik in Gang zu setzen.
Ungenaue Beschreibungen können auch zu Übertreibungen hinsichtlich der Gefahren von CO2 führen, die Politiker dazu bringen können, die Dringlichkeit der Lage falsch zu beurteilen. Beispielsweise liegt das heutige CO2-Niveau bei etwa 390 ppm und ist damit nicht „gefährlich hoch“ aus der Perspektive photosynthetischer Organismen [15]. Tatsächlich liegen diese 390 ppm weit unterhalb der Nahrungssättigung für diese Organismen und auch unter dem optimalen Niveau für das Wachstum [16]. Dies bedeutet, dass ein Mehr an CO2 einige kritische Ökosysteme stärken kann; und doch sind es nur wenige Wissenschaftler, Politiker oder „Klima-Unternehmer“, die diese positiven Auswirkungen auf die Pflanzen betrachten. Unabhängig davon können manche maritimen Organismen tatsächlich besser gedeihen und produktiver sein als Folge der Versauerung der Ozeane durch die Lösung von CO2 im Meerwasser [17]. Als Konsequenz werden einige der sofortigen biologischen Reaktionen sehr wahrscheinlich das maritime Leben und die Erzeugung von Nahrung in den Ozeanen stimulieren – höchstwahrscheinlich sind dabei positive synergetische Wechselwirkungen zwischen den Änderungen der Temperatur, der Solarstrahlung und Bikarbonate involviert. Die Biologin und Ozeanographin Dr. Debora Iglesias-Rodriguez fasst die Ergebnisse ihrer Arbeit so zusammen:
Die Zunahme von CO2 in der Erdatmosphäre führt bei einigen mikroskopischen Ozeanpflanzen dazu, dass sie größere Mengen Kalziumkarbonat produzieren – mit potentiell weit reichenden Implikationen bei der Vorhersage des Kohlenstoffkreislaufs in den Ozeanen und die Modellierung des globalen Klimas … Unsere Forschung hat auch gezeigt, dass während der vergangenen 20 Jahre einzellige Algen und Phytoplankton jeweils um 40 Prozent größere Mengen Kalziumkarbonat gebildet haben. Diese Ergebnisse stimmen mit früheren Beobachtungen überein, dass diese Organismen während vergangener Perioden mit einer Versauerung der Ozeane überreichlich vorkamen, so wie es vor etwa 55 Millionen Jahren der Fall war [18].
Eine Untersuchung der Verfahren, die in Studien mit einem gegenteiligen Ergebnis hinsichtlich der Auswirkungen von CO2 auf maritime Organismen angewendet worden waren, hat gezeigt, dass sie ungerechtfertigt behauptet haben, den Säuregehalt der Ozeane durch Hinzufügen von Salzsäure zum Meerwasser zu bestimmen, anstatt sich die Mühe zu machen, CO2 durch das Wasser zu blasen, um natürliche Bedingungen viel besser zu simulieren. Das frühere Verfahren, Säuren oder Basen direkt in das Wasser zu geben, verpasst die Schlüsselwirkung von CO2 mit den Karbonaten und Bikarbonaten geochemischer Zyklen im Ozean, weshalb man zu einer entgegen gesetzten Schlussfolgerung kommt gegenüber Studien, die wirklich CO2 durch Wasser blasen. Es ist klar, dass es sowohl Verlierer als auch Gewinner bei der Versauerung der Ozeane gibt; und sich ausschließlich auf die negativen Effekte zu stürzen wäre ein armseliges Vorgehen für eine auf guten Informationen beruhende Politik.
Vor Kurzem haben einige Ökologen und Geologen vor den Gefahren der Kohlenstoff-Kurzsichtigkeit gewarnt – damit meinten sie, dass man nicht nur die vermeintlichen Gefahren eines steigenden CO2-Niveaus in der Atmosphäre betrachten soll, während man gleichzeitig die potentiell schädlichen Auswirkungen eines CO2-Managing ignoriert. Mehr noch, Putz und Redford haben davor gewarnt, dass die kohlenstoffbasierte Konservierung schlecht für die Biodiversität und schädlich für Pflanzen und Tiere sein kann [21]. Sie schreiben, dass die karbonbasierte Ungleichbehandlung [carbon based discrimination {?}] nicht verholzte Pflanzen [non-arboreal plants] nachteilig beeinflussen werde. Das Ergebnis wären kürzere Baum-Spezies, die Ökosysteme außerhalb von Wäldern [non-forested ecosystems] in Gefahr bringen [22]. Außerdem „könnte das Pflanzen von Bäumen unter Kohlenstoff-Investoren verkehrte Anreize erzeugen, die zu massiven Verlusten bei der Biodiversität führen“ [23].
[Diesen Abschnitt { ab „Sie schreiben…} habe ich inhaltlich nicht verstanden. Er lautet im Original so: „They note that carbon-based discrimination will adversely affect non-arboreal plants, result in shorter tree species, and put non-forested ecosystems at risk[22] and that “tree planting among carbon investors could create perverse incentives leading to major biodiversity losses.”[23] A. d. Übers.]
Neben einigen wenigen Spezies, die zur Bestäubung und für die Verbreitung der Samen gebraucht werden, sind die „meisten Wirbel- und andere Tiere in Wäldern, die für Kohlenstoff gemanagt werden, überflüssig, wenn nicht ein Ärgernis“, lautet die Schlussfolgerung von Putz und Redford [24]. Das bedeutet, dass Anreize, diese Spezies zu unterstützen und zu bewahren begrenzt sein werden, wenn sie sich nicht als nachteilig herausstellen, zumindest wenn sich die Politiker ausschließlich auf die Reduktion des atmosphärischen Kohlendioxids konzentrieren.
Natürlich wird es Gewinner und Verlierer bei einem sich verändernden Klima geben, aber die Politiker müssen die Kosten für die negativen Folgen (mit den Kosten des Versuchs, den jetzigen Status quo zu erhalten) mit den positiven Vorteilen abwägen. Nicht alle biologischen, chemischen und ökologischen Reaktionen auf den steigenden CO2-Gehalt bedeuten gleich den Untergang [portend gloom and doom]. Politiker sollten sich in ihren Diskussionen darauf konzentrieren, das Für und Wider auszubalancieren, anstatt eine einseitige Strategie zur CO2-Reduktion zu verfolgen.
Überlegung Nr. 3: Politiker müssen die Möglichkeit erkennen, dass Kohlenstoff-Handelsschemata nicht zu einer Reduktion des CO2 führen könnten
Jüngste Fehlschläge beim Kohlenstoffhandel, sowohl an der Chicago Climate Exchange als auch beim Emissionshandel in der EU, bestätigen die einfache, aber raue Realität, dass der Kohlenstoffhandel ein künstliches und nicht funktionierendes System ist, dass wahrscheinlich mehr schadet als nützt, einfach weil es zu viele Betrüger gibt, zu viele Möglichkeiten, zu betrügen und damit davonzukommen und zu viele Gelegenheiten, mit diesen Betrügereien große Profite zu machen. Professor Roger Pielke Jr. hat kritisch angemerkt, dass momentan „sehr komplexe politische Maßnahmen voller buchhalterischer Tricks, politischer Schweinereien [political pork] und falscher Politik“ [25] ausgearbeitet werden, um das falsche Versprechen einer internationalen Klimalösung zu erzeugen. Selbst das Magazin Science äußerte sich am 23. Oktober 2009 zustimmend, dass:
„Die derzeit stattfindende Buchführung, eine Einhaltung der vom  Kyoto- Protokoll festgelegten Kohlenstoff-Obergrenzen (http://unfccc.int/kyoto_protocol/items/2830.php) zu erreichen, und die Klima-Gesetzgebung enthalten einen weit reichenden, aber bestimmbaren Betrug, der ernsthaft die Ziele der Reduktion von Treibhausgasen unterminieren wird … Das Roden alter Wälder, um Holz zu verbrennen oder Energiepflanzen anzubauen wird als hundertprozentige Reduktion von Energie-Emissionen angesehen, obwohl dabei große Mengen von Kohlenstoff freigesetzt werden“ [26].
Dies leitet zu unserer dritten Überlegung für Politiker über: dass der Kohlenstoffhandel nicht direkt zu einer Reduktion des CO2-Gehaltes führen wird.
Derzeit kriecht eine gefährliche Lähmung in unsere moderne Ära, und zwar als Konsequenz einer unwissenschaftlichen Kohlenstoff-Kurzsichtigkeit. Diese Lähmung wird illustriert durch den Albtraum des Kohlenstoff-Budgets, bei dem das Abscheiden von Kohlendioxid-Emissionen durch zusätzliches Speichern und den Schutz von Kohlenstoff-Pools in menschlichen Siedlungen erreicht werden kann. Menschliche Siedlungen speichern Kohlenstoff in natürlichen Senken wie Vegetation und Erdboden, ebenso wie in anthropogenen Pools. Anthropogene Kohlenstoff-Pools umfassen Gebäude, bedruckte Materialien, Deponien, Kleidung und lebende Organismen [27].
Wer dem Handelspreis von Kohlenstoffemissionen an der Chicago Climate Exchange nicht gefolgt, ist, wird daran interessiert sein zu erfahren, dass der Kohlenstoffhandel im Januar 2004 mit dem bescheidenen Preis von 1 Dollar pro metrischer Tonne begonnen hatte [28]. Die Preise fluktuierten wild hin und her und erreichten im Mai/Juni 2008 einen Spitzenwert von 7 Dollar pro metrischer Tonne [29]. Als das öffentliche Interesse jedoch immer mehr schwand (sehr wahrscheinlich zumindest teilweise wegen des Fehlens einer Korrelation zwischen den verkündeten extremen Szenarien und Beobachtungen in der realen Welt), schwankte der Preis zwischen Oktober und Dezember 2009 nur noch zwischen 0,10 bis 0,20 Dollar pro metrischer Tonne [30].
Ein Investor der ersten Stunde in Reduktionen von Kohlenstoffemissionen im Januar 2004 hat inzwischen 90 Prozent seiner ursprünglichen Investition verloren, und zwar auf etwas, das zu einer Steuer auf eine gasförmige atmosphärische Komponente geworden ist, die unabdingbar für alles Leben ist – und auf die Kohlenwasserstoff-Energie, die 85 Prozent der US-Wirtschaft stärkt. Spekulanten, die dem Kohlenstoffmarkt am 30. Mai 2008 beigetreten sind, haben 98,6 Prozent ihrer Investitionen verloren.
In ganz ähnlicher Weise ist der Markt des Emissionshandels in der EU vollständig zusammen gebrochen. Der Handel erreichte einen Spitzenwert um 30 Euro im April 2006, fiel bis Februar 2007 auf  weniger als 1 Euro und danach wohl noch weiter auf 0,02 Euro im Dezember 2007 [31] – ein Rückgang auf 0,1 Prozent des Spitzenwertes. Ironischerweise liegt der Grund für diesen Rückgang zumindest teilweise darin, dass zu viele Kohlenstoff-Zertifikate relativ zu den tatsächlichen Emissionen vergeben worden waren. Mehr noch, die EU-Emissionen haben tatsächlich während der ersten Phase des Experiments mit dem Kohlenstoffhandel in der EU zugenommen – in einigen Ländern um 10 bis 54 Prozent [32]. Beispielsweise lagen die Emissionen Ende 2007 sowohl in Griechenland als auch in Irland um 25 Prozent über dem Niveau von 1990; die Emissionen in Portugal lagen um 38 und in Spanien um 54 Prozent darüber [33]. Dies waren natürlich genau die Ergebnisse, die der Kohlenstoffhandel verhindern sollte.
Die zweite Phase des Handels in der EU ist auch nicht vielversprechend, da neue Hindernisse und Fragen aufgetaucht sind. Dies wird illustriert durch die Entscheidung des Europäischen Gerichtshofes im September 2009, die sich gegen den Plan der Europäischen Kommission wandte, Polen und Estland Quoten für Emissionsreduktionen vorzuschreiben. Der Gerichtshof urteilte, dass die beiden Länder nicht gegen ihren Willen gezwungen werden können, den niedrigeren Emissions-Quoten zu folgen, die von der Europäischen Kommission als Folge der Akzeptanz des Kyoto-Protokolls festgelegt worden waren [34].
Als weiterer Beweis für die Trennung zwischen der Welt, die sich Politiker und Wissenschaftler vorstellen, die nach Kopenhagen geeilt sind, und der realen Welt, in der wir leben, steht der Vorschlag der australischen Regierung, mit Kohlenstoff unter einem eigenen Emissions-Handelsschema zu handeln, mit einem festgesetzten Preis von 10 australischen Dollar pro Tonne in jedem Jahr bis zum Juli 2012. Zu dieser Zeit sollen Kosten und Preise durch Marktkräfte bestimmt werden [35]. Wir wetten dass dieser Wert bis Dezember 2012 erheblich unter den 10 australischen Dollar liegen wird, falls man wirklich die Entwicklung eines freien Marktes zulässt.
Betrachtet man all diese mit den Systemen zum Kohlenstoffhandel in Zusammenhang stehenden Probleme – vor allem dem Potential und der Gelegenheit zu betrügen und dem steilen Wertverfall beim Kohlenstoffhandel – sollten sich die Politiker sorgfältig die Negativa überlegen, bevor sie Kohlenstoff-Handelssysteme auf den Weg bringen.
Schlussfolgerung
Umsichtige Politiker sollten nicht durch die Kurzsichtigkeit der alarmistischen Berichterstattung in den Medien über eine vom Menschen induzierte globale Erwärmung in Panik verfallen. Stattdessen sollten sie angesichts der potentiellen Kosten und Auswirkungen gegenüber den Befürwortern vorsichtig sein, die die Wissenschaft aus undurchsichtigen Gründen unterwandert haben [36]. Verständlicherweise könnte das Ausmaß der Ungewissheit hinsichtlich der Rolle und der Auswirkungen des steigenden CO2-Gehaltes für jene einen Schock bedeuten, die durch den Fanatismus angesteckt worden sind. Angesichts der involvierten Unsicherheit sollten Politiker die wissenschaftlichen Daten sorgfältig prüfen.
Entscheidungsträger sollten sich die folgenden Fragen stellen: Wollen wir wirklich eine Zukunft, die auf einem durch die Kohlenstoff-Kurzsichtigkeit erzeugten schweren Missverständnis basiert? Kann es sich die Menschheit wirklich leisten, den wirklichen Schaden zu ignorieren, der durch diese Trugschlüsse über Kohlenstoff entsteht? Wir müssen den Mut haben, uns gegen den Klimaalarmismus aufzulehnen und für eine rationale Verwaltung einzustehen, ebenso wie für eine zuverlässige, bezahlbare Energieversorgung. Wir drängen die politischen Führer der Welt, das Richtige zu machen und jeden Deal zurückzuweisen, der Kohlenstoff-Emissionen besteuern oder begrenzen würde. Nur auf diese Weise können sie Arbeitsplätze schützen, ebenso wie Gesundheit, Wohlergehen, wirtschaftliche Möglichkeiten, Umweltqualität, Lebensstandard und Zivilrechte, die so unabdingbar von Kohlenwasserstoff-Energie abhängen.
Willie Soon* and David R. Legates**


Dr. Soon ist ein Astrophysiker an der Solar, Stellar and Planetary Sciences Division am Harvard-Smithonian Center for Astrophysics. Dr. Soon hat viele Artikel ausschließlich über Themen über die Sonne, andere Sterne und das Klima geschrieben und begutachtet. Die Anscihten von Willie Soon sind strikt seine eigenen und reflektieren nicht notwendigerweise jene der Harvard University, der Smithonian Institution oder des Harvard-Smithsonian Center for Astrophysics.

Dr. Legates ist ein Mitarbeiter am College of Earth, Ocean, and Environment, University of Delaware, und seine Ansichten äußert er als Mitglied der Fakultät an der Universität im Rahmen der akademischen Freiheitsrechte. Er arbeitet auch als Klimatologe des US-Bundesstaates Delaware.
References
[1] See, e.g., Intergovernmental Panel on Climate Change, Climate Change 2007: The Physical Science Basis (Susan Solomon et al., eds. 2007).
[2] The phrase “global temperature” and “heat” are used here in laymen sense rather than in the correct manner as properly founded in physics.
[3] See, e.g., Kevin E. Trenberth, An Imperative for Climate Change Planning: Tracking Earth’s Global Energy, 1 Current Opinion in Envtl. Sustainability 19 (2009); see also Willie Soon & David Legates, Answering 3 Simple Questions, Quadrant Online, Aug. 3, 2009, at fig.1(plotting Hadley Centre/UEA air temperature data from 1995 to 2009 and atmospheric CO2).
[4] See Josh K. Willis et al., In Situ Data Biases and Recent Ocean Heat Content Variability, 26 J. Atmospheric & Oceanic Tech. 846, fig.4 (2009); David H. Douglass & Robert S. Knox, Ocean Heat Content and Earth’s Radiation Imbalance, 373 Physics Letters A 3296 (2009); see also Bob Tisdale, OHC Linear Trends and Recent Update of NODC OHC (0-700 Meters) Data, Feb. 5, 2010, at fig.2.
[5] For a more complete discussion of this issue, see Willie Soon, Solar Arctic-Mediated Climate Variation on Multidecadal to Centennial Timescales: Empirical Evidence, Mechanistic Explanation, and Testable Consequences, 30 Physical Geography 144 (2009).
[6] See Alexander Ruzmaikin & Joan Feynman, Solar Influence on a Major Mode of Atmospheric Variability, 30 J. Geophys. Res. 4209 (2002); Willie Soon, Variable Solar Irradiance as a Plausible Agent for Multidecadal Variations in the Arctic-Wide Surface Air Temperature Record of The Past 130 Years, 32 Geophys. Res. Lett. 16712 doi.10.1029/2005GL023429 (2005); Willie Soon, Solar Arctic-Mediated Climate Variation on Multidecadal to Centennial Timescales: Empirical Evidence, Mechanistic Explanation, and Testable Consequences, 30 Phys. Geo. 144 (2009).
[7] See Igor Polyakov et al., Observationally Based Assessment of Polar Amplification of Global Warming, 29 Geophys. Res. Lett. 1878 doi.10.1029/2001GL011111 (2002), Igor Polyakov et al., Variability and Trends of Air Temperature and Pressure in The Maritime Arctic, 1875-2000, 16 J. Climate 2067 (2003); Igor Polyakov et al., Arctic Ocean Freshwater Changes Over the Past 100 Years, 21 J. Climate 364 (2008).
[8] See Roger A. Pielke Sr. et al., Unresolved Issues With The Assessment of Mutidecadal Global Land Surface Temperature Trends, 112 J. Geophys. Res. D24S08 doi.10.1029/2006JD008229 (2007); Souleymane Fall et al., Impacts of Land Use Land Cover on Temperature Trends Over The Continental United States: Assessment Using the North American Regional Reanalysis, Int’l J. Climatol. doi.10.1002/joc.1996 (2009); Cynthia Rosenzweig et al., Mitigating New York City’s Heat Island: Integrating Stakeholder Perspectives and Scientific Evaluation, 90 Bull. Am. Meteorological Soc’y 1297 (2009); John R. Christy et al., Surface Temperature Variations In East Africa and Possible Causes, 22 J. Climate 3342 (2009); John R. Christy et al., Methodology and Results of Calculating Central California Surface Temperature Trends: Evidence of Human-Induced Climate Change?, 19 J. Climate 548 (2006).
[9] See Christopher Essex, What Do Climate Models Tell Us About Global Warming?, 135 Pure & Applied Geophysics 125 (1991); Willie Soon et al., Moderling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties, 18 Climate Res. 259 (2001); Richard S. Lindzen, Taking GreenHouse Warming Seriously, 18 Energy & Env’t 937 (2007); David H. Douglass et al., A Comparison of Tropical Temperature Trends With Model Predictions, 28 Int’l J. Climatol.1693 (2008); Demetris Koutsoyiannis et al., On the Credibility of Climate Predictions, 53 Hydrological Sci. 671 (2008); Philip J. Klotzbach et al., An Alternative Explanation for Differential Temperature Trends at the Surface and in the Lower Troposphere, 114 J. Geophysical Res. doi.10.1029/2009JD011841 (2009).
[10] Id. For further discussion and evidence of the secondary role of atmospheric carbon dioxide and methane on the large glacial-interglacial climate transition of the past 1 to 2 million years, see Willie Soon, Implications of the Secondary Role of Carbon Dioxide and Methane Forcing In Climate Change: Past, Present, and Future, 28 Phys. Geo. 97 (2007).
[11] See Richard S. Lindzen & Yong-Sang Choi, On The Determination of Climate Feedbacks From ERBE Data, 36 Geophys. Res. Lett. doi.10.1029/2009GL039628 (2009) (explaining how climate feedbacks, rooted in the fast processes of hydrology and clouds in the tropics amplify the small warming from greenhouse effect of added atmospheric CO2, were incorrectly represented in frequently cited current climate models).
[12] Mass. v. EPA, 549 U.S. 497 (2007).
[13] Id. at 528–30.
[14] Sherwood B. Idso, Carbon Dioxide and Global Change: Earth in Transition 67–68 (1989); see also Adip Said, Carbon Dioxide and Life, Biology Cabinet, Jan. 13, 2007; Nasif Nahle, Carbon Dioxide and Health, Biology Cabinet, Jan. 13, 2007, available at http://biocab.org/Carbon_Dioxide_CO2.html.
[15] See, e.g., Arthur B. Robinson et al., Environmental Effects of Increased Atmospheric Carbon Dioxide, 12 J. Am. Physicians & Surgeons 79, fig.23 (2007) (republishing Keith Idso & Sherwood Idso, Plant Responese to Atmospheric CO2 Enrichment in the Fact of Environmental Constraints: A Review of The Past 10 years Research, 69 Agric. & Forest Meteorology 153, fig.6 (1994)). It should be noted that Stephen P. Long et al., Food for Thought: Lower-Than-Expected Crop Yield Stimulation with Rising CO2 Concentrations, 312 Sci. 1918 (2006) is often cited for his interpretation of Robertson’s data (shown in Robinson et al., supra note 15, at fig.23) indicating a negative plant response to CO2, which he hypothesized could be disastrous to crops. Francesco Tubiello et al., Crop Response to Elevated CO2 and World Food Supply: A Comment on “Food For Thought . . .” by Long et al., 26 Eur. J. Agronomy 215 (2007), have reconfirmed Robinson’s applicability, while suggesting Long’s findings grossly exaggerated. In recent literature, it is surprising to find Long et al. often cited without reference to the strong criticism offered by Tubiello et al. It should also be noted that Long et al. has not responded to this criticism.
[16] Tubiello, supra note 15.
[17] See, e.g., Frederic Bessat & D. Buigues, Two Centuries of Variation in Coral Growth in a Massive Porites Colony from Moorea (French Polynesia): A Response of Ocean-Atmosphere Variability from South Central Pacific, 175 Palaeogeography, Palaeoclimatology, Palaeoecology 381 (2001). The growing body of similar scholarship published after the 2007 UN IPCC report is also useful. See, e.g., M. Debora Iglesias-Rodriguez et al., Phytoplankton Calcification in a High-CO2 World, 320 Sci. 336 (2008); Herfort et al. 44 J. Phycology 91 (2008); Y. Feng et al., Interactive Effects of Increased pCO2, Temperature and Irradiance on the Marine Coccolithophore Emiliania Huxleyi, 43 Eur. J. Phycology 87 (2008); Philippe Tortell et al., CO2 Sensitivity of Southern Ocean Phytoplankton, 35 Geophys. Res. Lett. doi.10.1029/2007GL032583 (2008).
[18] Interview with M. Debora Iglesias-Rodriguez, ScienceWatch.com, April 2009http://sciencewatch.com/dr/fbp/2009/09aprfbp/09aprfbpRod/.
[19] Iglesias-Rodriguez et al., supra note 17, at 336 (observing that “[m]ost of these experiments used semi-continuous cultures, in which the carbonate system was modified by the addition of acid and/or base to control pH”); Elizabeth Pennisi, Calcification Rates Drop in Australian Reefs, 323 Sci. 27 (2009) (summarizing the research of Alina Szmant, a coral ecologist: “[Szmant] faults previous lab studies because they used hydrochloric acid, not carbon dioxide, to lower the pH of the water in the calcification studies”).
[20] See, e.g., Justin B. Ries et al., Marine Calcifiers Exhibit Mixed Responses to CO2 –Induced Ocean Acidification, 37 Geology 1131 (2009) (both negative and positive responses are found when a wide range of marine calcifiers were examined).
[21] Francis E. Putz & K.H. Redford, Dangers of Carbon-Based Conservation, 19 Global Envtl. Change 400 (2009).
[22] Id.
[23] Id.
[24] Id.
[25] Roger Pielke Jr., Understanding the Copenhagen Climate Deal: the Fix is In, 23 Bridges, Oct. 2009http://www.ostina.org/content/view/4458/1232/.
[26] Timothy D. Searchinger et al., Fixing a Critical Climate Accounting Error, 326 Sci. 527 (2009).
[27] Galina Churkina et al., Carbon Stored in Human Settlements: the Coterminous United States, 16 Global Change Bio. 135, 136 (2009).
[28] Chicago Climate Exchange, CCX Carbon Financial Instrument (CFI) Contracts Daily Report (last visited Jan. 25, 2009).
[29] Id.
[30] Id.
[31] See Henrik Hasselknippe, Carbon 2006 Towards a Truly Global Market, Point Carbon, Feb 28, 2006, at 25; Analyse van de CO2-markt (Analysis of Carbon Market), Emissierechten, Nov. 2007. Wikipedia also has a surprisingly robust discussion. European Union Emission Trading Scheme, Wikipedia (last visited Jan. 25, 2010).
[32] European Env’t Agency, Annual European Community Greenhouse Gas Inventory 1990–2007 and Inventory Report 2009: Submission to the UNFCCC Secretariat 9, tbl.ES.2 (2009).
[33] Id.
[34] See Cort Mortished, Court Delivers Severe Blow to EU Carbon Prices, The Australian, Sept. 24, 2009.
[35] See Ben Sharples, Australia’s Biggest Companies Lack Investment Plans for Carbon, Bloomberg, Oct. 7, 2009.
[36] See Richard Lindzen, Climate Science: Is It Currently Designed to Answer Questions?, paper prepared for meeting in San Marino from 29-31 Aug. 2008 (discussing the cultural, organizational, and political factors that influence objectivity in Climate Science grants and research).
Copyright 2009 Willie Soon and David R. Legates. All rights reserved.
[ back to top ]
Link: http://elq.typepad.com/currents/2010/02/currents37-0-soonlegates-2010-0226.html
Übersetzt von Chris Frey EIKE mit schriftlicher Genehmigung des Autors




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1

Abstract

Die hier durchgeführte Untersuchung zu den Erwärmungsursachen anhand amtlicher Messwerte der DWD- Station Erfurt- Bindersleben verdeutlicht die Schwierigkeiten bei der Abschätzung möglicher Erwärmungseffekte. Es konnte jedoch gezeigt werden, dass allein etwa die Hälfte des seit 1979 in Erfurt beobachteten Temperaturanstiegs auf eine bloße Zunahme der Sonnenscheindauer zurückführen lässt. Wegen der Kopplung der Wettersysteme (El Niño), muss davon ausgegangen werden, dass der solare Einfluss noch größer ist.
Einen wesentlichen, aber noch weiter zu untersuchenden Teil von etwa 0,6K, hat auch der „Urbanisierungs- und Flächenhafte Wärmeinseleffekt“ beigetragen. Weiterhin deuten sich zumindest leichte Erwärmungseffekte durch Zirkulationsänderungen an, besonders im Frühjahr. Auch hierzu sind noch tiefere Untersuchungen notwendig. Möglicherweise tritt der Zirkulationseffekt dann deutlicher hervor.
Anhand der gezeigten Korrelation am Langzeittrend, kann auch eine leichte Erwärmung durch „Treibhausgase“ nicht völlig ausgeschlossen werden. Deren Betrag fällt jedoch gegenüber den „Hauptakteuren“ Solar- und Wärmeinseleffekten sehr gering aus, sofern er überhaupt vorhanden ist, da keine Ursache-Wirkung besteht (Korrelation seit mehr als 10 Jahren divergierend, d.h. nicht vorhanden). So zeigt das folgende Diagramm die möglichen Einflüsse anhand der Korrelationsergebnisse. Es deutet grob an, wie sich die Erwärmung danach zusammensetzt. Außerdem sind weitere, hier nicht untersuchte scheinbare Erwärmungsursachen, wie etwa die Verfälschung der Tageswerte durch Umstellung auf stündliche Lufttemperaturmessungen seit 2001 und halbstündige seit 2009, nicht ausgeschlossen.

Teil 1: Vorstellung der Hauptakteure

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der Klimawissenschaft

Teil 1 Vorstellung der Hauptakteure

 
Seit 1979 sind die Lufttemperaturen in Erfurt um etwa 1,3°C beziehungsweise 1,3 Kelvin (K) gestiegen- in nur 33 Jahren um fast das Doppelte der angeblich seit etwa 150 Jahren stattfindenden „Erderwärmung“ von etwa 0,8K. Da lohnt es sich, einmal genauer hinzuschauen- schließlich könnte sich ja die „globale Erwärmung, angeblich durch CO2 verursacht“, in Thüringen viel schlimmer auswirken, als bislang angenommen. Es könnte aber auch alles ganz anders sein. Die folgende Arbeit erhebt keinen Anspruch auf Vollständigkeit und soll vor allem zum unvoreingenommenen Nachdenken über mögliche Erwärmungsursachen anregen.  
Mehr Sonnenschein- Mehr Wärme!
Die folgenden zwei Abbildungen zeigen den Temperaturtrend (oben) und den Trend der Sonnenscheindauer (unten).
 
Abbildung 2. Die Ähnlichkeit beider Verläufe ist unverkennbar. Die höhere Sonnenscheindauer wirkt erwärmend. Eine Korrelationsberechnung zwischen jährlicher Sonnenscheindauer und den Jahresmitteltemperaturen bestätigt diesen Verdacht (folgende Abbildung).

Abbildung 3
Das Bestimmtheitsmaß von fast 47% sagt aus, dass knapp 47 Prozent der Variabilität der Lufttemperaturen im Betrachtungszeitraum von der Variabilität der Sonnenscheindauer verursacht wurden. Anmerkung: Eine positive Korrelation ist für sich allein zwar kein eindeutiger Beweis für den Zusammenhang zwischen beiden Faktoren. Dass jedoch eine längere Sonnenscheindauer mehr Energiezufuhr bedeutet, welche die Erdoberfläche und über diese dann auch die unteren Luftschichten stärker erwärmt, dürfte niemand anzweifeln.
Erstes Ergebnis: Mehr Sonnenstunden, mehr Wärme. Etwa zur Hälfte lässt sich der  Erwärmungstrend mit der seit 3 Jahrzehnten zunehmenden Sonnescheindauer erklären! Die Sonne scheint heute in Erfurt gut 200 Stunden länger pro Jahr, als noch Ende der 1970er Jahre, was in etwa der Sonnenscheindauer eines ganzen Sommermonats entspricht!
Untersuchungen anderer europäischer Stationen, unter anderem von Berlin- Dahlem, Potsdam, Horben (Schwarzwald), Observatorium Modena (Norditalien), sowie mehrerer Stationen aus der Schweiz, deuten in die gleiche Richtung. Seit etwa 2000 stagniert die Temperatur auf hohem Niveau.
Dieser Erwärmungseffekt durch längere und intensivere Besonnung ist wegen strenger Umweltauflagen (Luftreinhaltemaßnahmen) in Europa besonders deutlich ausgefallen und ist eine Erklärung, warum die Temperaturen hier so viel stärker als im „globalen Mittel“ angestiegen sind. Seit mehr als 10 Jahren stagnieren sie jedoch auf hohem Niveau oder sinken gar wieder leicht, zumal die „Luftreinhalteeffekte“ weitgehend ausgereizt sind. Außerdem lässt die Sonnenaktivität, welche ebenfalls wesentliche Einflüsse auf die Sonnenscheindauer und die Intensität der Einstrahlung hat (z.B. „Svensmark- und Aerosoleffekte“) aktuell stark nach.
Die folgende Abbildung zeigt, wie sich die globale Wolkenbedeckung, also nicht nur die von Städten, seit Beginn des Erwärmungstrends änderte.

Abbildung 4 links zeigt die globale Wolkenbedeckung von Juli 1983 – Juni 2005, nach Daten des ISCCP (International Satellite Cloud Climatology Project). Die Abbildung stammt aus der Arbeit von Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts“. Bereits die linke Abbildung deutet auf eine periodische Schwingung von größer 18 Jahren (grüner Pfeil) hin. Dass Kurvenminimum liegt im Maximum des 23. Schwabe- Zyklus im Jahr 2000. Rechts ist der Kurvenverlauf an der gestrichelten Linie gespiegelt und ab 2005 (Datenende) angesetzt. Dabei wurde darauf geachtet, dass das Verhältnis zwischen Anstieg und Rückgang im Schwabe-Zyklus etwa 2 zu 3 beträgt (die Anstiegszeit eines solaren Zyklus ist nicht exakt fix, sondern davon abhängig, wie stark der kommende Zyklus ist – starker Zyklus = schnelle Anstiegszeit, schwacher Zyklus = langsame Anstiegszeit, insofern stellt das Verhältnis 2 zu 3 einen Mittelwert dar). Das Maximum der globalen Bewölkung folgt in eindeutiger Weise vom Hale-Zyklus (Polaritätszyklus der Sonne) und damit der Polarität des magnetischen Sonnenzyklusses. Weitere Untersuchungen sind notwendig, den komplexen Einfluss der Sonne auf unser Wetter/Klima, hier der Wolkenbildung, besser zu verstehen und die obigen Erkenntnisse abzusichern. Denn der Einfluss der Wolken auf die Wetter- und damit Temperaturverhältnisse sind elementar.
Nach Angaben des DLR (Deutsches Zentrum für Luft- und Raumfahrt) bedeutet eine Reduzierung des mittleren Wolkenbedeckungsgrades von wenigen Prozent, bereits eine globale Temperaturänderung, die einer Verdoppelung des CO2-Gehaltes nach den Modellvorstellungen des IPCC entspricht. Im obigen Chart beträgt die Reduzierung des Wolkenbedeckungsgrades ca. 6% bis zum Jahr 2000.
Anmerkungen: Es ist zu erwarten, dass durch die etwa 60%ige Abnahme der Luftschadstoffe seit 1980 („Aerosol- Effekt“) und die hohe Sonnenaktivität um 1990, eben auch die Intensität der Sonnenstrahlung deutlich zunahm, was zusätzlich erwärmend wirkt, da mehr direkte Sonnenstrahlung mit einem höheren (energiereicheren) Blauanteil die Erdoberfläche trifft, was aber hier nicht zum Ausdruck kommt, da ja nur der Einfluss der Sonnenscheindauer, nicht aber deren Intensität, untersucht wurde. So ist noch ein zusätzlicher Erwärmungseffekt durch die höhere Intensität der Sonnenstrahlung selbst (in der Literatur als „Solar brightening“ = Aufhellung der Sonnenstrahlung) zu erwarten, der sich ohne Strahlungsmessungen am Standort Erfurt aber nicht quantifizieren lässt. Mit sinkenden Luftschadstoffgehalten nahmen auch Dauer und Häufigkeit von Nebel (und womöglich auch der Bedeckungsgrad mit Tiefen Wolken) deutlich ab.
Weiterhin muss erwähnt werden, dass die monatliche Sonnenscheindauer im Sommerhalbjahr mit Bestimmtheitsmaßen von 35 bis über 70% die Monatsmitteltemperaturen wesentlich stärker beeinflusst als im Winterhalbjahr mit Bestimmtheitsmaßen von nur 6 bis kaum 14%. Kurzum- mehr als zwei Drittel der vergangenen Erwärmung in den Sommermonaten lassen sich aus der Sonnenscheindauer erklären, während besonders für das Winterhalbjahr nach weiteren Ursachen gesucht werden muss.
Bedingt durch die anthropogene (menschliche) Veränderung der Beschaffenheit der Erdoberfläche gibt es verschiedene Erwärmungseffekte; am bekanntesten ist der städtische („urbane“) „Wärmeinseleffekt“ (im Englischen mit UHI = Urban Heat Island Effect abgekürzt). Siedlungen und Städte sind aus folgenden Gründen wärmer als ihr Umland; hier sollen nur die wichtigsten aufgezählt werden:
Es gibt direkte Wärmequellen, und zwar
Verbrennungsmotoren (Verkehr im weitesten Sinne).
Heizungen, Klimaanlagen und Kühlschränke.
Beleuchtung (besonders Glühlampen) und Widerstandsverluste im Stromnetz.
Kanalisation und Müll (die darin enthaltenen Mikroorganismen erzeugen Wärme).
Viele Menschen und Haustiere auf engstem Raum (jeder Mensch erzeugt durch seinen Stoffwechsel in etwa soviel Wärme wie eine 100- Watt- Glühbirne).
Mindestens genauso wichtig, vielleicht sogar wichtiger, sind indirekte Erwärmungseffekte:
Einschränkung der stark kühlend wirkenden Verdunstung durch Bodenversiegelungen (Pflaster, Asphalt,  Beton) und Ableitung des Regenwassers aus der Stadt.
Fehlender oder geringerer Pflanzen- und Gehölzwuchs als im unbebauten Umland. Die Vegetation „kühlt“ durch Beschattung, durch Verdunstung sowie durch Aufnahme eines Teils der Sonnenenergie zur Photosynthese.
Die Stadt empfängt durch ihre höhere Rauhigkeit und besondere Bodenbeschaffenheit mehr Sonnenstrahlung als das Freiland (dunkler Asphalt, außerdem absorbieren Steildächer und senkrechte Hauswände besonders die Strahlung der tief stehenden Sonne, welche im Freiland kaum erwärmend wirkt). Besonders spätabends und nachts wirkt das deutlich erwärmend, weil die Baumaterialien dann die tagsüber gespeicherte Wärme an die Luft abgeben („Wärmespeicherkapazität der Straßen und Häuser).
Die Bebauung bremst den kühlend und belüftend wirkenden Wind. Ganz nebenbei: Wer Windräder aufstellt, um „das Klima zu schützen“ muss diesen Effekt ebenfalls in Kauf nehmen. Die Bremsung des Windes durch große „Windparks“ ist erheblich und trägt so ebenfalls zum Temperaturanstieg in Bodennähe auch außerhalb von Städten bei – willkommen in Absurdistan!
Horizonteinengungen und Mehrfachreflexionen behindern die nächtliche Ausstrahlung. Luftverschmutzungen (die berüchtigte „Dunstglocke“ aus Staub und Nebeltröpfchen) wirken nachts und daher besonders im Winterhalbjahr erwärmend, weil sie die Wärmeabstrahlung stärker zum Boden zurück reflektieren, als saubere Luft. Tagsüber mindern sie zwar die Intensität der Sonnenstrahlung und wirken dadurch kühlend, aber alle direkten, nur im urbanen Bereich konzentriert auftretenden Erwärmungsquellen können sie nicht überkompensieren.
Leider liegen zur genauen Entwicklung der Bebauung und Bodenversiegelung im Umfeld des Erfurter Flughafens keine genauen Angaben vor. Nach eigenen Beobachtungen nahmen diese besonders seit 1990 stark zu (mehr Flug- und Straßenverkehr, zahlreiche gewerbliche Neuansiedlungen und Wohnungsneubauten). Auch fehlen Messwerte einer vom Urbanisierungseffekt weniger beeinflussten Freilandstation, so dass man den Effekt der zunehmenden Verstädterung auf die Entwicklung der Temperaturen nur schwer ermitteln kann. Ein mögliches Verfahren zur Berechnung dieser Erwärmungseffekte hat einer der Autoren entwickelt und basiert auf dem Strahlungsgesetz nach Planck und dem Abkühlungsgesetz nach Newton.
Anhand dieser Berechnung beträgt der Urbanisierungs- und Flächenhafte Wärmeinseleffekt bei der vom DWD für Deutschland ausgewiesenen Erwärmung für die letzten 120 Jahre +1,1°C von +1,9°C, d.h. der größte Anteil der Erwärmung geht auf den WI zurück. Insbesondere in der ehemaligen DDR sind nach der Wende 1989/90 aus einstigen kleinen Wärmeinseln durch die Ausbreitung der Bebauung großflächige Wärmeregionen entstanden, und der Trend hält an. Das gilt auch für Erfurt. Die Wetterstation liegt heute am Flughafengelände Erfurt/Weimar, das nach der Wende erheblich erweitert wurde. Diese zusätzlichen erwärmenden Wirkungen der freien Fläche haben wir durch den Begriff flächenhafter Wärmeinseleffekt abgedeckt, den wir mit WI abkürzen.
Unsere Untersuchungen zeigen, dass im Schnitt der 2100 Stationen Deutschlands der Wärmeinseleffekt etwa 0,1 Grad pro Jahrzehnt über die letzten 120 Jahre beträgt. Jedoch betrug er anfangs weniger, in den letzten 30 Jahren aber das Doppelte. Das bedeutet, dass mindestens 0,6K des in Erfurt beobachteten Temperaturanstiegs seit 1979 auf das Konto der (noch immer andauernden) Urbanisierung (Verstädterung) und auf die Umgestaltung der einstigen freien Fläche gehen. Da Erfurt eine „Boomtown“, mit im Vergleich zu Gesamtdeutschland überdurchschnittlich zunehmender Bebauung ist, muss von einem noch etwas höheren Urbanisierungs- und Flächenhaften Wärmeinseleffekt als den 0,6K Temperaturzunahme ausgegangen werden, wobei der Urbanisierungseffekt dominant ist.
Die linearen, nach dem Jahr 2000 etwas fallenden Trendlinien von Deutschland und Bindersleben verhalten sich ähnlich (Abbildungen 5 und 6). Das Jahr 2000 war jeweils das wärmste Jahr. Der Temperaturrückgang der letzten 11 Jahre war in Bindersleben jedoch nicht so stark wie der Gesamtschnitt der deutschen Messstationen. In den letzten Jahren nähert sich Bindersleben langsam dem Deutschlandschnitt. Allerdings ist der betrachtete Zeitraum von 11 Jahren zu kurz für endgültige Schlussfolgerungen. Allgemein gilt jedoch: Urbanisierungs- und flächenhafte Wärmeinseleffekte wirken einer Abkühlung entgegen. Je mehr eine Station durch diese Effekte beeinflusst wird, desto weniger stark kühlt sie ab.
 
Abbildung 5

Abbildung 6
Weiter ist anzuführen, dass es in der verbleibenden freien Landschaft (beispielsweise durch Trockenlegung = Melioration, geänderte Anbaumethoden und die Umwandlung naturnaher Laubmischwälder in Fichten- oder Kiefernmonokulturen, aber auch durch Straßenneubau und Splittersiedlungen) weitere Erwärmungseffekte gibt, die ebenfalls unter den Begriff „Flächenhafter Wärmeinseleffekt“ fallen. Bei der Station Erfurt dürften allerdings Urbanisierungseffekte dominant sein, da hier vor allem Bebauung und Verkehr zunahmen. Außerdem ist zu beachten, dass die in den Städten erzeugte Wärme natürlich auch in die freie Landschaft „eingetragen“ wird und dort eine (mit wachsendem Abstand zur Stadt kleiner werdende) Erwärmung bewirkt.  
Zweites Ergebnis: Die Urbanisierungs- und Flächenhaften Wärmeinseleffekte bewirkten ebenfalls einen Teil des Temperaturanstiegs, der aber leider aufgrund des Fehlens vergleichbarer Zahlen für Erfurt nur geschätzt werden konnte und seit 1979 mindestens 0,6K, betragen dürfte. Unsere Untersuchungen legen jedoch den Schluss nahe, dass bei der Station Erfurt- Bindersleben die urbanen Erwärmungseffekte überwiegen.
Anmerkungen: Gerade bei der Quantifizierung der „Urbanisierungs- und Flächenhaften Wärmeinseleffekte“ ergibt sich ein weites Feld für die Forschung. Folgende Fragestellungen wären interessant:

  1. Wie stark tragen die verschiedenen Wärmequellen und Erwärmungseffekte im Einzelnen zur Erwärmung bei?
  2. Gibt es- ähnlich, wie bei der Sonnenscheindauer, jahreszeitliche Unterschiede? Zumindest bei den durch Insolation (Einstrahlung) und Verdunstungsminderung verursachten Effekten ist dies zu erwarten. Im Sommer dominieren die indirekten Erwärmungseffekte und im Winter die direkten Wärmequellen. Dadurch sind möglicherweise deren Beträge der Erwärmung im Sommer und Winter annähernd gleich. In Städten etwa vergleichbarer Größe und Struktur wächst außerdem der Erwärmungseffekt mit zunehmender geografischer Breite oder der Höhe über dem Meeresspiegel, weil aus dem Strahlungsgesetz nach PLANCK folgt, dass sich ein kühlerer Körper (damit auch eine kühlere Region) bei derselben Energiezufuhr pro Zeiteinheit stärker erwärmt, als ein wärmerer.
  3. Was passiert in Städten, die in den vergangenen Jahrzehnten eine gravierende Deindustrialisierung und einen massiven Bevölkerungsrückgang zu verzeichnen hatten (Ruhrgebiet, Eisenhüttenstadt, Suhl und andere)? Ist dort die Erwärmung durch den Wärmeinseleffekt geringer ausgefallen, vielleicht sogar ausgeblieben oder gar rückläufig? Dies dürfte auch von der Intensität und Qualität der Rückbaumaßnahmen abhängen (bei Konversion in intensive Grün- oder Wasserflächen ist der Kühleffekt am größten).

 
Abbildung 7 links entstammt einer Untersuchung aus den USA (Utah) und zeigt, wie sich die Erwärmungstrends mehrerer in Städten befindlicher Messstationen pro Jahrzehnt (linke, rotbraune Säule) von solchen in rein landwirtschaftlich genutzten Arealen (mittlere Säule) und von solchen in vom Menschen weitgehend unbeeinflussten („naturnahen) Arealen unterscheiden (rechte Säule).
Die Differenz der Höhen linke minus rechte Säule ist der Urbanisierungseffekt der Städte, hier in Fahrenheit dargestellt (0,4 Fahrenheit entsprechen etwa 0,22°C). Im Vergleich zu vom Menschen weitgehend unbeeinflussten Landschaften verlief die Erwärmung in den Städten also etwa doppelt so schnell (zusätzlich gut 0,1°C pro Jahrzehnt), was mit den erwähnten Wärmeeffekt- Berechnungen für Deutschland gut übereinstimmt. Die rechte Abbildung zeigt den Einfluss der Größe einer Siedlung auf deren bislang erfolgte zusätzliche Erwärmung in Kelvin (1K = 1°C). Allerdings hängt die Erwärmungsrate auch von der Besiedlungsdichte und der Art der Bebauung ab. Je dichter Bebauung und Besiedelung, desto höher ist die Erwärmungsrate. Gute Durchgrünung und Durchlüftungsschneisen mindern die Erwärmung.
3. Wirkten sich auch Änderungen in der Zirkulation aus?

     

Berühmt wurde der sogenannte „Klimasprung“ am Ende der 1980er Jahre, als es deutlich wärmer wurde. Auch in Erfurt ist dieser- wenngleich undeutlich- zu erkennen. Dem, mit Ausnahme der Jahre 1982 und 1983, recht kühlen Zeitraum von 1979 bis 1987 (7 Jahre mit weniger als 8°C Jahresmitteltemperatur), folgte ab 1988 eine regelrechte „Kleine Warmzeit“ mit einem ersten Höhepunkt 1989/90, den absoluten Höhepunkten 1994 und um 2000, danach gab es bei Stagnation weitere Höhepunkte 2007 und 2011, während die Einbrüche (1996, 2010) zwar sehr markant, aber nie von Dauer waren. Nun lohnt es sich, die 5 wärmsten und die 5 kältesten Jahre einmal etwas genauer unter die Lupe zu nehmen.
Die 5 wärmsten Jahre (2000, 1994, 2007, 2011, 1990) zeichneten sich durch eine Häufung kräftiger Westwetterlagen im Januar, Februar und im Dezember aus, während im Sommer ebenfalls wechselhaftes Westwetter überwog (lediglich im heißen Sommer 1994 dominierten Hochdruckwetterlagen). In den kältesten Jahren (1996, 1987, 1985, 1979 und 1980) gab es in den Wintermonaten markante Kälteeinbrüche aus Ost bis Nordost, die zumindest einige Wochen, mitunter gar über Monate (1996) dominierten, während alle Sommer dieser Jahre wechselhaft und mehr oder weniger zu kühl ausfielen. Es fällt auf, dass Jahre mit sehr warmen Sommern (1982, 1983, 1992, 1994, 2003, teilweise auch 1991, 1995, 2006 und 2010) nur einmal unter den „Extremjahren“ vertreten sind, was man so erklären kann, dass ihnen teilweise mäßig- kalte Winter oder Frühjahre vorausgingen, mitunter folgte auch ein zeitiger und kalter Herbst. Insgesamt scheinen sich „sommerwarme“ Jahre durch eine im Jahresmittel leicht geschwächte Westwindzirkulation auszuzeichnen. Nun ergibt sich die Frage, ob sich aus den Monats- und Jahresmittelwerten der standardisierten NAO (Nord- Atlantische Oszillation) eine Beziehung zur Jahresmitteltemperatur und zu den Mitteltemperaturen der Hauptjahreszeiten ableiten lässt? (Anmerkung: Hohe, positive NAO- Indizes drücken eine überdurchschnittlich kräftige westliche Strömung über dem Ostatlantik aus, während diese bei negativen Indizes abgeschwächt ist. Bei stark negativen Werten „tauschen“ Azorenhoch und Islandtief gar ihre Plätze. Die NAO wird maßgeblich durch die solare Aktivität moderiert, wie die folgenden Abbildungen belegen.
 
Abbildung 8 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000).
Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein. Dass die Sonne maßgeblich die NAO bestimmt, zeigt bereits die Arbeit ”Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society.
Der NAO- Index wird täglich mit Hilfe der 00- UTC- 500- Hektopascal- Anomalien über der Nordhemisphäre berechnet). Der Zusammenhang zwischen den NAO- Indizes (Jahresmittelwerte) und den Jahresmitteltemperaturen ist aber allenfalls mäßig (Abbildung 9):
 
Abbildung 9
Ein Jahreszeitenvergleich zeigt, dass die NAO- Indizes im Winter einen deutlichen, im Sommer aber praktisch keinen Einfluss auf die Temperaturen haben (Abbildungen 10):
 
Abbildung 10
Man könnte nun den voreiligen Schluss ziehen, dass vielleicht zunehmende NAO- Werte für einen Teil des Temperaturanstiegs seit 1979 verantwortlich sind, denn auch zurzeit des „Klimasprungs“ um 1990 herrschten positive NAO- Werte vor. Dem ist aber nicht so, denn die NAO- Indizes zeigen (wie dargelegt, von der Sonnenaktivität moderiert), eine leicht fallende Tendenz:
 
Abbildung 11
Allerdings war der Rückgang im Winter weniger deutlich als im Sommer:
  
Abbildung 12
Auswertungen lassen den Schluss zu, dass die Häufung trocken- warmer Hochdruckwetterlagen zwischen Anfang April und Ende Mai, welche sich jedoch in den NAO- Werten kaum ausdrückt, ganz wesentlich zum Temperaturanstieg beigetragen haben. Weil der April den stärksten Temperaturanstieg aller Monate in Erfurt aufwies, wurde für ihn die Anzahl der Tage mit Hochdruckwetterlagen (alle vom Deutschen Wetterdienst als „antizyklonal“ eingestuften Großwetterlagentage plus die Tage mit den Großwetterlagen „Hochdruckgebiet über Mitteleuropa“ und „Hochdruckbrücke über Mitteleuropa“) ermittelt. Es ergibt sich eine deutliche Zunahme der Tage mit Hochdruckwetter seit 1979:
 
Abbildung 13
Es gibt momentan etwa 7 Tage mehr Hochdruckwetterlagen im April, als Ende der 1970er Jahre. Die Monatsmitteltemperaturen stiegen im April in Erfurt ebenfalls deutlich an:
 
Abbildung 14
Obwohl beide Trendlinien ähnlich verlaufen, ist der berechnete Zusammenhang mit r = 0,32 und dem daraus resultierenden Bestimmtheitsmaß von 10% alles andere als gut. Man muss allerdings bedenken, dass nicht alle Hochdruckwetterlagen im April „erwärmend“ wirken, denn bei nördlicher bis nordöstlicher Luftströmung kann selbst anhaltender Sonnenschein die heranwehende Kaltluft nicht immer ausreichend aufheizen. Möglicherweise nahmen aber auch andere, „erwärmend“ wirkende Wetterlagen zu, was noch einer genaueren Untersuchung bedarf. So erhöhte sich seit den 1960er Jahren die Häufigkeit der Westwetterlagen im Winterhalbjahr deutlich, dafür treten diese im Sommerhalbjahr seltener auf, was insgesamt ebenfalls erwärmend wirkt („Westwetter“ geht im Winter mit deutlich positiven, im Sommer mit leicht negativen Temperaturanomalien in Mitteleuropa einher).
Die genaue Quantifizierung dieser Erwärmungseffekte durch die Veränderung der Häufigkeiten der Großwetterlagen ist jedoch schwierig. Wie noch gezeigt wird, werden diese Zirkulationsänderungen von der Sonnenaktivität wesentlich beeinflusst und über die Schwankungen der NAO (Nordatlantische Oszillation der Luftdruckverteilung) und der AMO (Atlantische Multidekaden- Oszillation der Wassertemperaturen) direkt gesteuert. Damit wird klar, dass auch hier eine „Trendumkehr“ möglich ist. In den Wintern 2008/09 bis 2011/12 kam es- zumindest monatsweise- schon zu einer deutlichen Abschwächung der Westwetterlagen, was auf eine beginnende Trendumkehr hindeuten könnte. 
Drittes Ergebnis: Aus Zirkulationsänderungen lässt sich der Temperaturanstieg zumindest für Erfurt nicht zweifelsfrei erklären. Die Westwind- Zirkulation, deren Maß der NAO- Index ist, beschleunigte sich bis in die 1990er Jahre hinein, was den „Klimasprung“ um 1990 mit erklären kann. Danach ging sie besonders nach Beginn der 2000er Jahre zurück, so dass im Gesamtzeitraum ein negativer Trend überwiegt, der im Gegensatz zum positiven Temperaturtrend steht. Im Winter beeinflussen steigende NAO- Werte die Lufttemperaturen relativ deutlich positiv (von Westlagen dominierte Winter sind tendenziell milder), während im Sommer fast kein Zusammenhang zur NAO erkennbar ist.
Der Rückgang der NAO- Indizes ging hauptsächlich auf Kosten der Sommermonate. Eine gewisse, nicht in allen Jahreszeiten vorhandene Erwärmung durch häufiger auftretende Hochdruckwetterlagen, besonders im Frühling und mehr Westwetterlagen im Winter, dafür weniger Westwetterlagen im Sommer, deutet sich jedoch an. Insgesamt kann der Betrag des Erwärmungseffekts durch Zirkulationsänderungen nur grob geschätzt und in der Größenordnung von 0,1 bis höchstens 0,3K seit 1979 für Erfurt angesetzt werden.
Verfasst und zusammengestellt (2012) von
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
Raimund Leistenschneider, EIKE




Wind und Sonne: Ethische Investitionen unbedingt meiden

Investoren sollen Eneuerbare Energien meiden

Den “Erneuerbaren” gehört die Zukunft, sagen die Umwelt-Aktivisten. Aber für die „grünen“ und „ethischen“ Investoren sind sie ein Albtraum, die Hersteller von Wind- und Sonnenenergie-Systemen gehören zu den schlechtesten „Performern“ der vergangenen Jahre.
Nehmen Sie z. B. Vestas, den dänischen Windturbinenhersteller. Frühe Investoren haben sich über glänzende Gewinne gefreut. Die Aktien sprangen von 34 DKr im Jahre 2003 auf 698, und damit das Zwanzigfache im Jahre 2008. Doch dann verfiel der Kurs, geplagt vom Verlust der Regierungssubventionierung, durch Kostenüberschreitungen, durch Produktionsverzögerungen und dem Wettberwerb aus China. Heute wird die Aktie um die 35 Kronengehandelt – wer 2008 investierte, hat fast 95 Prozent seines Geldes verloren.
Im August teilte Vestas mit, dass man in die Verlustzone geraten und weitere 1.400 Arbeitsplätze abgebaut hätte. In den Sheerness Docks in Kent sei eine Produktionsstätte für die Herstellung von Tiefwasser-Windfarmen in der Nordsee geplant gewesen. Die wäre im Juni gestrichen worden.
Die Solarkollektoren-Hersteller haben die Investoren auch um viel Geld erleichtert. Man schaue sich nur SunTech an, den weltgrößten Hersteller von PV-Kollektoren, Firmensitz Wuxi, China. Die den Börsengang begleitenden Firmen (vor allem Goldman Sachs) haben mit dem Zehnfachen des eingesetzten Geldes ein Vermögen verdient, als SunTech 2005 an die New Yorker Börse gebrachte wurde. Verdient haben auch diejenigen, die bei der Börseneinführung kauften. Die Kurse schossen von $20 auf $79 Ende 2007 hoch. Und heute? Die Papiere werden für gerade mal 92 Cents weitergereicht. First Solar, ein anderer einstiger Börsenliebling an der Nasdaq, brach von $308 im April 2008 auf $23 in der vergangenen Woche ein. Die Solar-Industrie ist von der Überkapazität in China, fallenden Preisen und nachlassenenden Regierungssubventionen gekennzeichnet.
Auf Erneuerbare Energien spezialisierte Fonds sind entgegen den Erwartungen stark gefallen.  Impax Environmental, ein Investment Trust, hat 20% während der letzten fünf Jahre verloren, BlackRock New Energy ist es noch schlimmer ergangen, dort ging es seit 2007 um 49.9% abwärts. Es ist eine heilsame Erinnerung daran, dass man kurzlebige Trends und Blasen vermeiden soll.
Inzwischen haben viele der von ethischen Investoren ausgesonderten “böse” Aktien eine außergewöhnliche Performance hingelegt. Um die Jahrtausendwende, mitten in der Blase um Technologie, Medien und Telekommunikation, waren die Tabakfirmen der am meisten verabscheute Sektor. Anteile an British American Tobacco, Inhaber der Marken Dunhill, Kent, Lucky Strike and Pall Mall, wurden für 224p gehandelt. Heute stehen sie auf £31.93.
Original hier