Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens.

In einem Artikel über den solaren Klimaeinfluss (M.Lockwood und C.Fröhlich..Royal Society’s journal, UK)  ist zu lesen: “There is considerable evidence for solar influence on the Earth’s pre-industrial climate and the Sun may well have been a factor in post-industrial climate change in the first half of the last century. Here we show that over the past 20 years, all the trends in the Sun that could have had an influence on the Earth’s climate have been in the opposite direction to that required to explain the observed rise in global mean temperatures.”
Die Autoren stellen somit den  in  BWK-Beiträgen nachgewiesenen solaren Einfluss auf das langfristige Klimaverhalten nicht in Frage, inklusiv der jüngsten Erwärmung bis vor einigen Jahrzehnten. Wenn man aber das Temperaturverhalten in einem  kurzen, nur 20 Jahre umfassenden Zeitraum untersucht, verlässt man die nachhaltige, langfristige Klimaskala und kommt in den Bereich der Klimafluktuationen, in dem kurzperiodische Klimafaktoren in Relation zu den langfristigen, übergeordneten Prozessen temporär an Bedeutung gewinnen. (BWK-Beiträge SO 11/09 SO 18/10, 01/11). Die kurzfristige Klimaskala lässt grundsätzlich noch keinen Schluss auf die langfristige Klimaskala zu. Wer hier bei der Interpretation keine Skalentrennung vornimmt, vergleicht Äpfel mit Birnen.

Zur Analyse des Klimawandels, also der nachhaltigen Klimaänderung, und seiner Ursachen sind „mindestens 30-jährige Klimaperioden“ (Weltorganisation für Meteorologie) erforderlich.
Wie wenig aussagekräftig dekadische  Temperaturänderungen in Bezug auf die langfristige Klimaentwicklung sind, zeigt Abb.1. Dort sind die globalen Temperaturänderungen von einer Dekade zur Vordekade dargestellt. Danach hätte man seit 1860 mehrfach auf bevorstehende Klimaerwärmungen wie auf Abkühlungen schließen können. Völlig unhaltbar sind Aussagen auf subdekadischer Datenbasis. Die tatsächliche globale Erwärmung nach 1860 ist nur langfristig zu erkennen (Abb.4).
Die nachfolgenden Analysen stellen eine Ergänzung der früheren Untersuchungen zum Klimawandel dar. Im Gegensatz zur bisherigen Definition eines Sonnenfleckenzyklus von Sonnenfleckenmaximum zu Sonnenfleckenmaximum werden jetzt die Sonnenfleckenzyklen von Sonnenfleckenminimum zu Sonnenfleckenminimum definiert. Diese Verschiebung um eine halbe Wellenlänge ist nach der Schwingungslehre ohne Einschränkung möglich. Auch entspricht die neue Betrachtung der internationalen Zählweise der Zyklen. Ferner kann durch den veränderten Ansatz die zyklenbezogene Klimaanalyse zum einen bis zum Jahr 2009 ausgedehnt werden, wodurch auch das ungewöhnliche Temperaturverhalten seit 1998 betrachtet werden kann. Zum anderen ist durch die Untersuchung eine Überprüfung der früheren Ergebnisse gegebe

Die Klimaentwicklung Mittel- und Westeuropas 1680-2009

Die Klimareihe von Mitteleuropa basiert auf den Klimabeobachtungen von Berlin, Basel, Prag und Wien, die Klimareihe von Westeuropa auf der Central England Reihe (CET), wobei aus letzterer die Mitteleuropawerte für die beiden Dekaden 1680-1700 abgeleitet wurden (Reduktion -0,5°C).
Abb.2 zeigt den Klimawandel (anhand von Klimaperioden von 3 Sonnenfleckenzyklen gleitend) seit der Kleinen Eiszeit in Mitteleuropa, Abb.3 in Westeuropa.

Wie Abb.2 und Abb.3 belegen, setzte nach der Kleinen Eiszeit des 17.Jahrhunderts eine Klimaerwärmung im 18.Jahrhundert ein. Danach  kam es zu einer rapiden Abkühlung, die um und nach der  Mitte des 19.Jahrhunderts ihren Tiefpunkt erreichte. Ihr folgte der Temperaturanstieg im 20. Jahrhundert.
Sowohl im kontinental geprägten Mitteleuropa als auch im ozeanischen Westeuropa ist diese sinusartige Klimaschwingung seit 1680 mit einer Periodenlänge von rund 200 Jahren ein Faktum. Damit widerspricht die reale Klimaentwicklung dem sog. Hockey-Schläger-Verhalten, wonach die Klimatemperatur vor 1850 konstant gewesen sei und ein Temperaturanstieg erst mit dem Beginn der Industriealisierung nach 1850 einsetzte. 

Der Einwand, der dargestellte Temperaturverlauf spiegele nur die regionalen Verhältnisse wider, nicht aber die globalen,  ist nicht stichhaltig. So berechnen sich für den Zusammenhang zwischen dekadischen Central England- bzw. Mitteleuropatemperaturen und den globalen Dekadentemperaturen im Zeitraum 1851-2010 Korrelationskoeffizienten von +0,87 bzw. +0,94, d.h. West- und Mitteleuropa machen alle wesentlichen globalen Klimabewegungen mit. Nach den Gesetzen der Logik muss dieses auch für die Zeit vor 1850 gelten. Alles andere  würde bedeuten, dass Europa vom nordhemisphärischen/globalen Klimawandel abgekoppelt wäre.

Die globale Klimareihe ab 1850 erfasst nur die Hälfte der Klimaentwicklung seit 1680. Sie gibt vom Klimawandel der letzten Jahrhunderte allein die jüngste Erwärmung wieder (Abb.4), d.h. sie beginnt in der kalten und lebensfeindlichen Periode des 19. Jahrhunderts, als in Mitteleuropa wegen der ungünstigen Klimabedingungen Menschen verhungert sind und die große Auswanderungswelle in die USA einsetzte. Der globale Temperaturanstieg um +0,7°C zwischen 1860 und 2010  war ein Segen und keineswegs der mit der „2°-Grenze“ propagierte Beginn einer Klimakatastrophe.

Das solare Aktivitätsverhalten seit 1680

In Abb.5 ist die mittlere Sonnenfleckenzahl für Klimaperioden von 3 Sonnenfleckenzyklen gleitend  dargestellt. Damit entspricht der im Mittel 33-jährige Zeitraum von 3 Sonnenfleckenzyklen zum einen  der Definition von Klimaperioden („mindestens 30 Jahre“) der Weltorganisation für Meteorologie. Zum anderen trägt der Ansatz dem kontinuierlichen solaren Energiefluss Rechnung. Erst dadurch lassen sich langfristige Sonnen-/Klimaprozesse von kurzperiodischen Prozessen trennen.
 
Wie bei den früheren Untersuchungen so folgt nach Abb.5 auch bei der veränderten Definition der Sonnenfleckenzyklen (Minimum bis Minimum) das sinusartige Schwingungsverhalten der Sonnenaktivität mit einer rund 200-jährigen Periodenlänge. Der ruhigen Sonne im 17. Jahrhundert (Maunder-Minimum)  folgte eine zunehmend aktive Sonne im 18.Jahhundert. Ihr folgte im 19.Jahrhundert wieder eine Phase mit einer ruhigen Sonne (Dalton-Minimum). Dieser schloss sich die Periode mit stark zunehmender Sonnenaktivität im 20.Jahrhundert a
Vergleicht man den solaren Aktivitätsverlauf mit den Temperaturverläufen von Mitteleuropa (Abb.2) sowie Central England (Abb.3) seit der Kleinen Eiszeit, so ist das langfristige synchrone Verhalten von Sonnenaktivität und Temperatur unverkennbar. Der solare Antrieb hat somit die langfristige Klimaentwicklung, den Klimawandel, in Mittel- und Westeuropa nachweislich gesteuert.
Zum besseren Vergleich mit der globalen Klimaentwicklung ist der Verlauf der solaren Aktivität seit 1857 in Abb.6 dargestellt. Wie man sieht, hat die solare Aktivität seit Beginn der globalen Klimareihe wesentlich zugenommen. Der Vergleich mit Abb.4 zeigt, dass die langfristige Zunahme der Sonnenaktivität und die globale Erwärmung synchron verlaufen sind.
Damit folgt: Der solare Antrieb hat nachweislich sowohl das regionale Klimaverhalten in Mittel- und Westeuropa (sowie in Japan und den USA –BWK-Beitrag SO 01/11) als auch die globale Klimaentwicklung als dominierender Faktor bestimmt. 
 

Anomalien von Sonnenaktivität und Temperatur seit 1680

Korrelationen zwischen zwei Größen liefern ein wichtige Information über den Zusammenhang beider Größen. Bei einem direkten Zusammenhang ist die Korrelation positiv, bei einem inversen Zusammenhang ist sie negativ. Ein Korrelationskoeffizient von Null besagt, dass kein Zusammenhang zwischen den Größen besteht. Je mehr sich der Korrelationskoeffizient dem Maximalwert +1,0 nähert, um so stärker ist der direkte Zusammenhang. Wesentliche Voraussetzung bei Korrelationsbetrachtungen ist die sinnvolle Fragestellung. Eine Korrelation von Geburtenzahl und Zahl der Klapperstörche, ein beliebtes Antibeispiel, ist schon von der Fragestellung her Unfug. Eine Fragestellung über den Zusammenhang von solarer Aktivität und Klimatemperatur ist vernünftigerweise nicht zu bestreiten.
 
Korrelationen haben allerdings den Nachteil, dass sie unanschaulich sind. Die Berechnung des Korrelationskoeffizienten basiert jedoch auf den Anomalien der zu untersuchenden Größen, also ihren Abweichungen vom Mittelwert. Diese aber lassen sich anschaulich darstellen.
In Abb.7 sind die Anomalien der mittleren Sonnenfleckenzahl für die Klimaperioden von 3 Sonnenfleckenzyklen (gleitend) wiedergegeben. Im 17. und 19. Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität unternormal (negative Werte). Im 18. und 20.Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität dagegen übernormal (positive Werte). Das heißt: Die Beobachtungen belegen den sinusartigen Wechsel von Phasen mit einer ruhigen und einer unruhigen/aktiven Sonne. Die Periodenlänge beträgt rund 200 Jahre.
In Abb.8 sind für den Zeitraum 1680-2009 die über 3 Sonnenfleckenzyklen gleitend gemittelten Abweichungen der Temperaturen von Mitteleuropa dargestellt.
 
Wie die Temperaturanomalien belegen, herrschte in Mitteleuropa im 17. und im 19.Jahrhundert eine ausgeprägte Kälteperiode (negative Werte). Hingegen waren das 18. und das 20. Jahrhundert von übernormalen Temperaturen (positive Werte), von Wärmeperioden, gekennzeichnet. Analog zum solaren Aktivitätsverhalten wird das sinusartige Temperaturverhalten mit einer Periodenlänge von rund 200 Jahren sichtbar.
 
Der Vollständigkeit halber sei auch das Temperaturverhalten von Central England seit 1680 aufgeführt. Die Temperaturanomalien weisen -durch den unmittelbaren Ozean-/Golfstromeinfluss etwas gedämpft- den gleichen langfristigen Schwingungsverlauf auf wie in Mitteleuropa, d.h. sie verlaufen grundsätzlich ebenfalls synchron zu den langfristigen Änderungen der Sonnenaktivität seit 1680.
Damit dürfte der fundamentale Zusammenhang zwischen solaren Antriebsänderungen und der Reaktion des Klimasystems der Erde seit der Kleinen Eiszeit zweifelsfrei nachgewiesen sein. Zeiten mit einer unternormalen Sonnenfleckenzahl/Sonnenaktivität führen zu Kälteperioden, Zeiten mit einer übernormalen Sonnenfleckenzahl/Sonnenaktivität sind die Ursache von Wärmeperioden.

Korrelationen

Durch die Korrelationsberechnungen werden die o.g. Zusammenhänge zwischen Sonnenaktivität und  Klimaverhalten in Maßzahlen gefasst. Gleichzeitig wird die Frage der Irrtumswahrscheinlichkeit der Aussagen, d.h. ihrer Sicherheit,  (Signifikanzniveau) geklärt.
In Abb. 10 sind die linearen Korrelationen über den Zusammenhang von Sonnenfleckenzahl und Temperatur für gleitende Klimaperioden von 3 Sonnenfleckenzyklen dargestellt, und zwar  für Mittel- und Westeuropa für den Zeitraum  1680-1823 (links) sowie ab 1857 für Mitteleuropa, Central England, global, Nord- und Südhalbkugel (rechts).
Mit Korrelationskoeffizienten bis zu +0,95 ist der Zusammenhang zwischen zunehmender Sonnenaktivität im 18.Jahrhundert und der synchronen Klimaerwärmung nach der Kleinen Eiszeit hoch-signifikant nachweisbar. Das gleiche gilt für den Zusammenhang von Dalton-Minimum und der raschen Temperaturabnahme Ende des 18./Anfang des 19.Jahrhunderts. Die Korrelation weist für die Abkühlungsphase den Maximalwert von +1,0 auf.
Für die Ursachenanalyse des Temperaturverhaltens nach 1857 ist es sinnvoll, die Korrelationen zum einen für den Zeitraum 1857-1996 und zum anderen für 1857-2009 zu berechnen. Im Zeitraum 1857-1996 folgen nach Abb.10 für den Zusammenhang von zunehmender Sonnenaktivität und langfristigem Temperaturverhalten als Korrelationskoeffizienten für Mitteleuropa +0,91, Central England +0,82, global +0,91, Nordhalbkugel +0,91 und Südhalbkugel +0,88. Damit bestätigen sich die früheren, für den Zeitraum 1860-1999 berechneten Korrelationen.
Berechnet man die Korrelationen für den Zeitraum 1857-2009, so ergibt sich nach Abb.10 folgendes Bild: Mitteleuropa  +0,83, Central England +0,78, global +0,83, Nordhalbkugel +0,84, Südhalbkugel +0,81. Das heißt: In Bezug auf die langfristige Klimaentwicklung sind die Korrelationen nach wie vor sehr hoch. Durch die Verlängerung des Zeitraums um den 23. Sonnenfleckenzyklus (1997-2009) reduzieren sich jedoch die Korrelationskoeffizienten regional wie global, und zwar  global von +0,91 auf +0,83 und in Mitteleuropa von +0,89 auf +0,83. Auffällig ist, dass im ozeanischen Central England der Rückgang nur 0,04 beträgt.

Das aktuelle Klimaverhalten

Damit erhebt sich die Frage nach der Ursache des Temperaturverhaltens im Zeitraum 1997-2009, welche den Rückgang der linearen Korrelation zwischen Sonnenfleckenzahl und Temperatur seit 1857 zur Folge hat. Bis 1996 konnte der solare Antrieb rund 80% der langfristigen Klimavarianz seit 1857 mit 99,9%-tiger Sicherheit erklären. 20% der Temperaturvariabilität waren auf andere klimarelevante Prozesse zurückzuführen. Offensichtlich hat deren Einfluss im 23. Sonnenfleckenzyklus das Temperaturverhalten maßgeblich bestimmt und die lineare Korrelation zwischen Sonnenaktivität und Temperatur verändert. Um diesen Vorgang zu analysieren, wird nachfolgend der Zusammenhang von mittlerer Temperatur und  Sonnenfleckenzahl je Sonnenfleckenzyklus, also auf der kurzen Zeitskala betrachtet. Wie im Beitrag zur BWK SO 01/11 dargelegt, wirken sich in diesem Fall neben dem permanenten solaren Antrieb verstärkt die kurzperiodischen  Klimaeinflüsse (z.B. Vulkanausbrüche und El Nino/La Nina) auf die Korrelation aus.
 
In Abb.11 sind die Korrelationen über den Zusammenhang von mittlerer Sonnenfleckenzahl und Mitteltemperatur je Sonnenfleckenzyklus ab 1857 für die Zeiträume bis 1964, 1976, 1986, 1996 und 2009 wiedergegeben. Wie sich zeigt, sind die Korrelationskoeffizienten für die Perioden bis 1996 stabil bzw. weisen noch eine steigende Tendenz auf, z.B. global von +0,67 auf +0,75. Der Einbruch der Korrelation von Globaltemperatur und Sonnenaktivität auf Werte um +0,50 erfolgt somit durch kurzfristige Prozesse erst im 23. Sonnenfleckenzyklus, also zwischen 1997 und 2009.

Die Klimagegenwart

Die Frage, welche Prozesse das Temperaturverhalten im 13-jährigen Zeitraum 1997-2009 so maßgeblich beeinflusst haben und wieso der solare Anteil  gesunken ist, wird anhand der globalen Temperaturentwicklung des 20-jährigen Zeitraums 1991-2010 untersucht.  
Abb.12 zeigt die globalen Jahresmitteltemperaturen 1991-2010 (Climate  Research Unit, UK). Deutlich ist an dem gezackten Kurvenverlauf der Einfluss hoch-frequenter Klimaprozesse zu erkennen. Besonders auffällig ist die Temperaturspitze von 1998. Seit diesem Zeitpunkt ist die globale Temperatur nicht weiter gestiegen, d.h. seit 1998 findet keine weitere globale Erwärmung mehr statt.
Wie die Regressionskurve deutlich macht, verharrt die globale Temperatur seit 1998 auf einem gleichmäßigen Niveau mit einer leicht fallenden Tendenz, die sich im La Nina-Jahr 2011 verstärken wird.
Damit gilt es zu prüfen, inwieweit der anthropogene, der solare oder der ozeanische Klimaeinfluss das plateauartige globale Temperaturverhalten zwischen 1998 und 2010 zu erklären vermag.
 

Der atmosphärische CO2-Gehalt

Nach indirekten CO2-Bestimmungen war der Kohlendioxidgehalt der Luft in der Nacheiszeit bis 1850 konstant und lag bei 280 ppm. Damit scheidet jeder CO2-Einfluss auf den Klimawandel bis 1850 von vornherein aus. Weder bei der Wärmeperiode der Römerzeit, der Kälteperiode zur Völkerwanderungszeit, der mittelalterlichen (Wikinger-)Warmzeit noch der  Kleinen Eiszeit hat der CO2-Effekt eine Rolle gespielt. Es waren somit nur natürliche Prozesse (Sonne, Ozeane, Vulkanausbrüche,…), die das Klima wiederholt nachhaltig veränderten.
Nach den obigen Korrelationsanalysen über den Zusammenhang von veränderlicher Sonnenaktivität und langfristiger Klimaentwicklung ist ebenfalls kein wesentlicher Treibhaus-/CO2-Einfluss auf den Klimawandel im Industriezeitalter zu erkennen. Der solare Effekt vermag auch bei der Erwärmung nach 1860 rund 80% des langfristigen regionalen und globalen Klimaverhaltens zu erklären.
Für den CO2-Einfluss auf den Klimawandel bleibt nur das Residuum von 20% übrig, in dem allerdings auch die langfristigen Antriebe von Ozean und globaler Eisbedeckung enthalten sind.
Damit bleibt allein noch die Frage zu klären, ob der gestiegene CO2-Gehalt der Luft das aktuelle Klimaverhalten bestimmt hat. Bedenkt man, dass von der CO2-Zunahme seit 1850 von 280 ppm auf 390 ppm im Jahr 2010 allein 45 ppm auf die 20 Jahre 1991-2010 entfallen, so wird der exponentielle CO2-Anstieg in Abb.13 verständlich. Mit diesem Anstieg müsste nach der anthropogenen Treibhaushypothese ein erheblicher Temperaturanstieg verbunden sein.
Vergleicht man nun Abb.12 und Abb.13 miteinander, so fällt zum einen auf, dass das CO2-Verhalten die kurzperiodischen Temperaturfluktuationen nicht zu erklären vermag. Der CO2-Effekt kennt physikalisch nur die Temperaturzunahme, Abkühlungen, ob kurz- oder langfristig, sind ihm wesensfremd und müssen durch natürliche, ihn überkompensierende Klimaprozesse erklärt werden. Ebensowenig vermag er sprunghafte Temperaturzunahmen zu erklären. Das gilt auch für die Temperaturspitze von 1998.
Nach 1998 steigt der CO2-Gehalt exponentiell weiter an. Die globale Temperatur hingegen geht, wie die Regressionskurve zeigt, in ein Plateau mit leicht fallender Tendenz über. Krasser kann die Divergenz zwischen aktuellem Temperatur- und CO2-Verhalten kaum sein. Damit folgt: Obwohl der CO2-Gehalt der Luft seit 1998 auf sein höchstes Niveau angestiegen ist, stagniert die globale Temperatur. Der CO2-Effekt spielt somit auch beim aktuellen Klimaverhalten  keine erkennbare Rolle.
 

Der ozeanische Einfluss von El Nino und La Nina

Die atmosphärischen Auswirkungen der periodischen Wassertemperaturänderungen im tropischen Pazifik sind bereits in mehreren Beiträgen zu BWK gezeigt worden (SO 11/09, SO 18/10). El Nino als ENSO-Warmphase und La Nina als ENSO-Kaltphase (ENSO=El Nino-Südliche Oszillation)  bestimmen wesentlich die kurzperiodischen globalen Temperaturfluktuationen. Weisen sie, wie in jüngster Vergangenheit, ein Trendverhalten auf, so können sie auch multi-dekadische Auswirkungen auf die Globaltemperatur haben. Ist (gemäß der ONI-Werte des US-Wetterdienstes) Tm die mittlere Abweichung der tropischen Pazifiktemperatur während einer El Nino-Phase vom Normalwert (Tm: positiv) bzw. einer La Nina-Phase (Tm:negativ), so kann der Wärmeeinfluss des Ozeans auf die Atmosphäre durch den thermischen Antriebsfaktor F=Tm*Mon beschrieben werden, wenn die zeitliche Dauer des jeweiligen ENSO-Ereignisses in Monaten erfasst wird.
In Abb.14 ist für jedes Jahrzehnt seit 1951 der resultierende Antrieb gemäß F(El Nino) minus F(La Nina) angegeben, also die Wärmebilanz zwischen den El Nino- und den La Nina-Phasen der Dekade.
Wie man erkennt, überwog in den 1950er Jahren der Einfluss von La Nina gegenüber dem El Nino-Einfluss auf die Atmosphäre. In der 1970er Dekade waren beide thermische Effekte gleich groß, d.h. bei der Ursachenanalyse für die Abkühlung der Nordhalbkugel in dieser Zeit kann ein ENSO-Einfluss vernachlässigt werden.
In den 1980er, den 1990er und vor allem in der Dekade 2001-2010 überwogen die Auswirkungen von El Nino jene von La Nina auf die Atmosphäre. Somit hatte  El Nino nicht nur kurzperiodisch, sondern auch multi-dekadische Auswirkung auf die globale Temperatur seit den 1980er Jahren. Insbesondere in der Dekade 2001-2010 hat El Nino das globale Temperaturniveau wesentlich beeinflusst.
 
In Abb.15 sind die Korrelationskoeffizienten über den Zusammenhang zwischen den jährlichen globalen Mitteltemperaturen und den mittleren jährlichen Anomalien der Pazifiktemperatur im El Nino-/La Nina-Gebiet wiedergegeben. Wie man erkennt, nimmt der kurzperiodische Einfluss der ENSO-Warm- und Kaltphasen auf die Globaltemperatur seit 1991 von Jahr zu Jahr zu und erreicht im Zeitraum 1999-2010 einen Korrelationskoeffizienten von +0,80, bis 2009 sogar von +0,87. Berücksichtigt man den Umstand, dass die El Nino- und die La Nina-Ereignisse jahresübergreifend sind und korreliert den thermischen Antriebsfaktor F=Tm*Mon der ENSO-Phasen mit dem wärmeren/kälteren Jahr der entsprechenden jahresübergreifenden ENSO-Phase, so ergibt sich im Zeitraum 1998-2009/10 ein Korrelationskoeffizient von über +0,95, d.h. die seit 1998 dem Temperaturplateau überlagerten Temperaturfluktuationen gehen praktisch alle auf die Auswirkungen von El Nino/La Nina zurück. 
Die Auswirkungen von El Nino auf die Atmosphäre haben somit einerseits einen maßgeblichen Beitrag zum aktuellen globalen Temperaturniveau geleistet und erklären anderseits zusammen mit den La Nina-Phasen die Pendelbewegungen der Globaltemperatur auf dem Temperaturplateau seit 1998.

Sonnenaktivität und gegenwärtiges Klimaverhalten

Um den solaren Einfluss auf den Klimawandel der letzten Dekaden einordnen zu können, ist in Abb.16 die mittlere Sonnenfleckenzahl der letzten 10 Sonnenfleckenzyklen dargestellt. Seit dem Zyklus 14 (1902-1913) ist sie von 31 auf 96 im Zyklus 19 (1955-1964) angestiegen. Synchron dazu stieg die globale Temperatur. Danach erfolgte im 20.Zyklus (1965-1976) ein Einbruch der Sonnenaktivität. Die mittlere Sonnenfleckenzahl ging um über 35% von 96 auf 59 zurück. Die Nordhalbkugel reagierte aufgrund ihres hohen Festlandanteils spontan auf den Rückgang der solaren Aktivität. In der Arktis kam es zu einem deutlichen Temperaturrückgang (R.Scherhag, BWK SO31/70), und das Nordpolareis dehnte sich im europäischen Teil so weit südwärts aus, dass die Eisbären von Grönland nach Island hätten wandern können. Noch im Frühjahr war die Dänemarkstraße zugefroren, wie die Satellitenaufnahmen zeigten. In der Klimaforschung begann man über eine bevorstehende weitere Kleine Eiszeit nachzudenken.
 
 Doch überraschend nahm im 21. Sonnenfleckenzyklus (1977-1988) die Sonnenaktivität wieder zu. Die mittlere Sonnenfleckenzahl stieg auf 83 an. Mit 78 blieb die mittlere Sonnenfleckenzahl auch im 22. Sonnenfleckenzyklus (1987-1996) auf hohem Niveau, dem dritthöchsten seit der Kleinen Eiszeit. Analog stieg auch die Temperatur der Nordhalbkugel wieder an. Die Südhalbkugel hatte auf den kurzzeitigen solaren Einbruch im 20.Zyklus aufgrund der thermischen Trägheit ihres großen Ozeananteils nicht reagiert.
Dem hohen solaren Aktivitätsniveau der Zyklen 21 und 22 folgte im 23.Sonnenfleckenzyklus (1997-2009) erneut ein Einbruch. Die mittlere Sonnenfleckenzahl ging auf 52 zurück. Wenn die globale/ nordhemisphärische Temperatur nicht unmittelbar auf die solare Aktivitätsabnahme reagiert, liegt das zum einen an der thermischen Trägheit der Ozeane. Vor allem aber wirkt sich, wie gezeigt, der gegenwärtig hohe El Nino-Einfluss auf die globale Temperatur vorübergehend stabilisierend aus.
Zusammenfassend lässt sich sagen: Nach der deutlichen Zunahme der Sonnenfleckenzahl/ Sonnenaktivität im 20.Jahrhundert ist die mittlere Sonnenfleckenzahl im 23. Zyklus auf die kritische Grenze von rund 50 gesunken. Die in diesem Grenzbereich auftretende klimawirksame solare Aktivität entspricht dem indifferenten Klimazustand zwischen einer nachhaltigen Wärme- und einer Kälteperiode (BWK SO  03/09). Das heißt: Das derzeitige Klimaverhalten auf der kurzzeitigen Klimaskala sagt nichts über die weitere langfristige Klimaentwicklung aus. Diese wird auch in Zukunft maßgeblich vom Verhalten der Sonne abhängen.

Die Klimazukunft

Die entscheidende Frage für die zukünftige Klimaentwicklung lautet: Wie verhält sich die solare Aktivität im aktuellen 24.Sonnenfleckenzyklus und den nachfolgenden Zyklen?  Nimmt die mittlere Sonnenfleckenzahl/Zyklus wieder zu, wäre nach der gegenwärtigen Stagnation der globalen Temperatur mit einem weiteren Temperaturanstieg zu rechnen. Sinkt die mittlere Sonnenfleckenzahl/Zyklus langfristig aber unter den kritischen Grenzwert von rund 50/Zyklus, so ist ein globaler Rückgang der Temperatur zu erwarten. Derzeit sprechen alle Anzeichen für eine bevorstehende Abkühlung.
So hat zum einen die NASA soeben (Feb.2011) ihre bisherige Prognose der Sonnenfleckenzahl im 24. Sonnenfleckenzyklus weiter nach unten korrigiert.

Abb.17 Sonnenfleckenzahl des 23. und Prognose des 24. Sonnenfleckenzyklus (NASA)
Wie die NASA-Prognose in Abb. 17 zeigt, wird die mittlere Sonnenfleckenzahl und damit die integrale Sonnenaktivität im aktuellen 24.Zyklus mit hoher Wahrscheinlichkeit den kritischen Grenzwert von 50 deutlich unterschreiten. Dieser Rückgang der solaren Aktivität wie die zu erwartende Abkühlung würden ferner der 200-jährigen Schwingung von Sonnenaktivität (Abb.5) und langfristiger Klimaentwicklung (Abb.2, Abb.3) entsprechen (De-Vries-Zyklus). Die von den Klimamodellen prognostizierte fortschreitende Klimaerwärmung erscheint vor diesem Hintergrund höchst unwahrscheinlich.
Dafür spricht auch die folgende Abbildung.
 
In Abb.18 ist die Abweichung der Periodenlänge der Sonnenfleckenzyklen vom 11-jährigen Mittelwert seit dem Zyklus 1646-1655 wiedergegeben. Wie man erkennt, sind positive Abweichungen von 2 bis 3 Jahren, also überlange Zyklen, selten.
Auffällig ist: Nach dem überlangen Zyklus 1621-1633 begann das Maunder Minimum, und dem Zyklus 1667-1679 folgte der letzte Höhepunkt der Kleinen Eiszeit Ende des 17. Jahrhunderts. In der Wärmeperiode des 18.Jahrhunderts fehlten überlange Zyklen. Mit den übernormalen Zykluslängen 1785-1798 bzw. 1811-1823 korrespondiert das Dalton-Minimum und damit der rapide Temperaturrückgang Ende des 18./Anfang des 19. Jahrhunderts. Die Kälteperiode um die Mitte des 19. Jahrhunderts fällt mit dem überlangen Zyklus 1844-1856 zusammen. Danach wurde bis 1996, also während der gesamten Erwärmungsphase nach 1860, kein überlanger Sonnenfleckenzyklus mehr beobachtet. Erst der Sonnenfleckenzyklus 1997-2009 weist wieder eine Überlänge wie die Zyklen im 17. und 19. Jahrhundert vor Beginn der Kälteperioden auf. Dieser Sachverhalt ist somit ein weiteres Indiz für den Übergang der Sonne von einer aktiven Phase zu einer ruhigen Sonne. Alle solaren Vorzeichen lassen daher nur den Schluss auf einen Rückgang der globalen Temperatur in naher Zukunft zu. Zu vergleichbaren Ergebnissen sind auch das russische Hauptobservatorium Pulkovo bei St.Petersburg und das US-amerikanische SSRC (Space Sciende Research Center) gekommen.

Zusammenfassende Schlussbetrachtungen

Die Analyse  des Klimaverhaltens im Zeitraum 1680-2009 bestätigt die Ergebnisse der früheren Untersuchungen. Der mehrfache Klimawandel seit der Kleinen Eiszeit wurde empirisch nachweislich primär von den langfristigen Veränderungen der Sonnenaktivität gesteuert. Mittlere Sonnenfleckenzahl und Temperatur zeigen regional wie global/ hemisphärisch auf der langfristigen Klimaskala einen synchronen Verlauf. Die Korrelationskoeffizienten über diesen (über Klimaperioden von 3 Sonnenfleckenzyklen gleitenden) Zusammenhang liegen um +0,90 bis +1,0 und sind auf dem 99,9%-Niveau signifikant, d.h. die Irrtumswahrscheinlichkeit beträgt nur 0,1%.
Dabei gilt der dominierende solare Einfluss auf den nachhaltigen Klimawandel nicht nur für die Zeit bis 1850, in der der CO2-Gehalt der Luft konstant bei 280 ppm lag und damit a priori keine Rolle beim Klimawandel spielte. Auch nach 1850 ist kein wesentlicher anthropogener CO2-/ Treibhauseinfluss auf die Klimaentwicklung  zu erkennen. Der solare Effekt vermag an der globalen wie regionalen Erwärmung von 1860 bis 1996 bei den kurzfristigen Klimafluktuationen mit ihren vielen natürlichen Einflussfaktoren   55%-60% und an dem langfristigen Temperaturanstieg rund 80% statistisch abgesichert zu erklären. Der solare Antrieb ist offensichtlich.
Seit der Kleinen Eiszeit war die mittlere Sonnenfleckenzahl/Sonnenaktivität je Zyklus niemals so hoch wie in der 2. Hälfte des 20.Jahrhunderts. Die Werte der Sonnenfleckenzyklen 19, 21 und 22 waren  viermal so hoch wie zur Kleinen Eiszeit und doppelt so hoch wie zur Zeit der Kälteperiode des 19. Jahrhunderts. Die Behauptung, der solare Effekt mache nach den Klimamodellen nur 10% bei der Erwärmung im letzten Jahrhundert aus, ist vor dem Hintergrund der Klimageschichte unlogisch und nach der empirischen Klimaanalyse durch die Realität widerlegt. Die Größenordnung dürfte eher für den anthropogenen CO2-Einfluss auf das Klima zutreffen.
Vor der Betrachtung der Klimavariabilität im Zeitraum 1997/98-2009/10 ist festzuhalten: Entscheidend für die Beurteilung des nachhaltigen Klimawandels ist das langfristige Klimaverhalten. Nicht entscheidend sind dekadische oder etwa subdekadische Klimafluktuationen, da die Prozesse auf der kurzfristigen Klimaskala nur von vorübergehender Bedeutung sind.
In dem mit 13 Jahren anormale langen 23. Sonnenfleckenzyklus (1997-2009) ist die mittlere Sonnenfleckenzahl von rund 80 der beiden Vorzyklen auf 52 zurück gegangen. Damit hat sie den kritischen Grenzwert zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und einer Kälteperiode erreicht. In dieser indifferenten solaren Übergangsphase ist derzeit auf der kurzfristigen Klimaskala ein erhöhter Einfluss kurzperiodischer Klimaprozesse festzustellen.
Seit 1998 verharrt die globale Temperatur auf einem quasi-konstanten Niveau, einem Temperaturplateau mit leicht fallender Tendenz. Die globale Temperatur führt dabei lediglich kurze und kleine Pendelbewegungen nach oben und unten aus. Dieses gegenwärtige globale Temperaturverhalten korrespondiert zum einen mit den derzeit ungewöhnlich hohen thermischen Auswirkungen von El Nino auf die Atmosphäre, wodurch die globale Temperatur stabilisiert wird. Zum anderen korrespondieren die globalen Temperaturfluktuationen mit den kurzzeitigen Wechseln zwischen El Nino- und La Nina-Phasen. Die Korrelation zwischen dem jahresübergreifenden thermischen Antriebsfaktor F=Tm*Mon der El Nino- und La Nina- Ereignisse im Zeitraum 1998-2009/10 mit der erhöhten/erniedrigten globalen Jahrestemperatur in dieser Phase liegt über +0,95. Es ist somit offenkundig der Wärmefluss des tropischen Pazifiks, der seit dem starken El Nino von 1998 bis heute die globale Temperatur auf der kurzzeitigen Klimaskala bestimmt.  
Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.  
Entscheidend für die weitere Klimaentwicklung im 21.Jahrhundert wird sein, wohin sich die solare Aktivität aus dem kritischen Grenzbereich des 23. Sonnenfleckenzyklus entwickelt. Bei einem Übergang vom kritischen Grenzwert von rund 50 zu höheren mittleren Sonnenfleckenzahlen/ Sonnenaktivität je Zyklus wäre mit einer weiteren Erwärmung zu rechnen. Ein deutliches Absinken der mittleren Sonnenfleckenzahl/Zyklus unter 50 im 24. Sonnenfleckenzyklus und den folgenden Zyklen würde zu einer Abkühlung führen.
Derzeit weisen alle Vorzeichen auf eine bevorstehende globale Abkühlung hin. Zu den Indizien zählen zum einen die 200-jährige Schwingung der Sonnenaktivität und des synchronen Klimaverhaltens sowie der mit 13 Jahren überlange 23.Sonnenfleckenzyklus. Zum anderen ist nach der aktuellen NASA-Sonnenfleckenprognose eine deutliche Unterschreitung der kritischen mittleren Sonnenfleckenzahl im 24. Sonnenfleckenzyklus bis 2020 zu erwarten.
Die durch den solaren Effekt veränderte globale atmosphärische und ozeanische Zirkulation wird, wie zu allen Zeiten, letztlich über die regionalen Auswirkungen der globalen Abkühlung entscheiden.
Zusammenfassend kann man sagen: Das gegenwärtige solare Verhalten steht nicht im Widerspruch zu seinem dominierenden langfristigen Klimaeinfluss, sondern stellt eine Ergänzung dar, indem es den Klimazustand an der kritischen Grenze der solaren Aktivität zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und Kälteperiode charakterisiert. Solange die solare Aktivität an der kritischen Grenze verharrt, wird es global weder wärmer noch kälter, d.h. die globale Temperatur strebt durch den solaren Effekt in dieser Phase ein konstantes Niveau an. Solarer Antrieb und globale Temperatur verhalten sich in ihrem Zusammenspiel daher derzeit „normal“.    

Fazit

Auch nach dieser Klimaanalyse ist der solare Einfluss auf unser Klimasystem der dominierende Antrieb des langfristigen, nachhaltigen Klimawandels. Der angeblich dominierende anthropogene CO2-/ Treibhauseffekt ist vor diesem Hintergrund eine offensichtliche Fehleinschätzung, insbesondere auch in Bezug auf seine katastrophalen Auswirkungen. Daher lautet mein Credo auch nach dieser Untersuchung: An die Stelle eines wissenschaftlich nicht konsensfähigen und daher wirtschaftlich nicht vertretbaren globalen Klimaschutzes sollte die oberste Priorität auf den weltweiten Umweltschutz gelegt werden. Saubere Luft, sauberes Wasser, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen weltweit. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu. So sollte  man auch bei der Suche nach den Ursachen des Artensterbens die Umweltsünden im Fokus haben, anstatt eine Temperaturschwankung dafür verantwortlich zu machen, die in der jüngeren Klimageschichte  von Natur aus völlig normal ist.
Prof. Dr. Horst Malberg 
zuerst erschienen in  Beiträge zur Berliner Wetterkarte
c/o Institut für Meteorologie der Freien Universität Berlin C.-H.-Becker-Weg 6-10165 Berlin 19/11  http://www.Berliner-Wetterkarte.de                                                   ISSN 0177-3984 SO 09/11                                                                                                                                                                      
Literatur
– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global  
   observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106,  
  doi:10.1029/2005JD006548 — pdf
– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf
– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate     
  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003
– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen-
  schaftsmagazin der Max-Planck-Gesellschaft (2001)
– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976
– EIKE: www.eike-klima-energie.eu
– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800.
  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904
– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-
  sity Press. 1997
– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-    
   tions over the last 150 years. Reviews of Geophysics 37, 173-199.
– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower
  Stratosphere. 1997
– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005
– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.:
  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 
– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Sub-
   tropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993)
– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:
– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 
– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02
– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO
   10/03
– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) –
   In Memoriam Prof. Richard Scherhag.
– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07
– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07
– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08
– Die unruhige Sonne und der Klimawandel. SO 20/08
– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO
   03/09
– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09
– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09
– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:
   Zukunft braucht Herkunft. SO 29/09 (2009)
– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)
– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10
   (2010)
– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)
– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO26/10 (2010)
 – Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007
– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007
– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakade-
   mie Freiberg, 2010
– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the
   troposphere: Northern winter. J. Geophys. Res., 111.2005
– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität
   Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 
– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-
   Cottbus.2007  
– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997
– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)
– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970
– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)
– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)
– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in
  Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)
– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09
– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg,
   1781–2006- Theor. Appl. Climatol. 75 (2009)
Daten:
Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.
Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.
Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.
Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK.
(www.cru.uea.ac.uk/cru/data)
Die Sonnenfleckenzahlen entstammen den Veröffentlichungen von NOAA
(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)
Die Sonnen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)
Die ONI-Daten (Oceanic Nino Index) basiern auf: ftp:/www.cpc.ncep.noaa.gov/products/analysis/




Politik mit Alternativen Energien 1:Der Mythos von der Machbarkeit großindustrieller Erneuerbarer Energie.

Erinnern wir uns an die Rhetorik von Deutschlands Grüner Kanzlerin: Angela Merkel versprach 2006 bekanntlich, in ihrem Land die Kohle- und Kernkraft durch Erneuerbare Energiequellen zu ersetzen. In der Realität hat sich Merkel aber aktiv für den Bau von 26 neuen Kohlekraftwerken eingesetzt und einen besonderen Schutz für Deutschlands Schwerindustrie mittels Vergabe von kostenfreien Emissionszertifikaten gefordert. Im Jahre 2010 hatte sie einer 12jährigen Laufzeitverlängerung für Deutschlands Kernkraftwerke das Wort geredet. Wie kam denn das?
Warnende rebellische Stimmen von Deutschlands Industrieführern wegen des Verlustes der internationalen Wettbewerbsfähigkeit könnten etwas damit zu tun haben.
Wieder Rhetorik: Im April diesen Jahres in der Folge des Fukushima-Unfalls hat sich Merkel von der Laufzeitverlängerung verabschiedet. Das opportunistische Hin- und Her-Gezappe der Grünen Kanzlerin scheint ihr einen politischen Fall-out beschert zu haben.
Rhetorik: Wer an der Grünen Arbeitsplatz-Front tätig ist, sollte sich an Präsident Obamas Warnung an die Amerikaner erinnern, als er davon sprach, dass “Länder wie Spanien, Deutschland und Japan vorne lägen.” Obama wollte 5 Millionen Grüne Arbeitsplätze schaffen und einen Herrscher über alle Grünen Arbeitsplätze einsetzen.
Realität: Eine spanische Studie von 2009 zeigte, dass für jeden geschaffenen “Grünen Job” tatsächlich 2,2 andere Arbeitsplätze vernichtet werden. Das Center for American Progress, dessen Leiter an der Spitze von Obamas Wendemannschaft stand, errechnete Kosten in Höhe von $100 Milliarden für die Regierung, um 2 Millionen Grüne Arbeitsplätze zu schaffen. Das bedeutet eine Rechnung von $50.000 für den Steuerzahler pro geschaffenem Arbeitsplatz. Im Februar diesen Jahres bestätigte ein englischer Bericht, dass die Subventionierung des Grünen Sektors mehr Arbeitsplätze vernichtet als sie schafft.
Rhetorik: Der Eurokrat Andris Pielbalgs ist ein Vorkämpfer für die Interessen der Erneuerbaren mit Behauptungen  wie: “Die Windenergie kann einen Großteil der Verschmutzung der endlichen Energiereserven beseitigen, von der wir derzeit abhängig sind.
Realität: “Demnächst werden wir die 20.000ste Windkraftanlage feiern, ohne auch nur ein einziges kleines konventionelles Kraftwerk ersetzt zu haben,“ sagte Ferdinand Fürst zu Hohenlohe-Bartenstein, Vorsitzender des deutschen Landschaftsschutzverbandes.

Kann der Wind heutige konventionelle Kraftwerke ersetzen?

Rhetorik: “Die Windenergie ist eine der vielversprechendsten Techniken der Erneuerbaren, und es ist ein Gebiet, wo es schon viele Entwicklungen und Verbesserungen zur Effektivitäts-Erhöhung der Stromerzeugung gab“, sagt die Webseite der EU-Kommission über die Erneuerbaren.
Realität: Die englische Wind Energy Association musste zugeben, dass hinter den Windkraftanlagen zu 75 % fossile Kraftwerke als Sicherheitsreserve stehen müssen. Energieversorger in England wie E.ON, sprechen sogar von über 90% fossiler Reservekraftwerkskapazität. Ein Bericht des Englischen Oberhauses von 2009 geht von einer 100%igen Sicherheitsreserve aus.
Rhetorik: In seiner Ansprache zum “Earth Day” 2009 beklagte Präsident Obama, dass nur drei Prozent der U.S. Elektrizität aus Erneuerbaren stamme, hauptsächlich aus Windkraftanlagen – Dänemark lobte er als beispielhaft; das vielzitierte dänische Alternativenergie -„Wunder“.
Realität: Aase Madsen, Sprecher für Energiepolitik im Dänischen Parlament, nennt das dänische Windprogramm “eine furchtbar teure Katastrophe.” Das mit einer Untersuchung zum dänischen Stromexport 2009 beauftragte Politik-Studienzentrum (CEPOS) fand heraus, dass die dänischen Haushalte die höchsten Strompreise in Europa bezahlten (teilweise wegen der Subventionierung der Windkraft), dass 90 Prozent der neuen Arbeitsplätze aus den anderen Erwerbszweigen stammten und nur 10 Prozent an neuen Arbeitsplätzen geschaffen wurden. Und dass das Bruttosozialprodukt einen Verlust von US $270 Millionen wegen der Windkraftsubventionen hinnehmen musste.
Obendrein: “Windturbinen reduzieren die CO2-Emissionen nicht,” sagte Flemming Niseen, Entwicklungschef der Firma West Danish Generating, Elsam.
Rhetorik: Die englische Wind-Industrie und die Regierung haben unabhängig voneinander behauptet, dass es für die Windkraft “keine direkten Finanzhilfen” gäbe.
Realität: Wind und andere Erneuerbaren sind nahezu vollständig subventioniert, aber dies wird hinter einem komplexen  Regelungswerk von Einspeisetarifen, Direktsubventionen und Steuervergünstigungen “versteckt”. (Mehr dazu in einem folgenden Teil 3 dieser Serie). Die englische Regierung hat in einem Weißbuch zur Energie 2003 zugegeben, dass “jährlich £1 Milliarde bis 2010 an die Erzeuger von Erneuerbarer Energie fließen würde”. Sir Martin Holdgate, ehemaliger Vorsitzender der British Renewable Energy Advisory Group, fasste den Beitrag der Windfarmen wie folgt zusammen: “Das Problem mit den Windfarmen ist, dass sie einen großen räumlichen Fußabdruck für eine lächerlich kleine Strommenge hinterlassen. Man braucht 800 Windräder, um mit der Erzeugung eines einzigen Kohlekraftwerks gleichzuziehen.” Der Wissenschaftsautor Dr. Matt Ridley ist überzeugt, dass fossile Primärenergieträger, nicht die Erneuerbaren, weiterhin für Jahrzehnte unsere Hauptenergiequelle darstellen werden: “Wir müssten hundert mal so viele Windfarmen bauen, wie wir derzeit haben, um nur 10 Prozent unseres Energiebedarfs aus Wind decken zu können. Und wir würden bald nicht mehr wissen, wohin damit.”
So meinte der U.S.-Abgeordnete Peter Stark zum Bau von Windfarmen:” Das sind keine Windfarmen, das sind Steuergeldfarmen.“
Dr. Howard Hayden, Professor em. der Physik, University of Connecticut, rückte die völlige Abhängigkeit von Erneuerbaren ins rechte Licht:

“Mit der entsprechenden Subventionierung kann der Wind eine wertvolle Energiequelle werden. Und mit der entsprechenden Subventionierung könnte Benzin völlig kostenfrei sein, und 2-karätige Diamanten könnten in Cornflakes-Schachteln verteilt werden. Wie kommt es denn, dass der Wind schon seit 4.000 Jahren nur einen so geringen Anteil an der Energieversorgung hat? Könnte es nicht sein – ironisch gefragt  – dass die Antwort etwas mit der Physik und nicht mit Wirtschaft und Politik zu tun hat!“

Der international renommierte Energie- und Klimaexperte Dr. Richard Courtney stellte die Sache anschaulicher dar:

“Der Traum von einer neuen Zeit, in der die Welt von Windfarmen bewegt wird, bleibt ein Traum, weil die Gesetze der Physik so etwas in einer industrialisierten Welt nicht erlauben. Wenn die Windkraft wirtschaftlich wäre, wären die Öltanker Segelschiffe.”

Rhetorik: Trotz all dieser harten Fakten über das Versagen der Erneuerbaren Energien vor den Gesetzen der Physik und der Wirtschaft hat das UNO-IPCC seinen jüngsten Bericht  zur Lage der Entwicklung der Erneuerbaren Energien im Mai 2011 veröffentlicht. Schon in der Überschrift steht die IPCC-Behauptung:

“Bis zu 80 Prozent des Weltenergiebedarfs könnten von den Erneuerbaren gedeckt bis zur Mitte des Jahrhunderts gedeckt werden, wenn die richtigen Politik dahinter steht.”

Realität: Herzliche Willkommen auf dem Planeten UNIPCC. Mit der “richtigen Politik” könnten wir ja auch alle mal in Richard Bransons Virgin-Galaxis-Space-Shuttle mitfliegen. Dale Allen Pfeiffer, ein Autor über Photovoltaik, widerlegte mit mathematischen Rechnungen die solare Science Fiktion:

“Die U.S.A. würden 17 Prozent der gesamten Oberfläche der Erde benötigen, oder 59 Prozent der festen Oberfläche der Erde, um mit Sonnenenergie ihren täglichen Ölverbrauch zu ersetzen.”

Die vielleicht ultimative Ironie für die politischen Grünhöker ist, dass die gleichen energieintensiven Industrien, die sie für die hohen CO2-Emissionen verantwortlich machen, genau diejenigen sind, die von der massiven öffentlichen Großzügigkeit in Form von Subventionen für das „Saubermachen“ am meisten profitieren. Nach einem kürzlichen Bericht  planen General Electric und Total derzeit, sich am Rennen um solare Entwicklungsprojekte zu beteiligen. Politische Macht und die großen Ölkonzerne, eingeschlossen E.ON, RWE und Shell rufen nach “starker und rascher” Verminderung des CO2. Nicht zu vergessen ist auch das plötzliche „Ergrünen“ der globalen Investment Banker – genau derjenigen, die sich in London im Oktober 2008 trafen, um darüber zu sprechen, wie sie am besten Profit aus dem lukrativen CO2-Zertifikatehandel schlagen könnten.
Die Europäische Investitionsbank errechnete 2007 eine Betrag von 1,1 Tausend Milliarden Euro Kosten für 14 Jahre, um die Pläne zum Übergang auf die Erneuerbaren umzusetzen. Der gesamte EU-Haushalt damals betrug 100 Milliarden Euro. Als sie gefragt wurde, wer das bezahlen sollte, antwortete die damalige EU-Ratspräsidentin Angela Merkel in einem unbedachten Moment von Offenheit: „Um alles in der Welt, das kann ich Ihnen nicht sagen.“ Steuerzahler, hütet Euch vor Politikern, die nicht rechnen wollen!
Die vorausschauende Grabinschrift für die Erneuerbaren vom Umweltwissenschaftler Dr. John Etherington: „Geld für Diejenigen gedruckt, die es nicht verdienten, mit Billigung und Hilfe der Unbedarften“ mag ja rhetorisch sein, aber es ist doch wahr. Wie wir schon an anderer Stelle gesagt haben, „Wer nicht rechnen will, ist zum Dummschwätzen verurteilt“.
So ist es immer schon gewesen, im Leben, wie in der Politik.
von: Peter C Glover & Michael J. Economides 
Juni 2011
Der Originalartikel erschien am 3.6.11 in der Energy Tribune sie finden ihn hier
Die Übersetzung besorgte Helmut Jäger EIKE




Die Erde selbst sagt uns, dass nichts Besorgniserregendes bei einer Verdoppelung oder sogar Vervierfachung des atmosphärischen CO2-Gehaltes zu erwarten ist

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Zusammenfassung von Prof. C.O.. Weiss: Der Autor zeigt leitet aus den offiziellen globalen Erdtemperaturdaten erstmals direkt die Sensitivität des Klimas für steigende atmosphärische CO2-Konzentrationen ab. Er findet eine Erdtemperaturerhöhung von 0,45 Grad für Verdopplung des atmosphärischen CO2 Gehaltes, wie sie bis 2100 eintreten könnte. Damit ergibt sich ein konsistentes Bild der Erderwärmung durch CO2, die sich als durchaus harmlos erweist.

 Der Autor zeigt zunächst, dass sich die Erdtemperatur durch eine langsame zeitliche Zunahme, kombiniert mit einer Oszillation, sehr genau darstellen lässt. Er zeigt, dass die Oszillation auf bekannte ozeanische Oszillationen zurückzuführen ist. Zieht man diese ab, so verbleibt der Trend der langsamen Zunahme. Der Vergleich der Trendwerte für die Zeit ohne nennenswerte CO2 Emissionen mit denen nach 1960 (starke CO2 Emissionen) ergibt die Klimasensitivität für CO2 (plus der anderen Treibhausgase).

Gegenüber diesem Ergebnis sowie den  kürzlichen genauen Voraussagen ist der mittlere Wert, der „offiziell“ vom IPCC  angegeben wird, etwa 9 mal größer.

Man mag sich erinnern, dass die Voraussagen des IPCC bisher auf reinen Modellrechnungen beruhen, in denen sich die großen und angeblich gefährlichen Temperaturerhöhungen nur ergeben, da eine sehr starke positive Rückkopplung durch Wasserdampf WILLKÜRLICH ANGENOMMEN wird, die niemals durch Messungen belegt wurde.

Pat Frank

In meinem jüngsten Beitrag “New Science of Climate Change” auf Jeffs tAV war die Kosinusanpassung an Differenzen zwischen den verschiedenen Datensätzen der bodennahen globalen Temperaturanomalien (von GISS) faszinierend. Also beschloss ich, mal zu schauen, was uns die Kosinusfunktionen über die Trends der Temperaturanomalien selbst sagen können. Es stellte sich heraus, dass sie eine Menge enthüllen.

Regelmäßige Leser von tAV wissen), dass ich über die erstaunliche Vernachlässigung der Instrumentenfehler in den gegenwärtigen Aufzeichnungen der Lufttemperatur berichtet habe. Es scheint sicher zu sein, dass die Daten der Lufttemperatur an der Erdoberfläche so mit systematischen Fehlern verseucht sind – mindestens ± 0,5°C – dass die Anomalietrends der globalen Temperatur keinerlei klimatologische Bedeutung haben. Ich habe in dieser Richtung weiter gearbeitet und, obwohl die Analyse unvollständig ist, sieht es bis jetzt so aus, als ob systematische Instrumentenfehler noch schwerwiegender sind , als wir dachten. Aber das ist eine andere Geschichte.

Systematische Fehler sind lustige Dinge. Bei der Lufttemperatur ist er nicht notwendigerweise eine konstante Abweichung, sondern ein variabler Fehler. Das bedeutet, dass er nicht einfach das Mittel eines Datensatzes verschiebt, sondern dass er auch zu einer asymmetrischen Verteilung der Daten führt. Systematische Fehler dieser Art in einer Temperaturmessreihe können einen zeitlichen Trend verstärken oder abschwächen oder ihn auch in unvorhersagbarer Weise zwischen diesen beiden Polen hin- und her springen lassen. Da der systematische Fehler durch Auswirkungen des Wetters auf die Temperaturfühler verursacht wird, wird er fortwährend mit dem Wetter variieren. Die mittlere fehlerhafte Verschiebung wird für jeden Datensatz unterschiedlich sein, ebenso wie die Verteilung des systematischen Fehlers.

Für jetzt möchte ich jedoch all dies beiseite stellen und mit einer Analyse fortfahren, die die Betrachtung der Temperatur so akzeptiert, wie sie im Baseballstadion des IPCC zu finden ist. Das heißt, für diese Analyse nehme ich mal an, dass die Anomalietrends der offiziellen globalen mittleren Temperatur real und bedeutsam sind.

Ich verfüge über die jährlichen Datensätze der Temperaturanomalien von GISS und CRU bis 2010. Um die Analysen vergleichbar zu machen, benutzte ich die Startzeit von GISS im Jahr 1880. Abbildung 1 zeigt, was passiert, wenn ich  diese Daten mit einer Kombination von einer Kosinusfunktion und einem linearen Trend anpasse. Beide Datensätze lassen sich in dieser Weise gut anpassen.

Die nicht angepassten Reste sind unter diesen Plots dargestellt. Eine lineare Anpassung der Restkurve verläuft genau entlang der Nulllinie, etwa 1 zu 10^5.  Dies zeigt, dass beide Sätze der Anomaliedaten sehr gut durch eine kosinusartige Oszillation plus einem ansteigenden linearen Trend dargestellt werden. Die linearen Anteile dieser angepassten Trends sind: GISS 0,057°C pro Dekade und CRU 0,058°C pro Dekade.

Abbildung 1: Trends für die jährlichen Temperaturanomalien, und zwar zusammen mit einer Kombination aus einer Kosinusfunktion und einem linearen Trend. Darunter: die Restdaten (Daten minus fit). Die farbigen Linien entlang der Nullachse sind lineare Fits zu den betreffenden Restwerten.  Diese zeigen, dass die Restwerte keinem allgemeinen Trend folgen. Teil a: GISS, Teil b: CRU-Daten

Wenn man die Oszillationen aus den globalen Anomalietrends entfernt, sollten nur die linearen Anteile der Trends übrig bleiben. Wie sieht das aus? Abbildung 2 zeigt die in den Datensätzen von CRU und GISS verbleibenden linearen Trends nach Subtraktion des Kosinus. Die reinen Kosinusfunktionen stehen unter jedem Plot.

Jeder der Plots, der den linearisierten Trend zeigt, enthält auch zwei gerade Linien. Eine davon ist die  Kosinuslinie plus die linearen Fits aus Abbildung 1. Die andere gerade Linie ist eine lineare Anpassung mittels Minimierung der Abweichungsquarate an die linearisierten Trends. Die linearen Fits haben Trends von: 0,058°C/Dekade bei GISS, 0,058°C/Dekade bei CRU, was auch  identisch sein kann mit der Steigung der Linien in Abbildung 1.

Die Abbildungen 1 und 2 zeigen, dass mit einem hohen Grad an Sicherheit und unabhängig von der Temperaturvariabilität von Jahr zu Jahr der gesamte Trend der globalen Lufttemperatur seit 1880 durch einen linearen Trend plus einer Oszillation erklärt werden kann.

Abbildung 3 zeigt, dass der GISS-Kosinus und der CRU-Kosinus sehr ähnlich sind – wahrscheinlich identisch, wenn man die Qualität der Daten berücksichtigt. Sie zeigen eine Periode von etwa 60 Jahren und eine Amplitude von etwa ±0,1°C. Diese Oszillationen sind ganz klar verantwortlich für die blockierenden, ins Auge fallenden Änderungen der Steigung in den Anomalietrends nach 1915 und nach 1975.

Abbildung 2: oben: Der lineare Anteil der Anomalietrends der jährlichen Mitteltemperatur, sich ergebend aus der Subtraktion der angepassten Kosinusfunktionen vom Gesamttrend. Die zwei geraden Linien in jedem Plot sind: OLS-Fits an die linearen Trends und die linearen Anteile aus Abbildung 1. Die beiden Linien liegen decken sich. Unten: die voneinander subtrahierten Kosinusfunktionen.

Die Datensätze der Lufttemperatur enthalten die Temperatur auf dem Land plus die SSTs [Obeflächentemperatur der Ozeane]. Es erscheint vernünftig, dass die von den Kosinusfunktionen repräsentierten Oszillationen von einem Erwärmungs-Abkühlungszyklus der Ozeane der Welt stammen.

Abbildung 3: Vergleich der angepassten Kosinusfunktionen von GISS und CRU.

Die größeren ozeanischen Zyklen schließen die PDO, die AMO und die Oszillation des Indischen Ozeans ein. Joe D’Aleo hat diese anschaulich zusammengefasst hier (pdf-Download).

Die Kombination aus PDO und AMO ist grob eine  Oszillation mit einer Periode von etwa 55 Jahren, mit einem Maximum im 20. Jahrhundert um 1937 und einem Minimum um 1972 (Abbildung 11 bei D’Aleo). Die Kombination der Ozeanzyklen scheint nahe einem weiteren Maximum um 2002 gewesen zu sein, (obwohl sich die PDO nach Süden  bewegt hat).  Periode und Phase von PDO + AMO entsprechen sehr gut  den angepassten Kosinusfunktionen von GISS und CRU, und so scheint es, als hätten wir einen Temperaturfußabdruck der Ozeane in den Datensätzen der Temperaturanomalien gefunden.

In dem Beitrag in „New Science” sahen wir das Auftauchen einer schwachen Oszillation in den GISS-Daten der Anomaliedifferenzen nach 1999 nach Hinzufügen der SSTs. Vor und bis 1999 enthielten diese Daten nur die Temperaturwerte des Festlands.

Also untersuchte ich die Temperaturanomaliedaten von GISS 1999, um zu sehen, ob sie ebenfalls durch eine kosinusartige Oszillation plus einem linearen Trend repräsentiert werden konnten. Und sie konnten! Die Oszillation hatte eine Periode von 63 Jahren und eine Amplitude von ±0,1°C/. Der lineare Trend betrug 0,047°C/Dekade; also so ziemlich die gleiche Oszillation, aber mit einem geringeren Erwärmungstrend von 0,1°C/Dekade. Es sieht also so aus, als stünde die thermische Oszillation der Ozeane mit der globalen Temperatur an Land in einem Zusammenhang.

Aber das ist nicht die Analyse, die mich interessierte. Abbildung 2 scheint zu zeigen, dass der gesamte Zeitraum von 130 Jahren zwischen 1880 und 2010 einen stetigen Erwärmungstrend von etwa 0,058°C/Dekade aufweist. Dies erklärt offenbar den fast unaufhaltsam-stetigen [almost rock-steady] Anstieg des Meeresspiegels im 20. Jahrhundert.

Das Argument ist immer  gewesen, dass das Klima der ersten 40 bis 50 Jahre des 20. Jahrhundert nicht durch anthropogene Treibhausgase beeinflusst worden war. Nach 1960 oder so ungefähr, mit Sicherheit aber nach 1975, kam der Treibhausgaseffekt ins Spiel, und der Erwärmungstrend der globalen Lufttemperatur begann einen menschlichen Einfluss zu zeigen. So lautet die gängige Geschichte.

Ist diese Behauptung nicht widerlegt, wenn sich das späte 20.Jahrhundert mit der gleichen Rate erwärmt hat wie das frühe 20. Jahrhundert? Dies scheint die Aussage der Abbildung 2 zu sein.

Aber die Analyse kann noch weiter ausgeführt werden. Die frühen und späten Trends der Temperaturanomalie können separat abgeschätzt und dann verglichen werden. Das ist in Abbildung 4 dargestellt, erneut unter Verwendung der Datensätze von CRU und GISS. In  jedem Datensatz habe ich die Anomalien von 1880 bis 1940 und von 1960 bis 2010 angepasst. In dem Beitrag in  New Science of Climate Change habe ich gezeigt, dass diese linearen Anpassungen erheblich durch die Wahl des Startpunktes verzerrt werden können. Das Anomalieprofil von 1960 ist ähnlich dem Profil 1880, und folglich weisen diese beiden Startpunkte keine offensichtliche fehlerhafte Verschiebung auf.  Visuell scheint die Steigung der Anomalietemperatur nach 1960 ziemlich gleichmäßig zu verlaufen, vor allem im Datensatz von GISS.

Abbildung 4 zeigt die Ergebnisse dieser getrennten Anpassungen, die den linearen Erwärmungstrend zu Anfang und gegen Ende der letzten 130 Jahre ergeben.

Abbildung 4: Die aus Abbildung 2 linearisierten Trends der Anomalien nach GISS und CRU mit den separaten OLS-Anpassungen für die Zeiträume von 1880 bis 1940 und 1960 bis 2010.

Die Ergebnisse der Anpassungen der frühen und späten Anomalietrends zeigt Tabelle 1.

Tabelle 1: Zehnjährige Erwärmungsraten für die frühe und die späte Periode

Datensatz

C/d (1880-1940)

C/d (1960-2010)

(spät minus früh)

GISS

0.056

0.087

0.031

CRU

0.044

0.073

0.029

 „C/d” ist die Steigung der angepassten Linien in Grad Celsius pro Dekade.

Also, da haben wir es! Beide Datensätze zeigen, dass es sich in der späten Periode schneller erwärmte als in der früheren Periode. Obwohl die Raten zwischen GISS und CRU um 12% differieren, sind die Änderungen (Spalte 3) identisch.

Wenn wir das IPCC/AGW global warming – Denkmodell akzeptieren und die "klimatologische Sauberkeit" des frühen 20. Jahrhunderts voraussetzen, beträgt die mittlere Rate der Temperaturerholung aus der kleinen Eiszeit (LIA) etwa 0,05°C pro Dekade. Um hier weiterzukommen, müssen wir annehmen, dass diese natürliche Rate von 0,05°C/Dekade unverändert für die gesamten 130 Jahre bis 2010 geblieben ist.

Wenn wir das annehmen, dann ist die Zunahme der Steigung um 0,03°C/Dekade nach 1960 auf die schädlichen Einflüsse der unnatürlichen und unsauberen anthropogenen Treibhausgase zurückzuführen.

Wenn wir all dem zustimmen, haben wir jetzt ein Werkzeug zur Hand, um die  klimatologisch am schwersten fassbare Größe zu betrachten: die „Klimasensitivität“ der Treibhausgase.

Ich habe immer noch all die Daten für die atmosphärischen Antriebe für CO2, Methan und Stickoxide, die ich für meinen Beitrag http://www.skeptic.com/reading_room/a-climate-of-belief/ berechnet habe [auf Deutsch bei EIKE hier]. Zusammen bilden diese den Löwenanteil des neuen Antriebs durch Treibhausgase seit 1880. Die gesamten Chlorfluorkohlenwasserstoffe bringen einen Beitrag von weiteren 10% oder so, aber das ist kein großer Einfluss, so dass diese ignoriert werden können.

Alles, was wir jetzt noch tun müssen ist, den progressiven Trend des jüngsten Antriebs durch die Treibhausgase gegen den unheilvollen offensichtlichen anthropogenen Trend von 0,03°C/Dekade aufzutragen, alles im Zeitraum von 1960 bis 2010, und die Steigung zeigt uns die Klimasensitivität in ° C/(W-m^-2). Diesen Plot zeigt Abbildung 5.

Abbildung 5: Blaue Linie: die „überschüssige“ Erwärmung von 1960 bis 2010 um 0,03°C/Dekade, aufgetragen gegen den Antriebstrend der Treibhausgase durch die  zunehmenden Anteile von CO2, CH4 und N2O. Rote Linie: die linearen OLS-Anpassungen zur Antriebs-Temperaturkurve (r^2=0.991). Eingefügt: die gleichen Linien bis zum Jahr 2010 extrapoliert.

Da gibt es eine Überraschung: Die Trendlinie ist gekrümmt. Mehr dazu später. Die rote Linie in Abbildung 5 ist eine lineare Anpassung an die blaue Linie. Sie ergibt eine Steigung von 0.090 C/W-m^-2.

Also, hier haben wir es: jedes Watt pro Quadratmeter durch zusätzliche Treibhausgase hat die globale mittlere Temperatur während der letzten 50 Jahre um 0,09°C zunehmen lassen.

Verkünden Sie dies: Die Klimasensitivität der Erde beträgt 0.090 C/W-m^-2!

Das IPCC sagt, dass der verstärkte Antrieb durch den verdoppelten CO2-Gehalt**, das Flaggschiff des Klimaalarms, bei etwa 3.8 W/m^2 liegt. Die daraus folgende Zunahme der globalen mittleren Temperatur wird im Mittel mit 3 Grad Celsius angegeben. Also sagt das IPCC offiziell, dass die Klimasensitivität der Erde bei 0.79 C/W-m^-2 liegt. Das ist 8,8 mal größer als der Wert, den uns die Messungen der Temperatur der Erde sagen.

Unsere aus Messungen gewonnene Sensitivität sagt, dass die Verdoppelung des CO2**  zu einem mittleren Temperaturanstieg von 0,34°C zusätzlich zu jeder natürlichen Zunahme führt. Dieser Wert ist 4,4 bis 13 mal kleiner als die vom IPCC allein auf Grund theoretischer Annahmen, von verschiedenen Modellen vorausgesagte projizierte  Spannbreite.

Der gesamte Antrieb durch Verdoppelung des CO2** plus projizierte Zunahmen von atmosphärischem Methan und Stickoxid beträgt 5 W/m^2. Nach unseren Ergebnissen wird dies zu einer mittleren Temperaturzunahme von 0,45°C führen. Dies ist in etwa der Temperaturanstieg, wie wir ihn seit 1980 sehen. Finden Sie das wirklich beängstigend?

Aber zurück zu der negativen Krümmung des Plots der Sensitivität. Es wird allgemein angenommen, dass die Änderung der Lufttemperatur mit dem Antrieb linear ist. Aber hier sehen wir, dass die Änderung der Temperatur durch den Antrieb seit 50 Jahren negativ gekrümmt worden ist. Etwas passiert hier.

Nach Ansicht der AGW Verfechter müssen die Daten falsch (oder „nicht zuverlässig“) sein, denn nur ihre Modelle können recht haben!

Aber nach meiner eigenen wissenschaftlichen Gewohnheit (und der Gewohnheit von jedem, den ich kenne) sind die Daten die Grundlage der Theorie und nicht umgekehrt. Kevin [Trenberth], Michael [Mann] und Gavin [Schmidt] können mich dafür kritisieren, weil Klimatologie anders und einheitlich und Ravetzian ist, aber ich richte mich in jedem Falle nach den grundlegenden Standards der Wissenschaft.

Also, was bedeutet die negative Krümmung? Falls sie wirklich existiert, heißt das. Sie bedeutet, dass die Sensitivität des Klimas auf den Antrieb durch Treibhausgase abgenommen hat, und zwar während der ganzen Zeit, in der der Antrieb durch die Treibhausgase selbst zugenommen hat.

Wenn ich es nicht besser wüsste, würde ich sagen, dass es im Klimasystem irgend etwas gibt, das sich an den Antrieb durch Treibhausgase anpasst. Es führt ein zunehmend negatives Feedback ein. Der Einfluss wird also als Funktion der CO2-Konzentration kleiner*. Es liegt also eine Abweichung vom linearen Modell vor. Woher diese Abweichung kommt, bleibt offen.

Mit anderen Worten, das Klima zeigt Stabilität trotz Störungseinflüssen. Da die Störungseinflüsse zunehmen, nimmt auch die negative Kompensation durch das Klima zu.

Nehmen wir an, die letzten 50 Jahre deuten darauf hin, wie das Klimasystem auf die nächsten 100 Jahre zunehmenden Antriebs durch Treibhausgase reagiert.

Der Einschub in Abbildung 5 zeigt, wie das Klima auf einen stetig zunehmenden Antrieb durch Treibhausgase bis zum Jahr 2100 antwortet. Das ergibt sich aus einer Vervierfachung des atmosphärischen CO2-Gehaltes.

Die rote Linie zeigt die projizierte Temperaturzunahme, falls das linear angepasste Modell mit 0,03°C/Dekade zutrifft. Alternativ zeigt die blaue Linie, wie die globale Lufttemperatur darauf reagieren könnte, falls der empirisch negative Feedback stimmt.

Wenn das Klima weiter so reagiert, wie es das bis jetzt getan hat, wird die Temperaturzunahme bis zum Jahr 2100 ganze 50% geringer ausfallen, als wenn das lineare Antwortmodell richtig wäre. Und das lineare Antwortmodell erzeugt eine viel kleinere Temperaturzunahme als das IPCC-Klimamodell, umm, Modell.

Semi-empirisches lineares Modell: 0,84°C wärmer bis zum Jahr 2100.

Voll empirisches Modell mit negativem Feedback: 0,42°C wärmer bis 2100.

Und das mit einem zusätzlichen Antrieb durch Treibhausgase in Höhe von 10 W/m^2 und einem atmosphärischen CO2-Gehalt von 1274 ppmv. Zum Vergleich: das IPCC-A2-Modell hat im Jahr 2100 einen atmosphärischen CO2-Gehalt von 1250 ppmv und eine Zunahme der globalen Mitteltemperatur um 3,6°C simuliert. 

Also fügen wir hinzu: Offizielles IPCC-A2-Modell: 3,6°C wärmer im Jahr 2100.

Das semi-empirische Modell allein, empirisch durch 50 Jahre aktueller Daten belegt, sagt, dass die Temperatur nur um 0,23 K des IPCC-A2-Modells von 3,6°C zugenommen hat.

Und falls wir das empirische negative Feedback, das uns die Erde zeigt, berücksichtigen, wird die Temperaturzunahme bis 2100 nur 0,12 der IPCC-Projektion betragen.

Also liegt hier eine nette Lektion für das IPCC und die AGW-Modellierer über GCM-Projektionen vor: Ihnen widersprechen die Daten der Erde selbst. Damit nicht genug, die Erde hat der gleichen Crew schon einmal widersprochen.

Ist das nun alles physikalisch real? Lassen Sie es mich so ausdrücken: Alles das ist begründet durch echte Temperaturdaten. Zumindest dieses macht diese Analyse physikalisch viel realer als jede Rekonstruktion der Paläotemperaturen, die Baumringen oder  anderen Komponenten eine Temperatur zuordnet.

Da jedoch den globalen Temperaturwerten systematische Fehler in unbekannter Größe anhaften, wissen wir nicht, ob irgendetwas hiervon physikalisch real ist.

Aber wir können dieses jedem sagen, der den Aufzeichnungen der globalen mittleren Temperatur physische Realität beimisst, oder jedem, der darauf besteht, dass die Aufzeichnung der Anomalien klimatologisch bedeutsam ist: Die Bodentemperatur selbst sagt, dass das Klima der Erde nur eine sehr geringe Sensitivität für Treibhausgase aufweist.

Die grundlegende Hypothese für diese Analyse, nämlich dass das Klima im frühen 20. Jahrhundert frei von menschlichen Einflüssen war, ist in der AGW-Literatur Allgemeingut. Die zweite Hypothese, dass der natürliche hintergründige Erwärmungstrend sich während der zweiten Hälfte der letzten 130 Jahre fortsetzte, ist ebenfalls sinnvoll unter der Voraussetzung der typischen Ansichten über eine konstante natürliche Variabilität. Der Rest dieser Analyse folgt daraus automatisch.

Im Zusammenhang mit dem ureigenen Ballpark des IPCC sagt uns die Erde selbst, dass wir bei einer Verdoppelung**, ja selbst bei einer Vervierfachung** des atmosphärischen CO2-Gehaltes nichts zu befürchten haben.

Übersetzt von Chris Frey für EIKE unter Mithilfe von Prof. Carl Otto Weiss (ehem. Direktor der Physikalisch-technischen Bundesanstalt Hannover)

Pat Frank

Den Originalbeitrag finden Sie hier

Update 9.6.11:

Der bekannte Klimaforscher Sherwood Idso veröffentlichte schon 1998 unter dem Titel "CO2-induced global warming: a skeptic’s view of potential climate change" ein Papier, dass zu ähnlichen Ergebnissen kommt. Sie finden es als pdf im Anahng

 

*Kommentar von C.O. Weiss:

Das Ergebnis von Pat Frank  entspricht genau (!) der Berechnung von Harde (hier) und Lord Monckton. Diese Übereinstimmung ist für sich schon ein sehr wichtiges Ergebnis.

** Hinweis der Redaktion

Es wird im Text mehrfach auf die Verdopplung der CO2 Konzentration als Basis für die Kiimasensitivität CS abgestellt. Wie Prof. Werner Weber (Uni Dortmund) jüngst in seinem Vortrag bei dem EIKE undefinedPIK Kolloqium aufzeigte kann sich die Konzentration von CO2 aufgrund von physikochemischen Gleichgewichtsprozessen bei sonst gleichen Umständen nur auf ca. max 500 ppm erhöhen.

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Related Files




Die Wahrheit über die Treibhausgase: Die dubiose Wissenschaft der Klimakreuzfahrer

Ich bin ein starker Befürworter einer sauberen Umwelt. Wir müssen aufpassen, dass wir Land, Luft und Gewässer frei von echten Verschmutzungen halten, von Schwebstoffen, Schwermetallen und Krankheitserregern, aber Kohlendioxid gehört nicht zu diesen Verschmutzern. Kohlenstoff ist die Basis des Lebens. Unsere Körper bestehen aus Kohlenstoff. Ein normaler Mensch atmet rund 1 kg CO2 aus (das einfachste chemisch stabile Molekül von Kohlenstoff in der Erdatmosphäre) pro Tag. Vor der industriellen Periode lag die Konzentration von CO2 in der Atmosphäre bei 270 ppm. Gegenwärtig beträgt diese Konzentration etwa 390 ppm, 0,039 Prozent aller atmosphärischen Moleküle und weniger als 1 Prozent in unserem Atem. Es gibt geologische Beweise , dass vor fünfzig Millionen Jahren, einem kurzen Moment in der langen Geschichte des Lebens auf der Erde, das CO2-Niveau bei mehreren Tausend ppm gelegen hatte, also viel höher als heute. Und das Leben blühte in Hülle und Fülle.
Jetzt möchte die Environmental Protection Agency EPA [die us-amerikanische Umweltbehörde] das atmosphärische CO2 als “Verschmutzer” behandeln. Nach meinem neuen Lexikon Webster’s New Collegiate Dictionary heisst verschmutzen “unsauber machen, besudeln, entweihen“. Verschmutzen wir die Luft durch unser Atmen, besudeln oder entweihen wir sie? Es werden Anstrengungen unternommen, die altmodische, restriktive Definition von Verschmutzung neu zu fassen. Der jüngste Eintrag bei Wikipedia zum Stichwort Verschmutzung stellt jetzt fest, dass Verschmutzung beinhaltet: „Kohlendioxid (CO2) – ein farb- und geruchsloses, ungiftiges Treibhausgas, das mir der Versauerung der Ozeane in Verbindung gebracht wird, und das von Quellen wie Verbrennung, Zementherstellung und Atmung stammt“.
Soweit es Grünpflanzen betrifft, ist CO2 kein Verschmutzer, sondern Teil ihres täglichen Brotes – genauso wie Wasser, Sonnenlicht Stickstoff und andere essentiell notwendigen Elemente. Die meisten Pflanzen entwickelten sich unter einem CO2-Niveau von vielen Tausend ppm, einem viel höheren Niveau als heute. Bei einem höheren CO2-Niveau wachsen die Pflanzen besser, blühen stärker und tragen viel mehr Früchte. Kommerzielle Treibhausbetreiber tragen diesem Umstand Rechnung, wenn sie die CO2-Konzentrationen in ihren Treibhäusern künstlich erhöhen, und zwar auf über 1000 ppm.
Wallis Simpson, die Frau, deretwegen König Edward VIII auf den Britischen Thron verzichtet hatte, soll gesagt haben: „Eine Frau kann nicht zu reich oder zu dünn sein“. Aber in Wirklichkeit kann man des Guten zu viel oder zu wenig haben. Ob wir über das zunehmende CO2-Niveau froh oder besorgt sein sollten, hängt von quantitativen Zahlen, nicht von qualitativen Überlegungen ab.
Wie nah liegt die Atmosphäre gegenwärtig an der höchsten oder tiefsten Grenze für den Gehalt an CO2? Hatten wir gerade beim vorindustriellen Niveau von 270 ppm die richtige Konzentration? Beim Lesen atemloser Medienberichte über die „Verschmutzung“ mit CO2 und darüber, unseren Kohlenstoff-Fußabdruck zu minimieren, könnte man denken, dass die Erde gar nicht wenig genug CO2 haben kann, so wie Simpson dachte, dass man nicht zu dünn sein könne – eine Sichtweise, die auch übertrieben worden ist und die wir an den schlimmen Auswirkungen von Magersucht bei so vielen jungen Frauen gesehen haben. Verschiedene Methoden des Geo-Engeneering werden erörtert, um das CO2 aus der Luft zu entfernen und die Atmosphäre von diesem „Verschmutzer“ zu reinigen. Es gibt keine Untergrenze für die Anzahl der Menschen, wohl aber für das menschliche Leben. Wir würden uns in einer Welt mit wenig oder gar keinem CO2 bester Gesundheit erfreuen – außer dass wir nichts zu essen und zu trinken haben und unter einigen anderen kleinen Unbequemlichkeiten leiden würden, weil die meisten Pflanzen bei einem CO2-Niveau unter 150 ppm ihr Wachstum einstellen. Wenn wir weiterhin durch die Produkte grüner Pflanzen gefüttert und bekleidet werden wollen, kann es ein zu niedriges Niveau von CO2 geben.
Das Minimum von CO2 für das Pflanzenwachstum liegt nicht viel unter dem vorindustriellen Niveau von 270 ppm. Es ist möglich, dass wir mit unserem heutigen Niveau besser dran sind, und dass wir mit einem noch höheren Gehalt noch besser dran wären. Es gibt Beweise, dass die Orangenhaine in Kalifornien heute einen um 30% höheren Ertrag liefern, verglichen mit dem Ertrag vor 150 Jahren, nur wegen der Zunahme des CO2-Gehaltes.
Obwohl es Menschen und Tieren auch ganz ohne CO2 in der Luft sehr gut gehen würde, gibt es ein oberes Limit, das wir noch aushalten können. Das Einatmen von Luft mit einer Konzentration von wenigen Prozent, ähnlich der Luft, die wir ausatmen, verhindert den diffusen Austausch von CO2 zwischen Blut und Gas in der Lunge.  Sowohl die Navy der USA (für Besatzungen von U-Booten) als auch die NASA (für Astronauten) haben extensive Studien zur menschlichen Toleranz von CO2 durchgeführt. Als Ergebnis dieser Studien verlangt die Navy ein oberes Limit von 8000 ppm für Kreuzfahrten von neunzig Tagen, die NASA ein solches von 5000 ppm für Missionen von eintausend Tagen, beides unter einem Druck von einer Atmosphäre. Höhere Limits lassen sich nur auf Missionen von wenigen Tagen aushalten.
Wir schließen daraus, dass das CO2-Niveau über 150 ppm, um Schäden an den Pflanzen zu vermeiden, und unter etwa 5000 ppm liegen sollte, um Schäden für die Menschen zu vermeiden. Das ist eine sehr große Spannbreite, und in unserer Atmosphäre liegen wir viel dichter am unteren als am oberen Limit. Die gegenwärtige Rate der Verbrennung fossiler Treibstoffe fügt pro Jahr etwa 2 ppm hinzu, so dass es vom gegenwärtigen Level 300 Jahre dauern würde, um 1000 ppm zu erreichen – und diese 1000 ppm liegen immer noch unter dem, was die Pflanzen bevorzugen würden, und immer noch weit unter den Levels von Navy und NASA in Bezug auf die Menschen.
Und doch gibt es die schrillen Schreie, den weiteren Anstieg des CO2-Gehaltes in der Atmosphäre zu unterbinden und das gegenwärtige Level zu reduzieren. Wie wir gesehen haben, würde kein Tier eine Verdoppelung des CO2-Gehaltes bemerken, und die Pflanzen würden es lieben. Der vermeintliche Grund, das CO2 zu limitieren, besteht darin, die globale Erwärmung zu stoppen – oder, da die vorhergesagte Erwärmung nicht einmal annähernd das von den Computermodellen simulierte Niveau erreicht hat, die Klimaänderung zu stoppen. Die Klimaänderung selbst verlief bisher vollkommen ereignislos, und darum wird jetzt ein anderer Knüppel aus dem Sack geholt, warum das CO2 reduziert werden muss: um die hypothetische Zunahme extremer Wetterereignisse wie Hurrikane oder Tornados zu verhindern. Aber dies geschieht nicht zwangsläufig. Die Häufigkeit extremer Vorgänge hat sich entweder nicht verändert oder während der letzten 150 Jahre abgenommen, als das CO2-Niveau sich von 270 auf 390 ppm erhöht hat.
Lassen Sie mich jetzt ein paar Probleme ansprechen, die der Nichtverschmutzer CO2 angeblich verursachen soll. Mehr CO2 soll zu Überflutungen von Städten, ausgedörrten Kulturlandschaften, tropischen Krankheiten in Alaska usw., ja selbst zu einer Epidemie von Nierensteinen führen. Es führt tatsächlich zu einer gewissen Erwärmung unseres Planeten, und wir sollten dafür sehr dankbar sein, denn ohne die erwärmende Wirkung von CO2 und seinen noch potenteren Partnern, Wasserdampf und Wolken, würde es auf der Erde viel zu kalt für die gegenwärtige Vielfalt des Lebens sein.
Außerdem heißt es, dass mehr CO2 mehr Erwärmung bringen soll. Die Frage ist, wie viel Erwärmung, und ob der höhere CO2-Gehalt und die damit verbundene Erwärmung gut oder schlecht für den Planeten ist.
Die Auseinandersetzung fängt etwa so an. Das CO2-Niveau hat sich von etwa 280 ppm während der letzten 150 Jahre oder so auf 390 ppm erhöht, und auf der Erde ist es etwa 0,8°C in dieser Zeit wärmer geworden. Also hat das CO2 diese Erwärmung verursacht. Aber Korrelation bedeutet nicht Kausalität. Hähne krähen jeden Morgen bei Sonnenaufgang, aber das bedeutet nicht, dass der Hahn die Sonne zum Aufgehen bringt. Die Sonne wird auch dann noch aufgehen, wenn Sie beschließen, den Hahn am Sonntag zum Mittag zu verspeisen.
Es gab in der Vergangenheit viele Erwärmungen und Abkühlungen ohne jede Änderung des CO2-Gehaltes. Ein sehr bekanntes Beispiel ist die Warmperiode des Mittelalters um das Jahr 1000, als die Wikinger Grönland besiedelten (als es grün war) und England Wein exportierte. Dieser Warmperiode folgte die „kleine Eiszeit“, während der die Themse häufig im Winter zugefroren war. Es gibt keinen Beweis für eine signifikante Zunahme des CO2-Gehaltes während der mittelalterlichen Warmzeit, noch für eine signifikante Abnahme während der nachfolgenden kleinen Eiszeit. Dokumentierte Hungersnöte mit Millionen Toten traten während der kleinen Eiszeit auf, weil das kalte Wetter die Ernte vernichtet hatte. Seit dem Ende der kleinen Eiszeit hat sich die Erde wieder erwärmt, und die menschliche Lebensqualität hat sich in der Folge wieder verbessert.
Ein seltener Fall guter Korrelation zwischen dem CO2-Gehalt und der Temperatur findet sich in Eisbohrkernen, in denen sich Zyklen glazialer und interglazialer Perioden seit Millionen von Jahren oder so spiegeln. Aber diese Aufzeichnungen belegen, dass eine Temperaturänderung den Änderungen des CO2-Gehaltes voraus gegangen war, so dass diese Änderungen eine Folge von Änderungen der Temperatur waren. Ursache hierfür war möglicherweise die Entgasung aus den sich erwärmenden Ozeanen und umgekehrt, wenn es sich wieder abkühlte.
Die jüngsten kontinentalen Eisschilde begannen vor rund zwanzigtausend Jahren zu schmelzen. Während des „Younger Dryas“ vor etwa 12 000 Jahren kühlte sich die Erde erst dramatisch ab und erwärmte sich anschließend wieder, mit einer Rate bis zu 10°C innerhalb von fünfzig Jahren.
Das Klima der Erde hat sich immer verändert. Die gegenwärtige globale Erwärmung ist überhaupt nicht ungewöhnlich vor dem Hintergrund der geologischen Vergangenheit, und möglicherweise profitiert die Biosphäre davon. Tatsächlich gibt es nur eine sehr schwache Korrelation zwischen dem geschätzten CO2-Gehalt und der Temperatur während der letzten 550 Millionen Jahre (dem „Phänozoikum“). Es müssen viele Faktoren zusammenkommen, um den Temperaturverlauf der Erdatmosphäre zu beeinflussen, und während das CO2 eines dieser Faktoren ist, so ist es nur selten der dominante Faktor.  Die anderen Faktoren sind noch nicht so gut verstanden. Plausible Kandidaten hierfür sind spontane Variationen des komplizierten Geflechtes der Strömungen in der Luft und in den Ozeanen – vielleicht beeinflusst durch die Kontinentaldrift, Vulkane, Variationen der Orbitalparameter, Einflüsse von Asteroiden und Kometen, Variationen der Solarstrahlung (nicht nur die sichtbare Strahlung, sondern auch die Menge ultravioletten Lichtes sowie der Sonnenwind mit seinem Magnetfeld), Variationen der kosmischen Strahlung mit Veränderungen der Wolkenbedeckung und andere Gründe.
Die Existenz der kleinen Eiszeit und der mittelalterlichen Warmzeit waren für das Establishment der globalen Erwärmung ein Ärgernis, weil sie zeigen, dass die gegenwärtige Erwärmung von früheren Erwärmungen und Abkühlungen, die nichts mit dem Verbrennen fossiler Treibstoffe zu tun haben, gar nicht zu unterscheiden ist. Die mit der wissenschaftlichen Unterstützung für den Klimakreuzzug beauftragte Organisation, das IPCC, fand schließlich eine Lösung. Sie schrieben kurzerhand die Klimageschichte der letzten 1000 Jahre einfach um und produzierten den gefeierten „Hockeyschläger“.
Im ersten Bericht des IPCC, veröffentlicht im Jahr 1990, tauchten sowohl die mittelalterliche Warmzeit als auch die kleine Eiszeit klar auf.  Im Bericht aus dem Jahr 2001 erschien dann eine Graphik mit dem angeblichen Verlauf der globalen Mitteltemperatur seit dem Jahr 1000. Eine noch extremere Version des Hockeyschlägers brachte es bis auf die Titelseite des Fünfzigsten Jahresberichtes der Weltorganisation für Meteorologie (WMO). Überraschend für jeden, die von den starken und eindeutigen Beweisen für die kleine Eiszeit und das mittelalterliche Klimaoptimum hatten, zeigte der Graph eine nahezu konstante Temperatur vom Jahr 1000 bis zu einem Zeitpunkt vor etwa 150 Jahren. Danach hatte die Temperatur begonnen, abrupt zu steigen gemäß der Form eines Hockeyschlägers. Dazu wurde behauptet, Ursache hierfür sei der anthropogene „Verschmutzer“ CO2.
Diese Ansammlung (damnatia memoriae) unbequemer Fakten wurde aus dem IPCC-Bericht des Jahres 2001 kurzerhand einfach eliminiert, genauso wie Trotzki und Yezhov aus Bildern mit Stalin heraus retuschiert worden waren während der späteren Jahre der Herrschaft des Diktators. Es gab keine Erklärung dafür, warum sowohl die mittelalterliche Warmzeit als auch die kleine Eiszeit, die im Bericht von 1990 noch klar ersichtlich waren, elf Jahre später einfach verschwunden waren.
Das IPCC und seine gläubigen Unterstützer taten ihr Bestes, um die Temperaturkurve des Hockeyschlägers zu fördern. Aber wie John Adams bemerkte: „Fakten sind blöde Dinge! Was immer unsere Wünsche, unsere Neigungen oder die Vorgaben unserer Leidenschaften sein mögen, sie können den Status von Tatsachen und Beweisen nicht verändern!“ Der Hockeyschläger erregte die Aufmerksamkeit von zwei Kanadiern, Steve McIntyre, ein Minenberater, und ein akademischer Statistiker, Ross McKittrick. Als sie begannen, sich sorgfältiger mit den Originaldaten zu befassen – viele davon aus Baumringen – und mit der Analyse, die zum Hockeyschläger führten, wunderten sie sich immer mehr. Durch harte, bemerkenswert detaillierte und ununterbrochene Arbeit mehrere Jahre lang, beständig frustriert, Originaldaten und Analysemethoden zu bekommen, zeigten sie, dass der Hockeyschläger von den beobachteten Daten nicht gestützt wurde. Eine ausgezeichnete Beschreibung hierzu vor kurzem ist A. W. Montforts Buch The Hockey Stick Illusion.
Um die Zeit der Klimakonferenz in Kopenhagen im Herbst 2009 kam es zu einem anderen, für das Establishment der globalen Erwärmung katastrophalen Ereignis. Von einem russischen Server tauchte eine große Zahl von e-mails und anderer Dateien von den Computern der Climate Research Unit (CRU) der University of East Anglia im Internet auf. Darunter befanden sich e-mails zwischen Mitgliedern der Machtstruktur des Klimakreuzzuges, genannt „das Team“. Diese Dateien waren, oder sollten es zumindest sein, sehr ärgerlich für ihre Absender und die Empfänger. Ein Hauptwissenschaftler der CRU schrieb beispielsweise:  „P.s., ich werde von ein paar Leuten bedrängt, die Temperaturdaten der CRU freizugeben. Keiner von euch drei soll irgendjemandem erzählen, dass es in UK einen „Freedom of Information Act“ FOIA [etwa: ein Gesetz, dass die Veröffentlichung wissenschaftlicher Daten vorschreibt] hat!“
Ein traditioneller Weg zur wissenschaftlichen Integrität ist die wissenschaftliche Begutachtung, eine anonyme Prüfung einer wissenschaftlichen Studie durch qualifizierte, miteinander in Wettbewerb stehende Wissenschaftler vor der Veröffentlichung. Bei einer verantwortungsbewussten Begutachtung kann von den Autoren verlangt werden, eine substantielle Überarbeitung vorzunehmen, um irgendwelche Irrtümer in der Wissenschaft oder der Methodik zu korrigieren, bevor die Studie veröffentlicht wird. Aber die wissenschaftliche Begutachtung hat in der Klimawissenschaft vollständig versagt. Die Alarmisten der globalen Erwärmung haben so etwas wie die Lufthoheit von Ghaddafi über zerlumpte Gegner in Libyen.
Betrachten Sie diesen Kommentar von einem der am höchsten angesehenen Führer des IPCC, wie er in den CRU-e-mails enthüllt worden ist: „Ich denke, dass wir die Zeitschrift Climate Research nicht mehr als legitimes, wissenschaftlich begutachtetes Journal ansehen dürfen. Vielleicht sollten wir unsere Kollegen in der Gemeinschaft der Klimaforscher ermutigen, an dieses Journal keine Studien mehr zu senden, und Studien, die in diesem Journal erscheinen, nicht mehr zu erwähnen“.  Wissenschaftliche Begutachtung in der Klimawissenschaft bedeutet, dass das „Team“ die Veröffentlichung der jeweils anderen für sich verlangt und dafür sorgt, dass jede Studie mit abweichendem Inhalt nicht zur Veröffentlichung zugelassen wird.
James Madison erinnert uns in The Federalist Papers, dass “es niemandem erlaubt ist, in seinem eigenen Fall als Richter aufzutreten, weil sein Interesse mit Sicherheit seine Beurteilung verzerren würde und, nicht unmöglich, seine Integrität korrumpieren könnte. Aus dem gleichen Grunde, nein aus höheren Gründen ist eine Gemeinschaft von Männern nicht in der Lage, Richter und Partei gleichzeitig zu sein“.  Madison fährt fort, je kleiner die Gemeinschaft ist, umso wahrscheinlicher ist es, dass Partei und Richter ein und derselbe sind.
Lassen Sie mich zusammenfassen, wie sich die Schlüsselpunkte für mich darstellen, einem arbeitenden Wissenschaftler mit einem besseren Hintergrund als die meisten in der Klimaphysik. CO2 ist wirklich ein Treibhausgas, und gleichermaßen sorgt der Eintrag in die Atmosphäre durch Verbrennung von Kohle, Öl und Erdgas für eine moderate Erwärmung der Erde. Eine Verdoppelung des CO2-Gehaltes von gegenwärtig 390 ppm auf 780 ppm würde direkt eine Erwärmung von etwa 1°C bringen. Bei der gegenwärtigen Rate des Eintrags von CO2 – etwa 2 ppm pro Jahr – würde es etwa 195 Jahre dauern, diese Verdoppelung zu erreichen. Die Kombination einer etwas wärmeren Erde und mehr CO2 würde die Produktion von Nahrungsmitteln, Holz und anderen Produkten grüner Pflanzen deutlich erhöhen. Daher würde die Zunahme gut für unseren Planeten sein und irgendwelche negativen Auswirkungen weit überkompensieren. Vermeintliche Kalamitäten wie ein beschleunigter Anstieg des Meeresspiegels, die Versauerung der Ozeane, extremeres Klima und tropische Krankheiten in der Nähe der Pole und so weiter sind grobe Übertreibungen.
 „Entschärfung” [mitigation] und die vorgeschlagenen Kontrollanstrengungen werden einige Wenige mit guten politischen Verbindungen bereichern – auf Kosten der großen Mehrheit der Menschheit, einschließlich der Armen und den Einwohnern von Entwicklungsländern. Dabei werden diese Anstrengungen kaum Einfluss auf die Temperatur der Erde haben. Das jüngste Experiment in Spanien mit grüner Energie vernichtete viele zuvor existierende Arbeitsplätze für jeden grünen Arbeitsplatz, der geschaffen worden ist, und brachte das Land an den Rand des Bankrotts.
Die beängstigenden Warnungen der Alarmisten hinsichtlich der Auswirkungen einer Verdoppelung des CO2-Gehaltes basieren auf Computermodellrechnungen mit der Hypothese, dass der direkte Erwärmungseffekt des CO2 durch einen riesigen „Feedback-Faktor“ multipliziert wird, und zwar hervorgerufen durch CO2-bedingte Veränderungen des Wasserdampfgehaltes und der Wolken, die möglicherweise viel mehr zur Erderwärmung beitragen als CO2. Aber es gibt inzwischen Beweise aufgrund von Beobachtungen, dass dieser Feedback-Faktor klein ist und sogar negativ sein könnte. Die Modellrechnungen stimmen nicht mit den Beobachtungen überein – selbst wenn es so scheint, als bildeten sie den Temperaturanstieg der letzten 150 Jahre ziemlich gut ab.
Tatsächlich wurden die Computerprogramme zur Berechnung von Modellen zur Klimaänderung „frisiert“, damit sie das gewünschte Ergebnis bringen. Die Werte verschiedener Parameter wie Wolken und der Konzentration von anthropogenen Aerosolen wurden justiert, um möglichst zu den Beobachtungen zu passen. Und – vielleicht teilweise deswegen – sie haben bei der Vorhersage des zukünftigen Klimas versagt, selbst in so kurzen Zeiträumen wie fünfzehn Jahren. Tatsächlich sind die wirklichen Werte der meisten Parameter und die Physik, mit der sie das Erdklima beeinflussen, nur vage bekannt, zu vage, um die für Computervorhersagen erforderliche Genauigkeit zu besitzen. Nach meiner Ansicht und der vieler anderer Wissenschaftler, die mit der Materie vertraut sind, besteht das Hauptproblem in der Simulation der Bewölkung, deren Änderungen möglicherweise einen viel größeren Einfluss auf die Temperatur der Erde haben als sich verändernde Anteile von CO2.
Neben der Verzerrung hin zu einem bestimmten Ergebnis, was stimmt nicht an der Wissenschaft? Wissenschaftlicher Fortschritt besteht aus der Wechselwirkung zwischen Theorie und Beobachtung.  Die Theorie erklärt die Beobachtungen und macht Aussagen darüber, was man in der Zukunft beobachten wird. Beobachtungen sichern unser Verstehen ab und verwerfen Theorien, die nicht funktionieren. Dies war die wissenschaftliche Methode für über dreihundert Jahre. In jüngster Zeit hat die Entwicklung der Computer einen anderen Zweig der Untersuchung ermöglicht: Computersimulationsmodelle. Wenn man diese sauber anwendet, können die Computermodelle den wissenschaftlichen Fortschritt vertiefen und beschleunigen. Aber sie sind nicht dazu da, Theorie und Beobachtung zu ersetzen oder als Autorität ihrer selbst zu dienen. Wir wissen, dass sie im Bereich der Wirtschaft scheitern. Alle ins Spiel gebrachten Kontrollen, die eine solche signifikante Auswirkung auf die zukünftige Weltwirtschaft haben, basieren auf Computermodellen, die so komplex und chaotisch sind, dass man viele Rechenläufe braucht, bis man eine „mittlere“ Antwort erhält.  Und doch haben die Modelle schon bei dem einfachen wissenschaftlichen Test der Vorhersage versagt. Wir haben ja nicht einmal eine Theorie, wie akkurat die Modelle überhaupt sein sollten.
Es gibt viele ehrliche, hart arbeitende Klimawissenschaftler, die versuchen, die Auswirkungen des CO2 auf das Klima zu verstehen, aber ihre Arbeit wird derzeit infolge des Hockeyschläger-Skandals und vieler anderer Übertreibungen über die Gefahren des zunehmenden CO2-Gehaltes schief angesehen. Was hat die Klimawissenschaft von einer normalen wissenschaftlichen Disziplin in eine so hoch umstrittene Kontroverse verwandelt?
Ein Hauptproblem war die Einwirkung von Politik, Ehrgeiz, Geldgier und das, was man ein menschliches Grundbedürfnis für einen rechtschaffenen Grund nennt, auf die Klimawissenschaft. Welchen besseren Anlass gibt es, um den Planeten zu retten? Besonders wenn man gleichzeitig eine üppige, sichere Finanzierung erhalten kann? Riesige Summen Geldes werden von Regierungen und reichen Institutionen für Klimainstitute und klimabezogene Forschungen zur Verfügung gestellt.
Die Finanzierung von Klimastudien liegt an zweiter Stelle hinter der Förderung der biologischen Wissenschaften. Große akademische Imperien, Preise, Berufungen in ehrwürdige Gesellschaften, Mitgliedschaften und andere Vergünstigungen gehen an jene Forscher, deren Ergebnisse helfen könnten, den „Planeten zu retten“. Jeden Tag lesen wir von einigen echten oder erfundenen Umwelt- oder ökologischen Effekten, die „nachweislich“ durch die globale Erwärmung verursacht werden. Die Summe dieser vermeintlichen Effekte geht mittlerweile in die Hunderte, und sie sollen allesamt das Ergebnis einer ein Jahrhundert langen Erwärmung von weniger als 1°C sein. Subventionen von Regierungen, Kreditbürgschaften und befangene Kunden wechseln zu grünen Firmen. Einkünfte aus Kohlenstoffsteuern fließen an Regierungen. Wie es der große russische Dichter Puschkin in seiner Novelle Dubrovsky ausdrückte: „Falls es irgendwo einen Futtertrog gibt, werden auch Schweine da sein“. Jeder Zweifel an apokalyptischen Klimaszenarien kann viele dieser Tröge entfernen.
Was ist mit jenen, die die wissenschaftliche Basis dieser Behauptungen anzweifeln, oder die einfach angewidert sind, was der wissenschaftlichen Methodik hier angetan wird, die sie gelernt haben? Veröffentlichungen von gegenteiligen Forschungsergebnissen in den Mainstream-Journalen sind selten. Der gelegentliche ketzerische Artikel ist das Ergebnis eines unvermeidlichen, langwierigen Kampfes mit jenen, die das Dogma stützen und die ihre Hände im Spiel beim Prozess der wissenschaftlichen Begutachtung haben.  Wie oben schon erwähnt, wissen wir aus den Klimagate-e-mails, dass das Team konspirativ verhindert hat, dass gegenteilige Studien an das Tageslicht gelangen und dass man sogar darüber gesprochen hatte, einen Redakteur loszuwerden, der im Verdacht stand, solch umstrittenes Material zuzulassen.
Die Motive der Skeptiker werden öffentlich angefochten; verunglimpfte Namen werden in den Medien und der Blogosphäre routinemäßig genannt; und jetzt beobachten wir auch Taktiken, wie sie auch Big Brother dem skeptischen Helden Winston Smith in Orwells 1984 angedeihen ließ. Im Jahre 2009 wurde an der University of West England eine Konferenz von „Ökopsychologen“ abgehalten, bei der es um die offensichtlichen psychologischen Probleme jener ging, die dem Dogma der globalen Erwärmung nicht folgen. Die Prämisse dieser Psychologen war, dass Wissenschafter und Mitglieder der allgemeinen Bevölkerung, die ihren objektiven Zweifeln an der propagierten globalen Erwärmung Ausdruck verliehen hatten, unter einer Art Geisteskrankheit litten. Wir wissen von den sowjetischen Experimenten, dass eine Gesellschaft sehr leicht davon überzeugt werden kann, dass Dissidenten mental abartig sind und entsprechend handeln.
Die Verwaltungen der meisten wissenschaftlichen Gesellschaften sind mit Begeisterung auf den Zug der globalen Erwärmung aufgesprungen. Dies ist keine Überraschung, da Regierungen ebenso wie viele Staaten und Stiftungen generös jene fördern, die die gewünschten Ergebnisse unter dem Motto der Rettung des Planeten liefern. Gewisse private Firmen stecken auch unter dieser Decke: jene nämlich, die davon profitieren, dass Finanzinstitute hoch in „grüne Technologien“ investieren, was in dem Moment, in dem die globale Erwärmung verbreitet als ein Nicht-Problem erkannt wird, hinfällig wäre. Es gibt bekannte Verbindungen und Volksbewegungen, die in die Regierungspolitik, in wissenschaftliche Gesellschaften und die private Industrie verwickelt sind, alle mit dem gemeinsamen Ziel, Programme und Investitionen zu beeinflussen, die unter der vermeintlichen Bedrohung durch die globale Erwärmung stehen.
Meine eigene Gesellschaft, die Amerikanische Physikalische Gesellschaft (APS) ist ein gutes Beispiel, aber sicher nicht das Schlimmste. Ein Statement des Vorstands der APS, veröffentlicht am 18. November 2007, lautet: „Der Beweis ist unwiderlegbar: die Globale Erwärmung findet statt. Falls keine abschwächenden Maßnahmen ergriffen werden, wird es zu signifikanten Störungen in den physikalischen und ökologischen Systemen der Erde, in sozialen Systemen, in der Sicherheit und der menschlichen Gesundheit kommen. Wir müssen ab sofort die Emissionen von Treibhausgasen reduzieren“. Dies ist ziemlich starker Tobak für Physiker, für die der Skeptizismus einst als Tugend galt, und nichts war unwiderlegbar.
Im Herbst 2009 wurde dem Management der APS eine Petition des Mitglieds Roger Cohen übergeben, die die Unterschriften hunderter angesehener APS-Mitglieder trug. Darin forderten die Unterzeichner, dass zumindest das Wort „unwiderlegbar“ aus dem Statement herausgestrichen werden sollte. Die Antwort des APS-Managements bestand darin, die Unterzeichner zu bedrohen und widerwillig ein Komitee ins Leben zu rufen, dass über diese Forderung beraten sollte. Es war genau das, wovor James Madison gewarnt hatte. Das Komitee umfasste Mitglieder, deren Karrieren stark vom Alarmismus der globalen Erwärmung abhingen, und das vorhersehbare Ergebnis war, dass kein einziges Wort geändert wurde. So schlimm diese Aktivitäten der APS waren, so waren sie doch immer noch besser als das der meisten anderen wissenschaftlichen Gesellschaften, die es abgelehnt hatten, extreme Aussagen zum Klima auch nur zu überdenken.
Die Lage ist für die allgemeine Öffentlichkeit sogar noch beklagenswerter, wird sie doch mit einem konstanten Strom von Propaganda gefüttert, und zwar durch Umweltspezialisten der Mainstream-Medien und großzügig unterstützten Alarmistenblogs. Nicht unähnlich den Funktionären des Orwell’schen Wahrheitsministeriums mit seinem Motto „Ignoranz ist Stärke“, treiben viele Mitglieder der Umweltmedien pflichtbewusst und unkritisch den Klimakreuzzug voran.
Allerdings bessert sich die Lage allmählich. Die Skeptiker werden immer zahlreicher und sind besser organisiert als vorher.  In einigen wenigen Fällen haben sich einige führende frühere Anhänger öffentlich und mutig gegen das Dogma ausgesprochen. Das IPCC selbst ist ernsthaft durch das internationale wissenschaftliche Establishment in die Kritik geraten wegen einer ganzen Reihe bizarrer Irrtümer und organisatorischer Fehlschläge. Unter dem Druck einer Gruppe von Dissidenten unter den Mitgliedern hat sich die Royal Society genötigt gesehen, ihre ursprünglich radikale Position zur globalen Erwärmung deutlich zu mäßigen. Und vielleicht am wichtigsten, der öffentliche Skeptizismus hat signifikant zugenommen. Er ging einher mit einem wesentlichen Rückgang der Unterstützung für den Versuch des Klimakreuzzuges, die Kontrolle über den „Verschmutzer“, CO2, zu erlangen.
Ich habe eingangs ein Zitat aus dem Vorwort der ersten Ausgabe von Mackays Extraordinary Popular Delusions and the Madness of Crowds gebracht, und es ist angebracht, jetzt ein Zitat aus dem Vorwort der zweiten Ausgabe folgen zu lassen: „Leute, das ist gut gesagt, denkt an Herden; man wird sehen, dass die Herden verrückt werden, wohingegen die Rückbesinnung nur langsam und bei jedem Einzelnen Stück für Stück vonstatten geht“.
In unseren Bemühungen, die erschaffene Welt zu konservieren, sollten wir unsere Anstrengungen jetzt nicht auf das CO2 konzentrieren. Statt dessen sollten Gegebenheiten wie die Schädigung von Landschaften und Wasserwegen durch Tagebau, unangemessene Beseitigung der Schäden, die Gefahren für die Minenarbeiter und die Freisetzung echter Verschmutzer und Gifte wie Quecksilber, andere Schwermetalle und organische Krebserreger in den Mittelpunkt rücken. Viele der potentiellen Schäden durch den Abbau von Kohle können verhindert werden, beispielsweise durch Vorschriften, dass die Landschaft wieder so oder gar noch besser hergestellt wird wie zu Beginn des Abbaus.
Das Leben besteht aus Entscheidungen, und Entscheidungen können ausgetauscht werden. Wir können wählen, entweder Technologien zu fördern, die unsere realen Probleme angehen, und in wissenschaftliche Forschung zu investieren, die uns effizienter mit bestehenden Problemen umgehen lassen kann. Oder wir können einem Kreuzzug verhaftet bleiben, der danach trachtet, den Energieverbrauch, ökonomisches Wachstum und die Wohltaten zu unterdrücken, die sich aus der Schaffung nationalen Wohlstands ergeben.
William Happer ist der Cyrus Fogg Brackett Professor of Physics an der Princeton University.
Link: http://www.firstthings.com/article/2011/05/the-truth-about-greenhouse-gases
Übersetzt von Chris Frey für EIKE




Wann wird die Wissenschaft endlich die globale Abkühlung Ernst nehmen?

Bild rechts: Die Wintertemperatur in den USA während der letzten Dekade. Es zeigt sich ein Abkühlungstrend von 4,13°F (? 2°C) pro Dekade. Hier klicken, um das Bild zu vergrößern.
Die kommende Abkühlung vorherzusagen ist ziemlich geradlinig. Es gab zahllose Erwärmungs- und Abkühlungsperioden in der Erdgeschichte, die vollständig mit natürlichen solaren, ozeanischen und atmosphärischen Zyklen im Zusammenhang stehen.
Die 60-jährige Atlantische Multidekadische Oszillation (AMO) tritt nun in ihre Kaltphase ein. Zwischen 1968 und 1972 wurde geschätzt, dass die AMO die Temperatur auf der Nordhemisphäre um 0,3°C zurückgehen lassen würde.
Die Nordatlantische Oszillation (NAO), ein atmosphärisches Phänomen, das die Temperaturen auf der Nordhemisphäre beeinflusst, hat gerade begonnen, in ihre 30 Jahre lange Abkühlungsphase einzutreten.
Der wichtigste Einfluss auf die globale Temperatur, nämlich die Sonne, scheint in eine ausgedehnte Periode geringer Aktivität von Sonnenflecken zu kommen. Während die genaue Wirkungsweise noch diskutiert wird, ist die Korrelation zwischen den solaren Fleckenzyklen und der globalen Temperatur bestens dokumentiert.
Der vorige solare Zyklus 23 war 12,6 Jahre lang, viel länger als das historische Mittel von 11 Jahren. Besonders langen solaren Zyklen folgen häufig kühlere Perioden. Zusammen mit dem solaren Zyklus 24, welches sein Maximum bereits nach nur 2,5 Jahren Aktivität erreicht haben könnte, scheint es so, als wiederholten sich die Verhältnisse wie zu Beginn des Dalton Minimums von 1790 bis 1830. In dieser Zeit waren in Europa eine Anzahl besonders langer und kalter Winter sowie nur kurze und armselige Wachstumsphasen aufgetreten.
Wir befinden uns inmitten eines Zusammentreffens von 3 wesentlichen solaren, ozeanischen und atmosphärischen Zyklen, die alle in die gleiche Richtung weisen, nämlich globale Abkühlung. Im vergangenen Jahr war in der Südhemisphäre der kälteste Winter seit 50 Jahren aufgetreten, und in Europa erlebte man zwei besonders kalte Winter hintereinander. Und der Abkühlungstrend hat gerade erst begonnen. Die Wahrscheinlichkeit des erneuten Auftretens eines „Jahres ohne Sommer“ 1816 oder „Der Große Frost von 1709“ nimmt mit jedem Tag zu.
Mit Milliarden Menschen mehr als jemals zuvor, die satt werden wollen, wird eine Massenhungersnot im Falle großräumiger Ernteausfälle zu einer sehr realen Möglichkeit. Alle moderne Technologie der Welt kann eine Stangenbohne nicht zum Wachsen bringen, wenn die Erde steif gefroren ist.
Obwohl eine Katastrophe der Welt ins Gesicht sieht, bleiben viel zu viele Klimawissenschaftler einer intoleranten, anti-menschlichen Politik verhaftet, um dagegen sinnvoll vorzugehen. In einer Zeit, in der sie die Warnsirenen betätigen sollten, um die Gesellschaft auf mögliche Nahrungs- und Energieengpässe vorzubereiten, bestehen sie höchst erstaunlich darauf, dass ein nicht signifikantes Molekül (CO2) stärker dafür verantwortlich sein soll, die Erde zu erwärmen, als die Sonne.
Fred Dardick ist der Besitzer und Operator einer Firma zur Herstellung medizinischer Ausrüstung mit Sitz in Chicago. Bevor er zum Geschäftsmann wurde, arbeitete er als biologischer Forscher an der Northwestern University und The University of Chicago. Er hat einen BS- und MS-Grad in Biologie und betreibt einen Blog unter www.conservativespotlight.com.
Link: http://icecap.us/index.php/go/joes-blog/when_will_science_get_serious_about_global_cooling/
Übersetzt von Chris Frey für EIKE