Gletscherrückgang in den Alpen – Außergewöhnliche Bedrohung oder natürliche Schwankung?

Wer kennt sie nicht, die Meldungen und Hiobsbotschaften über die alpinen Gletscherrückgänge, wodurch ganze Ökosysteme vom Untergang bedroht wären, die Wasserversorgung von abertausenden von Menschen in Frage gestellt wird und dem Touristikzweig der Wirtschaft, den Garaus machen würde. Meist wird als Vergleich des Gletscherrückgangs die Gletscherausdehnung von 1850, oder 1970 herangezogen (wenn, wie bei den Himalaya-Gletschern traurige Gewissheit wurde, nicht gänzlich schlampig gearbeitet wird). Dies nicht ohne Grund. 1850 lag am Ende der kältesten Epoche der letzten 2.000 Jahre, die in der Wissenschaft unter dem Namen “Kleine Eiszeit“ bekannt ist. Sie begann im 15. Jahrhundert und dauerte bis zur Mitte des 19. Jahrhunderts. Für unser kulturelles Leben hat sie eine Vielzahl von Highlights in der Dichtung (Fallersleben), Malerei (Bruegel) und Musik hervorgebracht. So verdankt die Außergewöhnlichkeit der Stradivarigeige der “Kleinen Eiszeit“ ihre Existenz. Aufgrund der kalten Jahreszeiten hatte das Holz eine andere Wachstumscharakteristik, was ihm andere Eigenschaften verlieh und den Musikinstrumenten ihre Einzigartigkeit gab. Da heute dieses Holz nicht mehr in der gleichen Art wächst, lässt sich eine Stradivarigeige auch nicht nachbauen.

Die Abbildung 1 zeigt exemplarisch zwei Gemälde, in denen die Künstler die Kleine Eiszeit festhielten.

 

„Winterlandschaft“, Pieter Bruegel der Ältere 1565 und rechts, A. Hondius, Thames-1677, London Museum

Zurück zur Gegenwart, die folgende Abbildung zeigt den alpinen Gletscherrückgang, bezogen auf die Vergleichsjahre 1850 und 1970. Es ist schon bemerkenswert, mit welchen Tricks vorgegangen wird, um eine überproportionale Gletscherschmelze zu belegen. Wie bereits geschildert, lag 1850 maximale Eisentwicklung für die letzten Jahrtausende vor und auch 1970 lag in einer Kaltphase mit ausgiebiger Gletscherentwicklung, wie die Abbildung 3 belegt. Die Älteren unserer Leser kennen noch aus den 1970-Jahren den wissenschaftlichen und politischen Wirbel um die anstehende drohende Eiszeit. Sie haben richtig gehört, damals glaubte Politik, Wissenschaft und Medien (http://www.mcculloughsite.net/stingray/photos/the_cooling_world_newsweek_2-thumb-500×646.jpg) nicht an eine drohende Erwärmung, sondern an eine drohende Eiszeit für die nächsten Jahrzehnte und teilweise die selben Wissenschaftler, die heute die Tageszeitungen mit ihren Horrorszenarien schmücken, warnten damals vor der drohenden Eiszeit.

Die Abbildung 2 zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006.

Anmerkung:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war auf dem Höhepunkt der Nacheiszeit (Holozän) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark.

Und dazu die Temperaturentwicklung der letzten 1.100 Jahre.

Die Abbildung 3 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt nach Sunday Telegraph (Lord Christopher Monckton) vom 05.11.2006.

Die Schwankungen der Temperatur lassen erwarten, dass auch die alpine Gletscherentwicklung zyklischen, natürlichen Schwankungen unterliegt und genau dies, hat der Gletscherforscher, Prof. Slupetzky (Uni Salzburg) durch seine Untersuchungen der österreichischen Gletscher herausgefunden, was die Abbildung 4 belegt. Zu dessen Untersuchungsergebnis habe ich Ihnen die zyklischen Schwankungen der AMO (Atlantic Multidecadal Oscillation), einer Schwankung der atlantischen Oberflächentemperaturen, durch die unser Wetter in Mitteleuropa maßgeblich bestimmt wird, weil sie u.a. die Verdunstungsrate über dem Atlantik und den Energietransport bestimmt, aufgetragen, sowie die atmosphärische CO2-Entwicklung nach Mauna Loa.

Die Abbildung 4 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß*) folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

*) Bevor hier anhand einzelner Gletscher eingewendet wird, diese wären seit 100 Jahren kontinuierlich geschrumpft – alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D < 1km

Die Gletscher Kategorie D sind relativ stationär. Es gibt zwar Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode ab dem Ende der Kleinen Eiszeit um 1850 eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen.

Die Abbildung 5 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses gar noch stärker als heute). Der heutige Rückzug begann um 1850.

Zurück zur Abbildung 4

Da die AMO in direkter Weise von der Sonnenaktivität abhängt, ist es nicht verwunderlich, dass die alpine Gletscherentwicklung der Intensität der Sonneneinstrahlung folgt. Zu diesem Ergebnis kamen Forscher der ETH Zürich, die die Arbeiten von Prof. Slupetzky, 2005 untermauern (http://www.ethlife.ethz.ch/archive_articles/091214_gletscherschwund_su). “Rasante Gletscherschmelze in den 1940ern“. Die Untersuchungen zeigen, dass in den 1940-Jahren die Schweizer Gletscher stärker schmolzen, als dies gegenwärtig der Fall ist. Als Datenquelle dienten den Forschern die seit fast 100 Jahren (die Messungen begannen im Jahr 1914) vorliegenden durchgehenden Messungen an den Gletschern, Claridenfirn, Großer Aletsch und dem Silvretta.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, die die vorherige Abbildung zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von ca. 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ und in Stockholm. Es war demnach in weiteren Teilen Europas eine erhöhte Solarstrahlung zu messen.

Die Abbildung 6 (http://wattsupwiththat.com/2009/06/) zeigt die bodennahe solare Einstrahlung in Stockholm seit 1923. Die blaue Linie die geglättete 5-Jahreskurve.

Die Abbildung 7 zeigt die Änderung der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ seit 1940. Der Rückgang ist verbunden mit der Phase des Global Cooling und der Wiederanstieg in den 1980-Jahren mit dem Anstieg der bodennahen Temperaturen. Seit 1980, dem Zeitpunkt, als die Temperaturen zu steigen begannen, ist demnach ein 10%iger-Anstieg der Globalstrahlung zu verzeichnen.

Anhand der Abbildung 8 möchte ich Ihnen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre zeigen.

Die Abbildung 8 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün hinterlegt) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar, was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 4, übereinstimmt. Die Abbildung 8 rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die globalen Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

In der Abbildung 8 rechts ist darüber hinaus die Epoche des Global Cooling (rot umrundet) festgehalten – Anstieg der Aerosolpartikel (vorrangig SO2 und Rußpartikel) mit deutlich zurückgehender Sonnenaktivität – einem schwachen solaren 20. Zyklus. Auch in der Phase des Global Cooling, die Prof. Stern in die Zeitspanne von 1940 – 1980 definierte, wurde der Abkühlung durch die beiden starken solaren Zyklen 18 und 19, gegen Ende der 1940- und 1950-Jahre gegen gewirkt, wie die Abbildung 9 zeigt.

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Tempe

raturkurve bis zum Ende des 20. Jahrhunderts, nach den Daten von Briffa, in der archivierten und publizierten (abgeschnittenen) ­Version (schwarz) und der komplette Datensatz (rot). Es ist die Temperaturreihe, die durch die Manipulationen von Jones (Climategate) Berühmtheit erlangte. Hier in der ungekürzten Fassung. Man erkennt deutlich den Temperaturrückgang, der versteckt werden sollte, Quelle: Rudolf Kipp – EIKE. Deutlich ist erkennbar, dass die starken solaren Zyklen 18 und 19 (blaue Linien, vgl. mit Abbildung 7 links) einen Temperaturpeak nach oben auslösten und dem um ca. 1940 beginnenden Rückgang der Temperaturen entgegenwirkten.

Auch hier, wie beim Temperaturanstieg mit der verbundenen Gletscherschmelze, setzte der Temperaturrückgang erst in Verbindung mit der Sonnenaktivität ein und zwar mit der deutlich nachlassenden Sonnenaktivität im 20. Sonnenzyklus, als in den 1970-Jahren das Gespenst der drohenden Eiszeit umherging und dieselben Forscher, die seinerzeit grandios danebenlagen, wie z.B. Prof. Stephen Schneider (Schneider S. & Rasool S., „Atmospheric Carbon Dioxide and Aerosols – Effects of Large Increases on Global Climate“, Science, vol.173, 9 July 1971, p.138-141), heute einer der einflussreichsten IPCC-Leadautoren, die passend zur solaren Temperaturentwicklung, wieder die abenteuerlichsten Hypothesen aufstellen, diesmal in Verbindung mit anthropogenen Treibhausgasen, die eine Erwärmung herbeiführen würden. Seinerzeit gingen die Herren der These nach, es gäbe eine globale Abkühlung – es drohe eine kommende Eiszeit!

Erst als die solare Aktivität in den 1960-Jahren zurückging und in den 1970-Jahren niedrig blieb, „rauschten“ die Temperaturen deutlich in den Keller, um mit Beginn der solaren Aktivität um 1980 (hoher 21. Sonnenzyklus), erneut anzusteigen. Wie wir heute wissen, dauerte der Temperaturanstieg bis ca. 2003, synchron zur solaren Aktivität. In 2003 hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum (http://wetterjournal.wordpress.com/2009/07/14/). Die Presse war seinerzeit voll mit Meldungen über sog. Hitzetote.

Einige werden einwenden, dass anhand einschlägiger Sonnenaktivitätskurven die Sonnenaktivität in den letzten 30 Jahren nicht zugenommen hätte. Dies ist jedoch falsch. So meldete z.B. die Max Planck-Gesellschaft in 2004 “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute.“ Für die solare Aktivität wird international meist der sog. TSI (Total Solar Irradiance) herangezogen (Abbildung 10).

Die Abbildung 10 zeigt den TSI im Zeitraum 1979 bis Januar 2010 (Quelle: http://www.pmodwrc.ch/pmod.php?topic=tsi/composite/SolarConstant). In der Zeile oben sind die verschiedenen Messsysteme, mit denen der TSI aufgenommen wird (wurde) genannt. So steht z.B. ACRIM für Active Cavity Radiometer Irradiance Monitor. Es ist zu sehen, dass im Messbereich des TSI keine Aktivitätssteigerung der Sonne im Betrachtungszeitraum erkennbar ist, wohl aber in der Abbildung 11 und der Abbildung 8 links.

Beim TSI handelt es sich denn auch um eine Mogelpackung, bzw. um eine irreführende Bezeichnung, da das Messsystem des Satelliten, mit dem der TSI aufgenommen wird, lediglich den Wellenlängenbereich des solaren Energiespektrums von 200 nm – 2.000 nm, also UVB – Infrarot aufnimmt (dafür sensibilisiert ist). Von “Tatal“ kann also keine Rede sein! Der überwiegende spektrale Sonnenanteil wird gar nicht aufgezeichnet, insbesondere nicht der Anteil, der zwischen solarem Minimum und solarem Maximum am meisten variiert. So variiert die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*) Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen, sondern am 14C-Gehalt der Pflanzen (Abbildung 11).

Die Abbildung 11 zeigt über die letzten 1.200 Jahre den de Vries/Suess-Zyklus und die mittelalterliche Warmperiode, sowie die Kleine Eiszeit mit dem Wolf- Spörer- und Maunder-Minimum, Quelle: (http://www.co2science.org/articles/V11/N23/EDIT.php).

In der Abbildung 12 habe ich Ihnen die Maxima im de Vries/Suess-Zyklus zu der aus 14C gewonnenen Proxy-Temperaturkurve eingetragen.

Die Abbildung 12 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden fallen jeweils mit dem Maximum des de Vries/Suess-Zyklus zusammen und die Kälteperioden, wie z.B. das Spörer Minimum mit dessen Minimum.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abbildung 13 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 13, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft noch klarer war, bleibt für den Gletscherrückgang in den 1940-Jahren einzig (in Bezug der davor herrschenden Gletscherausdehnung) die starke solare Aktivität übrig, sowie wir dies bis zu den letzten Jahren ebenfalls hatten.

Wie bereits eingangs erwähnt, waren die Alpen in früheren Jahren weitgehend eisfrei. Dies belegen Holzfunde in heutigen Gletscherregionen der Alpen von Dr. Christian Schlüchter. Dr. Schlüchter ist Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da es Bäume und insbesondere ein Moor nur an Stellen gegeben haben kann, wo kein dauerhaftes Eis vorhanden ist und die Baumgrenze deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten Jahrtausenden etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: “Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Es war die Zeit des römischen Klimaoptimums. Die Abbildung 14 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

 

Die Abbildung 14 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, Grüne Alpen statt ewiges Eis“, 14.02.2005 (http://archiv.ethlife.ethz.ch/articles/tages/gruenealpen.html). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Anhand der Abbildung 15 wird deutlich, dass die Torf- und Holzfunde mit der Temperaturentwicklung im Holozän (bezeichnet die Zeitspanne seit ca. 11.000 Jahren, kleine Abbildung) synchron verlaufen und es Zeiten gab, in denen es wesentlich wärmer war als heute, Quelle: (http://klimakatastrophe.files.wordpress.com/2008/09/gletscherfunde2.jpg) nach Joerin et al. 2006 (Uni Bern).

Die beiden folgenden Bilder in der Abbildung 16 zeigen, wie ein Alpendorf im 19. Jahrhundert von sich ausbreitenden Eismassen begraben wird, dass Klima davor also zyklisch milder war (vgl. mit Abbildung 4), Quelle: ZDF, „Klima – Das Risiko“, Joachim Bublath, 22.10.2003 (http://www.solarresearch.org/zdf_bublath_20031022.htm).

 

Zusammenfassend ist festzustellen, dass der heutige Gletscherrückgang in den Alpen nichts Außergewöhnliches darstellt und die Gletscherentwicklung zyklischen Phasen unterliegt, die von der Sonne gesteuert werden. Ein Einfluss von Treibhausgasen wie z.B. CO2 oder menschliche Einflüsse sind nicht vorhanden.

Raimund Leistenschneider – EIKE

Related Files




Climategate 13: Temperaturdatenreihen zwischen Fiktion und Wirklichkeit

Die Abbildung 1 zeigt die anhand vieler Millionen Satellitendaten ermittelte Temperaturkurve von 1979 – 2009 und zwar die Abweichung vom langfristigen Mittel (Nulllinie). Sie wird in Zusammenarbeit der University of Alabama Huntsville (UAH) und der NASA generiert.

Die Abbildung zeigt eine sehr leichte Erwärmung ab 1988 bis 2003 von ca. 0,3°C. Seitdem fällt die Langfristkurve der Temperatur und diese nähert sich wieder der Nulllinie des Langfristmittels. Zusätzlich sind zwei Ereignisse eingezeichnet, die den Trend einmal in die negative Richtung und einmal in die positive Richtung beeinflussen. Dies ist zum einen der Ausbruch des Vulkans Pinatubo auf den Philippinen in 1991, der durch seinen gewaltigen Ausstoß, der letztendlich das Sonnenlicht absorbierte, weltweit die Temperaturen für den Zeitraum von 2 Jahren um ca. 0,6°C fallen lies. In 1999 führte der starke El-Niño zu einem kurzfristigen Temperaturanstieg von ca. 0,7°C. Beides geht auf natürliche Ursachen zurück und hat nichts mit einem menschengemachten CO2-Ausstoß zu tun. Betrachten wir nun die berüchtigte Jones-Temperaturkurve (Abbildung 2), wie sie noch 2007 im 4. IPCC-Bericht um die Welt ging und in Politik und Medien entsprechenden Anklang fand, so ist plötzlich ein Temperaturanstieg zu verzeichnen, der durch Satellitenmessungen nicht bestätigt wird.

 

Abbildung 2

Die Abbildung 2 zeigt die globale Temperaturentwicklung von Jones 2007 (HadCrut3) für den Zeitraum von 1850 – 2007, welche durch Climategate als Fälschung offengelegt wurde. Deutlich ist hier ein Temperaturanstieg seit den 1970-Jahen zu sehen, der in den Satellitendaten nicht vorkommt. Dass gleiche Bild bei den Daten, für die Prof. Hansen (GISS, Abbildung 3, die drei blauen Balken stellen Standardabweichungen, als mathematische Fehlermöglichkeiten dar) verantwortlich ist. Aus beiden Datenreihen stellt das IPCC seine Prognosen zusammen und kommt zu dem Schluss, die Erde würde sich durch Menschenhand drastisch erwärmen.

 

Abbildung 3

Sowohl Jones (HADCrut3), als auch Hansen (GISS) verwenden für die Ermittlung ihrer Temperaturreihen Daten von bodengestützten Messstationen. Seit langem ist bekannt, dass diese unzulänglich, weil stark fehlerbehaftet sind. Zu diesen Fehlern zählen beispielsweise:

·       Wärmeinseleffekt

·       Mangelnde Datendichte (über weite Flächen gibt es keine Messstationen, die Daten werden nur geschätzt

·       Unterschiedliche geographische Höhe der vielen Messstationen. Pro 100m Höhe nimmt die Temperatur um etwa 0,65°C ab, wodurch die Messdaten korrigiert werden müssen, sollen die Daten miteinander vermischt werden.

·       Falsche Aufstellung der Messstationen

·       Änderung der Messerfassungszeiten

·       Software-/Algorithmusfehler, also Auswerte- und Berechnungsfehler u.v.m.

Ich möchte Ihnen die o.g. Punkte kurz erläutern.

Wärmeinseleffekt bedeutet, dass durch zunehmende Besiedlung, Industrialisierung und technische Entwicklungen, ortsgebundene Messstationen heute im Vergleich zu früher zu hohe Temperaturen messen und daher die Daten korrigiert werden müssen. Die Abbildung 4 zeigt, wie die Bevölkerungsdichte bodenbasierte Temperaturdaten beeinflusst.

Abbildung 4

Die Abbildung 4 zeigt den Wärmeinseleffekt nach Goodridge 1996. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht vorrangig durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, sondern durch den Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt. Jedem ist bekannt, dass es z.B. im Winter in Städten wärmer ist als auf dem Land.Datendichte

Die Abbildung 5 zeigt die Messstationen des globalen Temperaturnetzwerks und die bisherige Betriebsdauer. Es ist deutlich erkennbar, dass in weiten Bereichen, insbesondere den Ozeanen, die Erfassungsdichte weit unterdurchschnittlich ist. Da die Ozeane etwa 70% der Erdoberfläche aufweisen, ergibt dies eine starke Schräglage der statistischen Messwerteerfassung und Auswertung.

Abbildung 5

Mangelnde Aufstellung der Messstationen

Im Gegensatz zu Deutschland, gibt es in den USA Audits (Überprüfungen) von unabhängiger Seite, inwieweit die dortigen Messstationen, den Ansprüchen genügen. Sozusagen ein Tüv. Bei der letzten durchgeführten Überprüfung in 2009 wurde festgestellt, dass 61% aller Temperaturmessstationen nicht geeignet für Temperaturreihen sind (Abbildung 6).

 

Abbildung 6

Das folgende Beispiel gibt die Antwort, warum dem so ist.

 

Abbildung 7

Die Abbildung 7 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Erfassungszeiten

Zu Beginn 2001 wurde weltweit der Standard der Temperaturerfassungszeiten geändert. Bis zu diesem Zeitpunkt hatte jedes Land eine eigene Datenerhebung, so dass die Daten aus wissenschaftlicher Sicht gar nicht miteinander vermengt werden dürfen. So wurde in Deutschland dreimal am Tag gemessen (7,30 Uhr, 14,30 Uhr und 21,30 Uhr, letzter Wert wurde doppelt gewertet, um sich den 4. Wert in der Nacht zu sparen) in Frankreich zweimal am Tag (Min- und Maxtemperaturwert) gemessen und daraus der Tagesmittelwert bestimmt. Ab April 2001 wird nun stündlich gemessen, wobei Ausnahmen (alle 6 Stunden) zulässig sind. Wegen der starken Asymmetrie des Tagesganges der Temperatur ergeben beide Erfassungsmethoden (vor April 2001 und danach) andere Temperaturtagesmittelwerte. Durch die neue Methode wird der Tagestemperaturmittelwert nach oben verändert.

 

Abbildung 8

Die Abbildung 8 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute, ab der grünen Linie) wird achtmal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben (die Anhebung der Min/Max-Werte ist durch die farbigen Querbalken markiert). Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

Die meteorologischen Institute (auch der DWD) verhelfen durch diesen Trick in der Temperaturdatenerfassung der globalen Temperaturkurve zu einem Anstieg, während gleichzeitig die Satellitenmessungen einen tatsächlichen Rückgang der Temperaturen zeigen. Verstehen Sie mich bitte nicht falsch, es ist nichts dagegen einzuwenden, dass in der Meteorologie ein, dem technischen Standard entsprechendes optimiertes Datenerhebungssystem eingeführt wurde. Es ist nur befremdend, dass dies in den Temperaturreihen nicht vermerkt wird, da durch das neue Verfahren der Vergleich der Datenreihen vor und nach 2001 nicht mehr möglich ist. Wegen der starken Asymmetrie des Tagegangs der Temperaturen werden die berühmten Äpfel mit Birnen verglichen.

Im Zusammenhang mit Climatgate wurde viel darüber berichtet, dass Mails gelöscht wurden, Rohdaten der Temperaturen beim CRU verschwunden sind, ebenfalls gelöscht wurden, etc. Auch der Beleg (Abbildung 8), dass durch zusätzliche Erfassungszeiten, die Temperaturdaten künstlich nach oben verschoben werden, wurde, nachdem der Verfasser dies in 2008 in einer Diskussion Herrn Prof. Dr. Rahmstorf auf KlimaLounge vorhielt, aus dem Netz genommen. Der Beleg war unter der Internetseite „Bremen und Umland im Bild“ (http://home.arcor.de/meino/klimanews/index.html) zu finden. Da der Verfasser von der Seite eine free-pdf. besitze, können Sie sich in der Anlage von der Richtigkeit überzeugen.

Algorithmusfehler

Besonders das GISS fiel in den letzten Jahren durch eine Reihe eklatanter Fehler auf. So mussten beispielsweise Monatsdaten nachträglich korrigiert werden, weil Daten von Vormonaten in die Bewertung einflossen. Als Folge wurden Oktoberwerte ausgewiesen, die alle bisherigen Rekorddaten brachen, weil Septemberdaten verwendet wurden, u.v.m.

Gezielte Manipulationen

Wie die Welt dank des Glimategate-Skandals erfahren hat, haben Jones und Hansen ihre Datenreihen durch einen “Trick“ angepasst. Wie dies geht, zeigt die Abbildung 9.

 

Abbildung 9

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Temperaturkurve der letzten 2.000 Jahre (blaue Kurve). Es ist ersichtlich, dass  ab ca. 1960 die Daten nicht mit den gemessenen Temperaturdaten übereinstimmen. Die blaue Kurve zeigt einen Temperaturrückgang, während die Bodenmessungen einen Anstieg ausweisen (vortäuschen). Jones hat offensichtlich die Datenreihe ab ca. 1960 abgeschnitten und durch die gemessenen Werte ersetzt, wodurch ein steiler Temperaturanstieg zu sehen ist, der, wie bereits erwähnt, in den Sattelitenmessungen, die im Gegensatz zu den Bodenmessungen nicht punktuell, sondern in der gesamten Oberfläche und kontinuierlich messen, nicht erkennbar ist. Es handelt sich also um eine bewusste Fälschung und Täuschung der Adressaten aus Politik und Medien.

Werden dann weitere, man muss schon von Fälschungen der Daten ausgehen, Korrekturen der Temperaturen der ersten Hälfte des 20. Jahrhunderts vorgenommen, dann erscheint die berüchtigte Jones-Kurve (Abbildung 2), die Politik und Medien manipulierte. Ich möchte Ihnen als Beweis einen Ausdruck aus 1978, Quelle National Geographic vorstellen, auf dem um 1940 eine starke Warmperiode, mit Temperaturen von über 0,5°C über dem Langfristmittel abgebildet ist, die bei Jones und Hansen heute nicht mehr zu sehen ist.

 

Abbildung 10

In der Abbildung 10 von Jones (oben) beträgt der Temperaturhub zwischen 1940 und 1970 nicht mehr 0,5°C, wie noch in der Abbildung der National Geographic von 1978 zu sehen, sondern er wurde auf wundersame Weise auf 0,1°C herunter manipuliert. Es gibt kein anderes Wort, als Manipulation oder Betrug von Temperaturdaten dafür. Oder sollte Jones von seiner Arbeit so überfordert sein, dass ihm ein solch katastrophaler Fehler unterlaufen ist. Dann wären er und mit ihm das IPCC, als kompetente Vertreter ihres Standes nicht mehr haltbar und Politik und Medien sollten sich schleunigst nach geeigneteren Personen umsehen. Auf der 2. Klimakonferenz in Berlin am 04. Dez. 2009 war z.B. eine Vielzahl von ihnen vertreten.

Werden von unabhängiger Seite die Temperaturrohdaten ausgewertet, so ist auch heute der starke Temperaturanstieg in der ersten Hälfte des 20. Jahrhunderts zu sehen, Abbildung 11.

Abbildung 11

Die Abbildung 11 zeigt die Temperaturdaten von 1870 – 2002, Quelle: (http://wattsupwiththat.com/2009/11/29/when-results-go-bad/#more-13373). Klar erkennbar, dass in der ersten Hälfte des 20. Jahrhunderts die Temperaturen höher lagen, als zum Ende des 20. Jahrhunderts, obwohl CRU, GISS und IPCC der Welt anderes weismachen wollen (Abbildung 2 und 3). Die Abbildung deckt sich mit den US-Temperaturwerten – das wärmste Jahr im 20. Jahrhundert ist 1934. Von den 10 wärmsten Jahren liegen 6 vor 1940! Auch bei den US-Temperaturdaten hatte das GISS zuerst falsche Daten geliefert, die zu dessen wohl gefälschter Temperaturkurve passen. Das GISS musste die TOP-Temperaturjahre korrigieren, als der bekannte Meteorologe Steve McIntyre ihm Fehler in der Datenauswertung nachwies.

Weitere Datenfälschungen, z.B. über arktische Temperaturen sind hier zu entnehmen: http://bobtisdale.blogspot.com/2008/07/polar-amplification-and-arctic-warming.html

oder Manipulationen bei Ländermessungen:

http://landshape.org/enm/australian-temperature-adjustments/

Anhand des Climategate-Skandals und der großen Unterschiede (Abbildung 13) zwischen den satellitenbasierten Temperaturreihe und den Daten der GISS und Jones (CRU) ist festzuhalten, dass die offiziellen Datengeber des IPCC, die Daten einer Kurspflege unterzogen haben, die das Konstrukt eines anthropogenen Klimawandels beweisen sollten. Ihre Daten halten einer wissenschaftlichen Überprüfung nicht stand, wie bereits die Hockey-Stick-Kurve von Prof. Mann, die ebenfalls (vor 3 Jahren) als Fälschung entlarvt wurde. Eine wissenschaftliche Überprüfung der HadCrut-Daten wird sich allerdings schwierig gestalten, weil ganze Rohdatensätze und Tabellen aus unerklärlichen Gründen verschwunden sind.

 

Abbildung 12

Die Abbildung 12 (Quelle: http://wattsupwiththat.com/2009/12/20/darwin-zero-before-and-after/#more-14358) zeigt die Temperaturdatenreihe der nordaustralischen Messstation „Darwin Zero“. Die Rohdaten zeigen einen gänzlich anderen Temperaturverlauf, wie die „bereinigten“ Werte (GHCN: Global Historical Climatology Network). Während diese Temperaturwerte einen gewaltigen Temperaturanstieg signalisieren, zeigt der Trend bei den Rohdaten eine leicht fallende Temperaturentwicklung.

Es muss davon ausgegangen werden, dass die Affäre um die gefälschten CRU-Daten nur die Spitze des Eisbergs darstellt und in den nächsten Wochen mit weiteren Enthüllungen zu rechnen ist, wie am Beispiel von Dr. Ben Santer, Klimaforscher und Leit-Autor des IPPC, Mitarbeiter am IPCC SAR Bericht von 1995, zeigt, der am 19.12.2009 in der Jesse Ventura Talkshow zugab, die Teile aus dem Kapitel 8 des Berichtes gelöscht zu haben, die ausdrücklich einen vom Menschen verursachten Klimawandel verneinen (http://www.eike-klima-energie.eu/news-anzeige/climategate-update-ipcc-leit-autor-ben-santer-gibt-faelschung-zu/).

Werden die satellitenbasierten Messungen (insbesondere deren Verlauf), mit den CRU-Daten verglichen, wird der Manipulationsverdacht sichtbar (Abbildung 13).

 

Abbildung 13

Während die aus Millionen Satellitendaten der NASA ermittelte globale Temperaturreihe nur einen sehr schwachen Temperaturanstieg ab 1988 zeigt, der seit 2003 wieder rückläufig ist und fällt, zeigen die Daten von Jones (und der GISS, siehe Abbildung 3) einen rasanten Temperaturanstieg im gleichen Zeitraum (grün hinterlegter Bereich).

Anhand der Satellitendaten, die seit 1979 vorliegen, ist festzuhalten, dass es bis Ende der 1980-Jahre keine Temperaturerhöhung gab, bis zur Jahrtausendwende ein leichter Anstieg von ca. 0,3 °C zu verzeichnen ist, der natürlichen Ursprungs ist, sich in die historischen Temperaturwerte einfügt und seit Beginn dieses Jahrtausends, aufgrund nachlassender Sonnenaktivität (EIKE berichtete mehrmals über die Zusammenhänge), die Temperaturen deutlich fallen, wie die Abbildung 14 zeigt.

 

Abbildung 14

Die Abbildung 14 zeigt die vier Temperatur-Szenarien (B1, A1B, A2, Commitment) aus dem IPCC-Bericht 2007, die aus den IPCC-Klimamodellen ermittelt wurden. Das Szenario “Commitment“, welches die niedrigste Temperaturentwicklung angibt, geht dabei von einer gleich bleibenden CO2-Konzentration wie im Jahr 2000 aus! Bei den drei anderen Szenarien steigt indes die CO2-Konzentration weiter an, wie dies z.B. die Mauna Loa-Daten wiedergeben, Quelle: ergänzt nach Spektrum der Wissenschaft 02/09, “Kalt erwischt“, S. 21 – 22. Die roten Punkte geben die tatsächliche Temperaturentwicklung bis 2008 wieder (schwarze Punkte, sind die gemessenen Temperaturwerte bis 2005). Seit 2005 fallen die Temperaturen deutlich. Die grün, blau und violett schraffierten Bereiche zeigen die Szenarien der früheren IPCC-Vorhersagen (FAR = First Assessment Report, 1990; SAR = Second Assessment Report, 1995; TAR = Third Assessment Report, 2001).

Für unsere Berliner Politiker zum Abschluss noch eine Datenreihe der dort gemessenen Temperaturen von 1730 – 2000, Quelle: (http://www.wetterzentrale.de/klima/tberlintem.html). Unnötig festzuhalten, dass es keinen Grund für irgendwelche Panik oder gar einer Klimasteuer oder Ähnlichem gibt. Auch in Berlin fallen die Temperaturen seit Jahren wieder, wie in der Abbildung 16 ersichtlich.

 

Abbildung 15

Die Abbildung 15 zeigt die Datenreihe der Temperaturen von Berlin im Zeitraum von 1730 – 2000. Deutlich zu sehen, dass es in der Vergangenheit teils deutlich höhere Temperaturen über längere Zeitintervalle gab als heute.

Die Abbildung 16 zeigt die Temperaturen in Berlin seit Dezember 2005 bis Dez. 2009. Auch in Berlin, wie überall auf der Welt, gehen die Temperaturen deutlich zurück. Die Max-Werte um einige °C.

 

Abbildung 16

Die Abbildung 16 zeigt den Temperaturgang in Berlin-Tempelhof von Dez. 2005 – Dez. 2009. Sowohl Min als Max-Temperaturwerte zeigen eine eindeutig fallende Tendenz, obwohl der CO2-Pegel in den vergangenen 4 Jahren deutlich angestiegen sein soll.

Es ist an der Zeit, dass unsere Politiker die Realitäten erkennen und nicht weiter unseligen Propheten der Klimakatastrophe verfallen, so wie dies noch jüngst von unserem Umweltminister Herrn Röttgen verlautbar wurde, der das Scheitern der Klimakonferenz von Kopenhagen, insbesondere den USA anlastete. Herr Röttgen sollte besser einmal in Erwägung ziehen, ob sich die dortigen Verantwortungsträger nicht längst den Realitäten stellten und vor allem, diese Realitäten auch berücksichtigen, während an manchen Stellen in Berlin anscheinend noch mittelalterliche Inquisition das Wort geredet wird.

Raimund Leistenschneider-EIKE

Die Dokumentation finden Sie auch als pdf Datei im Anhang

Related Files




Zusammenhänge zwischen Erdmagnetfeld, kosmischer Strahlung und Erdklima

Das irdische Magnetfeld selbst entsteht durch den sog. Geodynamo. Dieser benötigt drei Grundvorraussetzungen:

·       Eine große Menge eines elektrisch leitenden Mediums. Bei der Erde ist dies der äußere flüssige Kern.

·       Eine Energiequelle, die die o.g. elektrisch leitendende Flüssigkeit in Konvektion versetzt.

·       Der Planet muss eine Rotation aufweisen.

Da die Fließgeschwindigkeiten, Massenbewegungen und Richtungen über die Zeit nicht konstant sind, sondern variieren, kommt es zu Polwechseln, in denen die Polarität des Magnetfeldes wechselt. Das äußere Magnetfeld (außerhalb der Erde) unterliegt den Einflüssen des solaren Magnetfeldes – es steht mit diesem in Wechselwirkung.

Während die Sonnenaktivität zunahm, hat die Feldstärke des irdischen Magnetfeldes seit 150 Jahren um ca. 10% abgenommen, wie die NASA aufgrund von Messungen seit 1865 mitteilte. Dadurch verstärkt sich die Wechselwirkung des Sonnenwindes mit der Atmosphäre, was eine Erhöhung wärmeproduzierender Reaktionen in der Atmosphäre und die Zerstörung der Ozonschicht zur Folge hat. Laut NASA zerstören z.B. Sonneneruptionen wie die von 2000, ca. 9% des Ozons in 15 – 50 km Höhe und bis zu 70% in 50 – 90 km Höhe.

 

Abbildung 1

Die Abbildung 1 zeigt die globale Stärke des magnetischen Feldes der vergangenen 7.000 Jahre. Die blaue Kurve zeigt direkte Messungen. Seit ca. 1.000 Jahren nimmt das Magnetfeld der Erde kontinuierlich ab. Quelle: Sterne und Weltraum, Juni 2006, “Das ruhelose Magnetfeld der Erde“

Über den eingangs genannten Zeitraum von 150 Jahren hinaus, wertete Prof. Dr. David Gubbins (University of Leeds) Schiffslogbücher von 1590 – 1840 aus und ermittelte daraus die Lage der Pole und die Feldstärke des Magnetfeldes. Seit Beginn der Messung nahm das Erdmagnetfeld ca. 2,3 Nanotesla (nT) pro Jahr ab. Seit Mitte der 19. Jahrhunderts (vgl. mit den o.g. NASA-Messungen) beschleunigte sich die Abschwächung auf das Sechsfache. Setzt sich dieses fort, so wäre das Magnetfeld der Erde in 2.000 Jahren verschwunden. Messungen an magnetisch eingelagerten Materialien in Gesteinen ergaben, dass es durchschnittlich alle 500.000 Jahre zu einem Polwechsel im Erdmagnetfeld kommt. Da der letzte vor ca. 750.000 Jahren stattfand, wäre statistisch ein Polwechsel überfällig.

So konnten auch Satelitenmessungen die weitere Abnahme des Erdmagnetfeldes bestätigen, wie die folgende Abbildung zeigt.

 

Abbildung 2

Die Abbildung 2 links zeigt die Änderung des magnetischen Feldes im Zeitraum von 1980 bis 2000. Zu sehen ist die Differenz der magnetischen Felder. Die Messungen entstanden mit den Satelliten Magsat (Magnetic Field Satellite) und Champ (CHAllenging Minisatellite Payload), Quelle: GFZ-Potsdam.

Derzeit wandert der magnetische Nordpol in geradezu atemberaubendem Tempo, wodurch sich die Deklination weiter ändern wird, wie die folgende Abbildung zeigt.

 

Abbildung 3

Die Abbildung zeigt die Positionen der magnetischen (schwarz) und geomagnetischen Pole (rot) auf der Nord- und Südhalbkugel con 1590 – 2005. Es sind jeweils 10-Jahresschritte aufgetragen. Fast spektakulär wandert der seit 500 Jahren recht stabile magnetische Nordpol mit großer Geschwindigkeit in Richtung Sibirien, Quelle: GFZ-Potsdam. Der geomagnetische Pol ist ein theoretischer (berechneter) Pol des Erdmagnetfeldes, dem die Annahme zu Grunde liegt, im Erdmittelpunkt befände sich ein Stabmagnet.

Deklination:

Unter Deklination versteht man die Richtungsänderung des magnetischen Pols, oder genauer, der lokalen Feldrichtung, zu der Richtung des geographischen Pols (Rotationsachse). Die Deklination ist somit für jeden Punkt auf der Erde unterschiedlich. Sie wird in Winkelgraden angegeben und ist ein wichtiges Maß zur Ortsbestimmung und Navigation auf See. In Berlin (Potsdam) änderte sich die Deklination in den letzten knapp 200 Jahren z.B. um über 20°. Da das Magnetfeld der Erde in idealer Weise einen Dipol darstellt, ist die Deklination also das Maß der Abweichung des gemessenen Feldes zum (idealen) Dipolfeld. Mit zunehmender Deklination wird dieses Idealbild geschwächt und damit das Magnetfeld der Erde schwächer, was die folgenden Abbildungen zeigen. So sind denn auch hohe und weiter steigende Deklinationswerte ein Anzeichen für eine mögliche bevorstehende Polumkehr.

 

Abbildung 4

Die Abbildung 4 (Quelle: Sterne und Weltraum, Juni 2006) zeigt die Deklination 4.000 v.Chr, Jahr 0, 1900 und 2005. Wird dieses mit der Abbildung 1 verglichen, fällt auf, dass in Zeiten geringer Deklination das Erdmagnetfeld hoch und in Zeiten hoher Deklination vergleichweise niedrig ist, bzw. schnell abnimmt.

Die Cambridge University Press (Bryant E. (1997): Climate process & change) stellt fest: “Erdmagnetfeld wird von Kern-Mantel-Grenze bestimmt und polt sich ca. dreimal in 1 Mio. a um (Umpolung dauert 5 ka), letzte große Umpolung war vor 740 ka (BRUNSHES-MATUYAMA-Umkehr). Möglicherweise stärkeres Erdmagnetfeld während der Vereisungen, mehr Stürme wenn das Erdmagnetfeld fluktuiert, wärmere Temperaturen wenn die Intensität gering ist.“ Dies deckt sich mit den Klimabeobachtungen im ausgehenden 20. Jahrhunderts und zu Beginn des 21. Jahrhunderts.

Wird die Abbildung der Magnetfeldstärke mit der Temperaturkurve im Holozän verglichen, wird sichtbar, dass die Temperaturmaxima mit den Minima des Erdmagnetfeldes übereinstimmen, was für die Richtigkeit der Aussage der Cambridge University Press (Bryant E. (1997): Climate process & change) spricht.

 

Abbildung 5

Die Abbildung5  zeigt, dass alle größeren Temperaturvorstöße in den letzten 6.000 Jahren mit einem Minimum im Erdmagnetfeld korrelieren. Dies ist zum einen auf die in diesen Zeiten aktivere Sonne zurückzuführen, die dann das Erdmagnetfeld entsprechend schwächt und zum anderen, auf Wechselwirkungen mit der kosmischen Strahlung und der Wolkenbildung. Die folgende Abbildung der Bell Laboratories zeigt denn auch neben den bekannten atmosphärischen Auswirkungen, solche auf das Wetter und die Wolkenbildung.

In Fachkreisen ist demnach seit längerer Zeit bekannt, dass magnetische Aktivitäten Einfluss auf Wetter und Klima ausüben, wie aus der folgenden Abbildung der Bell Laboratories zu entnehmen ist.

 

Abbildung 6

Den Einfluss auf das Klima bestätigen die beiden Geophysiker Dr. Mads Faurschou Knudsen (Geologische Institut der Universität Arhus) und  Dr. Peter Riisager (Zentrum für geologische Forschungen Dänemarks und Grönlands). In ihrer Studie heißt es, dass die Niederschlagsmenge in den Regionen niedriger Breitengrade während der vergangenen 5.000 Jahre mit Veränderungen des Magnetfeldes der Erde in Zusammenhang stehe. Weiter sagen die beiden Forscher: "Es besteht eine enge Verbindung zwischen der Niederschlagsmenge in den Tropen und der Kraft des Magnetfeldes", zitierte das dänische Wissenschaftsmagazin "Videnskab".

Das GeoForschungsZentrum Potsdam (GFZ) zu den Auswirkungen des Erdmagnetfeldes auf das Klima: “Beeinflusst das irdische Magnetfeld unser Klima?“ Zu finden unter ( hier ).

“In den Rhythmen der Atmosphäre, des globalen Temperaturfeldes und des Magnetfeldes der Erde finden sich aber auch für größere Perioden, z.B. den 80-jährigen Gleißbergzyklus, verblüffende Übereinstimmungen. Allgemein ergab sich aus den Untersuchungen, dass offensichtlich ein Zusammenhang zwischen der Änderung der globalen Mitteltemperatur und den Variationen des irdischen Magnetfeldes besteht, darauf weist die gute Übereinstimmung im gesamten Spektralbereich hin. Ebenso deutlich erscheint eine Beziehung zwischen der Änderung der Tageslänge und den Änderungen des irdischen Magnetfeldes. Wie erklärt sich dieser Zusammenhang?“

“Das Magnetfeld der Erde wird im flüssigen Erdkern erzeugt. Im eisenhaltigen Erdkern finden sich vertikale Strömungswalzen (Konvektionswalzen), die durch die Wärme angetrieben werden. Zugleich rotiert der Erdkern gegenüber dem Erdmantel, wodurch sich eine Westdrift des Erdmagnetfeldes ergibt. Wird nun angenommen, dass der untere Erdmantel im Grenzbereich zum Erdkern leitfähig ist, ergibt sich eine elektromagnetische Kopplung an der Grenze von Erdkern und Erdmantel. Diese Kopplung wirkt wie eine Wirbelstrombremse oder ein Wirbelstrommotor. Deshalb übertragen sich Fluktuationen im Erdkern auf den Erdmantel; der Effekt wird registriert als Tageslängenänderung. Die im Spektrum der Tageslängenänderungen aufgefundenen Frequenzen von 30 und 80 Jahren lassen sich dadurch erklären.“

“Temperatur, Atmosphärendynamik, Magnetfeld: gibt es Zusammenhänge?“

 “Überraschenderweise gibt es im Fluktuationsspektrum von Luftdruck, atmosphärischer Mittel-temperatur und Erdmagnetfeld große Übereinstimmungen, obwohl dem völlig unterschiedliche physikalische Ursachen zugrunde liegen. Tageslängenänderungen und Klimaschwankungen können durch denselben Prozess verursacht sein. Die Ähnlichkeit in den Spektrallinien von Temperaturänderungen und Geomagnetfeldschwankungen deutet darauf hin, dass möglicherweise auch das Magnetfeld Einfluss auf das Klima hat. Dieser Zusammenhang wäre noch näher zu untersuchen.“

 Auch heute findet übrigens eine Fluktuation des Erdmagnetfeldes statt, wie aus S.d.W. 09/05, S. 54 “Geheimnisvoller Geodynamo“ zu entnehmen ist und die daraus entnommene Abbildung zeigt:

 

Abbildung 7

Die Abbildungen 7 zeigen das sich ändernde Erdmagnetfeld im Zeitraum von 1980 – 2000, sowohl die Intensität der Flussänderung, als auch die Polarisation des Flusses. S.d.W.: “Der größte Teil des Erdmagnet-feldes verlässt den Kern durch die südliche Hemisphäre und tritt durch die Nordhalbkugel wieder ein. Doch an manchen Stellen ist es umgekehrt. Diese Anomalien mit umgekehrtem Fluss haben sich zwischen 1980 und 2000 weiter ausgedehnt.“ (Anmerkung: In dieser Zeit wurden auch die ansteigenden Globaltemperaturen gemessen). “Wenn sie beide Pole umschließen, könnte dies eine Polumkehr bewirken.“

Der Zusammenhang Erdmagnetfeld und Klima wird, wie schon erwähnt, aus der jüngeren Erdgeschichte deutlich. Die jüngsten Eiszeitepochen begannen im Gelasium, gegen Ende des Pliozäns vor 2,588 Mio. Jahren. Der Beginn des Gelasiums ist exakt an der Gauss-Matuyama-Grenze (bezeichnet zwei Epochen, an deren Grenze die Eisenbestandteile in Lava umgekehrt magnetisiert sind, also ein Polwechsel stattfand) vor rund 2,588 Mio. Jahren festgesetzt, an der auch die Polkappen begannen zu vereisen.

Da, wie bereits gezeigt, das Erdmagnetfeld in Wechselbeziehung mit dem solaren Magnetfeld steht, kann eine Klimabetrachtung nur im Zusammenspiel mit den Auswirkungen des solaren Magnetfeldes und insbesondere mit den von Prof. Svensmark erstmals beschriebenen Zusammenhängen der kosmischen Strahlung mit dem solaren Magnetfeld, den klimawirksamen Einfluss beschreiben. Eine Einzelbetrachtung, wie sie z.B. durch das IPCC für den angeblichen klimawirksamen Einfluss von CO2 vornimmt, gibt hier wie dort kein abgeschlossenes Bild.

Die Grundüberlegung von Prof. Svensmark basiert aus den Untersuchungsergebnissen, dass in Zeiten hoher kosmischer Strahlung auf die Erdatmosphäre, die Erdmitteltemperaturen vergleichweise niedrig, in Zeiten geringer kosmischer Strahlung, die Temperaturen über dem langjährigen Durchschnitt liegen. Zusammen hängt dies in kürzeren Zeitskalen von mehreren tausend Jahren, vor allem mit der Sonnenaktivität und dem mit der Aktivität verbundenen solaren Magnetfeld, welches die Erde (und die anderen Planeten) wie ein Schutzschirm vor der kosmischen Strahlung, die im wesentlichen aus geladenen Teilchen, den Protonen, der Rest aus Elektronen und Alpha-Teilchen (Heliumkerne) besteht, schützt (folgende Abbildungen).

 

Abbildung 8

Die Abbildung 8 links zeigt, wie die kosmischen Strahlen durch das solaren Magnetfeld abgelenkt werden und dadurch die Erde nicht erreichen, bzw. deren zeitliche Flussgröße bei aktiver Sonne geringer ist. In der Abbildung rechts sind die Auswirkungen des solaren Magnetfeldes und des sog. Sonnenwindes auf das irdische Magnetfeld schematisch dargestellt.

Die primären kosmischen Strahlen, die auf unsere Atmosphäre treffen (folgende Abbildungen) bestehen aus sehr schnellen geladenen Partikeln (galaktische: Energie bis 1010 – 1016 eV, extragalaktische: Energie bis 1020 eV*) von Protonen (90%), Elektronen bis Heliumkerne. Die Partikelstrahlung, auch Höhenstrahlung genannt, ist in ca. 15 km Höhe am stärksten. Diese Teilchen kollidieren mit Kernen atmosphärischer Moleküle (N2, O2) und erzeugen so einen Schauer sekundärer Partikel wie Pionen, Myonen, Elektronen, Antimaterie und Neutrinos, die auf der Erde gemessen werden kann (Spektrum der Wissenschaft 01/06, S. 12). Dabei entstehen Gammastrahlung und weitere Photonen verschiedener Wellenlänge. Die Anzahl dieser sekundären Partikel ist neben der Intensität der kosmischen Strahlung von verschiedenen Faktoren wie Breitengrad, Tag/Nacht-Zyklus, Wetter, Druck und solarer Aktivität abhängig.

Der oben beschriebene Kaskadierungseffekt geht so lange weiter, bis die Energie der Teilchen dahingehend abgebaut ist, dass durch eine Kollision keine weiteren freien Teilchen geschaffen werden, im Mittel in einer Höhe von ca. 15 km. In der Troposphäre werden dadurch Ionen produziert, die Aerosole mit geringen Partikelgrößen von < 20nm entstehen lassen. Diese wiederum dienen als Keime für die Wolkenbildung. Geladene Regentropfen sind dabei 10 – 100-mal so effektiv in der Bindung von Aerosolpartikeln als ungeladene. Aerosolpartikel dienen bekanntermaßen als Kristallationskeime für Wassertropfen.

 

Abbildung 9

Die Abbildungen 9 zeigen die Teilchenreaktionen aufgrund der kosmischen Strahlung und deren Anteil (Millisievert) in Abhängigkeit zur Höhe in Metern (rechts). Quelle: Forschungszentrum Dresden

In der Atmosphäre entstehen unter der Einwirkung kosmischer Strahlung z.B. Wolken, bevorzugt in der unteren Troposphäre. Weiterhin entsteht in der oberen Atmosphäre 14C, was durch den C-Zyklus auch zu einer Anreicherung in der Vegetation führt und dessen Zerfallsrate zur die Altersbestimmung der Pflanzen herangezogen wird. Die kosmische Strahlung, deren geladene Primär- und Sekundärteilchen, wirken sich demnach auf die Wolkenbildung (vermehrte Wolkenbildung in der unteren Troposphäre bei erhöhter kosmischer Strahlung) und damit auf die Temperaturen aus. Prof. Svensmark konnte seine Forschungsergebnisse mit beeindruckenden Datenreihen belegen, von denen ich Ihnen die Folgende, die beim Informationsdienst Wissenschaft e.V. unter (http://idw-online.de/pages/de/image7546) abgelegt ist, zeigen möchte.

 

Abbildung 10

Die Abbildung 10 zeigt, wie die Wolkenbedeckung in Abhängigkeit zur Intensität (Veränderung) der kosmischen Strahlung variiert.

Durch erhöhte solare Aktivität (z.B. Sonnenfleckenzyklen, magnetischer de Vries/Suess-Zyklus) wird die Erde besser vor kosmischer Strahlung abgeschirmt, weshalb die 14C-Menge abnimmt. Auf diese Weise spiegelt die 14C-Schwankung z.B. in Baumjahresringen die solare und kosmische Variabilität wieder. Wie bereits geschildert, bilden sich auf diese Weise im unteren Atmosphärenbereich optisch dichte Wolken. Eine Verstärkung der unteren Wolkenbildung sorgt so für globale Kühlung. Dies trifft zusammen mit einer schwachen, inaktiven Sonne, wodurch vermehrt kosmische Strahlung (Schutz des solaren Magnetfeldes ist geringer) die Erdatmosphäre erreicht. Nach den Angaben des DLR (Deutsches Zentrum für Luft- und Raumfahrt) bedeutet eine Reduzierung des mittleren Wolkenbedeckungsgrades von wenigen Prozent, bereits eine globale Temperaturänderung, die (Anmerkung: in den Modellen) einer Verdopplung des CO2-Gehaltes entspricht. (http://www.oekologismus.de/?p=460)

In der folgenden Abbildung ist der direkte Zusammenhang zwischen Globaltemperatur und Intensität der kosmischen Strahlung dargestellt.

 

Abbildung 11

Die unteren drei Graphen in Abbildung 11 zeigen die kosmische Strahlung im Zeitraum von März 2002 – 2005. Die beiden roten Graphen die Temperaturschwankungen im gleichen Zeitraum. Werden die beiden geglätteten Linien verglichen, wird der Zusammenhang zwischen Temperaturgang und kosmischer Strahlung sehr deutlich. Zum Vergleich ist die CO2-Schwankungsbeite dargestellt, die keinerlei Übereinstimmung mit der Temperaturvariabilität aufweist, Quelle: (http://biocab.org/Cosmic_Rays_Graph.html).

Der Einfluss der kosmischen Strahlen auf die Wolkenbildung und das Klima sind so gravierend, dass mittlerweile die Meteorologen die kosmische Strahlung berücksichtigen müssen, um ihre täglichen Wettervorhersagen zu verbessern (Nigel Calder, http://www.konservativ.de/umwelt/calder.htm).

Wie eingangs des Artikels geschildert, hat nach Untersuchungen der NASA, die Stärke des irdischen Magnetfeldes in den vergangenen 150 Jahren um 10% abgenommen. Diese Abnahme fällt zusammen mit einer aktiven Sonnen, damit verbundener geringerer kosmischen Strahlung und steigenden Erdmitteltemperaturen. Es wird ersichtlich, dass mit fallendem irdischem Magnetfeld, die Temperaturen, sowohl derzeit, als auch in der Vergangenheit, relative Maxima erreichten (Abbildung 5).

Es ist somit festzustellen, dass sich die Auswirkungen der variablen Sonnenaktivität, insbesondere deren magnetische Aktivität (der im Mittel 208-jährige de Vries/Suess-Zyklus, Abbildung 12), in direkter und indirekter Weise (kosmische Strahlung, Erdmagnetfeld) auf das Klima auswirken, verstärkt werden die magnetischen Einflüsse, wenn sich das Erdmagnetfeld selbst ändert (siehe Aussage der Cambridge University Press), wodurch geladene Teilchen dann nochmals vermehrt in die Erdatmosphäre gelangen. Für einen postulierten Einfluss von CO2 auf unser Klima bleibt da nicht mehr viel übrig.

 

Abbildung 12

Die Abbildung 12 zeigt die variable arktische Eisbedeckung von 1400 – 2008 (Quelle: Dr. Axel Mörner, „Keine Gefahr eines globalen Meeresspiegelanstiegs“) und die damit verbundenen Meeresströmungen im Nordatlantik. Sehr deutlich zeichnet sich in der arktischen Eisbedeckung der im Mittel 208-jährige magnetische de Vries/Suess-Zyklus der Sonne ab, der um die Jahrtausendwende sein letztes Maximum hatte und seitdem wieder fällt, so dass von weiter fallenden Temperaturen bis zur Mitte des Jahrhunderts zu rechnen ist.

Wie das Geo Forschungszentrum Potsdam richtig feststellt, ist es an der Zeit, die Auswirkungen des Erdmagnetfeldes auf unser Klima näher zu untersuchen, als weitere Forschungsgelder dafür zu verwenden, einen Kausalzusammenhang zwischen CO2 und Klima zu finden, den es nicht gibt, wie nicht zuletzt die jüngste Temperaturentwicklung zeigt: Seit 10 Jahren wird es deutlich kühler, obwohl der CO2-Pegel weiter steigt.

 

Abbildung 13

Die Abbildung 13 zeigt deutlich, dass es keinen Zusammenhang zwischen atmosphärischem CO2-Gehalt und Temperaturen gibt – obwohl der CO2-Pegel weiter deutlich steigt, fallen seit Beginn dieses Jahrhunderts die Temperaturen.

Raimund Leistenschneider – EIKE

Den Aufsatz finden Sie auch als pdf Datei im Anhang

Related Files




4 ° Erwärmung bis 2050? Die Klimakonferenz in Kopenhagen wirft ihre Schatten voraus!

Zum eigentlichen Thema, der Temperaturentwicklung. Hier muss zuallererst einmal genauer die Erfassung derselbigen, sowie die statistische Auswertung betrachtet werden. Der letzte IPCC-Bericht 2007 (AR4) geht von einem Temperaturanstieg um, je nach Szenario, 0,11°C – 0,64°C pro Dekade aus. In den USA werden Audits der dort verwendeten Temperaturstationen durchgeführt, inwieweit deren Ergebnisse richtige Werte wiedergeben. Das Ergebnis fasst die folgende Abbildung zusammen.

Die Abbildung 1 zeigt, dass 90% der Messstationen des US-Temperaturnetzwerkes einen Fehler von größer 1°C aufweisen und damit der Fehler bereits deutlich höher liegt, als die Temperaturbandbreite, die das IPCC in seinem Bericht AR4 als mögliche Dekadenerhöhung angibt. Bei der Auditstudie (http://www.surfacestations.org/) handelt es sich nicht um Stichprobenuntersuchung, sondern um eine Flächenerfassung der Messstationen, wie die folgende Abbildung zeigt, bei der 82% der Temperaturmessstationen auditiert wurden. Aus verständlichen Gründen fehlt in Deutschland eine ähnliche unabhängige Überprüfung.

Die Abbildung 2 zeigt die Klassifizierung der über den USA verteilten Temperaturmessstationen. Die rote Farbe überwiegt eindeutig. Es wurden 82% aller Temperaturmessstationen erfasst, wobei nur 10% der Stationen einen Fehlerwert von <1°C aufweisen.

Folgend nur zwei Beispiele von hunderten, warum die Messstationen solche Fehlertoleranzen aufweisen.

Die Abbildung 3 zeigt eine Temperaturmessstation in Perry, Oklahoma in unmittelbarer Nachbarschaft zur Feuerwehr. Dazu die Infrarotaufnahme, die zeigt, wie die Hauswand auf die Station rückkoppelt.

 

Die Abbildung 4 zeigt eine Temperaturmessstation in Glenns Ferry, Idaho in unmittelbarer Nähe einer Trafostation. Auch hier entlarvt die IR-Aufnahme, wie stark sich der Trafo erhitzt und auf die Station einwirkt.

Die Studie zeigt weiter, dass Datenreihen von Stationen außerhalb von künstlichen Energiequellen/Rückstrahlern, keine Auffälligkeiten bei den Temperaturwerten ausweisen, wie folgende Abbildung links zeigt.

Die Abbildung 5 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Geradezu unverschämt für einen Temperaturvergleich zu bisherigen Temperaturdaten ist die Tatsache, dass zum 01.04.2001 weltweit eine neue Temperaturdatenerfassung mit neuer statistischer Auswertung eingeführt wurde, alt und neu aber in ein und denselben Graphen abgebildet werden und dies auch noch unkommentiert. In 2001 wurden die sog. Mannheimer Temperaturwerteerfassung abgelöst.

In Deutschland wurde bis zum 31.03.2001 um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr (letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte – geht auf den Meteorologen Johann Jakob Hemmer zurück, der erstmalig im 18. Jahrhundert einen weltweiten Standard einführte) gemessen und durch 4 geteilt. In der Schweiz um 7 Uhr, 13 Uhr und 19 Uhr (letzter Wert wird doppelt gewertet) und durch 4 geteilt. In Frankreich wurde nur das Tagesminimum und das Tagesmaximum gemessen und durch 2 geteilt. Und so hatte jedes Land eine andere Methode zur Ermittlung der Durchschnittstemperatur. Alle diese Daten werden jedoch zu einer Globaltemperatur einfach gemittelt, was wissenschaftlich betrachtet bereits ein Husarenstück darstellt. Ab dem 01.04.2001 wird nun stündlich gemessen (wobei auch 4-mal am Tag gemessen werden darf), und die Addition der Werte durch 24 dividiert (bzw. durch 4). Auf Grund des stark asymmetrischen Tagesganges der Temperatur, ergeben sich beim selben Tag andere Tagesmittelwerte, je nach Anwenden der Methode und zwar gehen nach der neuen Methode die Tagesmittelwerte der Temperatur, wegen der geänderten statistischen Auswertung, in die Höhe, wie in Abbildung 6 gezeigt wird.

Wie sehr sich die Temperaturmesswerte ändern, wenn die Datenerfassungszeiten und Datenmengen in der vorgenommenen Art und Weise geändert werden, zeigt sehr anschaulich das folgende Beispiel. Dies war unter (http://home.arcor.de/meino/klimanews/index.html#) im Netz. Nach einer Diskussion des Autors dieses Berichtes mit Prof. Dr. Rahmstorf in 2008 auf KlimaLounge, war der Link einige Tage später vom Netz. Dem Autor liegt das Screenshot dieser jetzt gelöschten Seite (Name: “Bremen und Umland im Bild“) vor, welches in der Anlage (lättern Sie auf Seite 18 und 19 der Anlage arktische Temperaturen Mittelwerte) ersichtlich ist.

 

Die Abbildung 6 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute) wird acht mal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben. Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

So ist denn auch der verbliebene, schwache Temperaturanstieg im 20. Jahrhundert, wie er auf Satellitendaten des UAH (http://climateresearchnews.com/wp-content/uploads/2008/12/uah_lt_since_1979.jpg) zu sehen ist, auf die gesteigerte Sonnenaktivität im 20. Jahrhundert zurückzuführen. Die Max-Planck Gesellschaft titelte am 27. Oktober 2004, “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute“. Die folgende Abbildung zeigt denn auch, wie Sonnenaktivität und Temperatur auf der Erde bis in die heutige Zeit synchron laufen. Die Auswirkungen variabler Sonnenaktivität auf die Temperaturentwicklung bis in die Gegenwart, wurden auf EIKE bereits in zahlreichen Berichten dargelegt, z.B.: (http://www.eike-klima-energie.eu/news-anzeige/warnung-solar-cycle-may-cause-dangerous-global-cooling-in-an-few-years-time/).

Wichtig ist weiter zu wissen, dass es sich beim sog. TSI (Total Solar Irradiance), der üblicherweise zum Beleg der solaren Aktivität herangezogen wird, um eine irreführende Bezeichnung handelt, da nicht, wie die Bezeichnung angibt, die gesamte Strahlung der Sonne abgebildet wird, sondern nur der Teilbereich der Solarstrahlung von 200 nm – 2.000 nm, da die Satellitenmesssysteme nur diese Bandbreite erfassen.

 

Abbildung 7 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center). Siehe auch unter (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/)

Quo vadis Temperatur?

Die NASA, das  Space and Science Research Center (SSRC) in Orlando und mittlerweile einer der bekanntesten deutschen Klimaforscher, Prof. Latif (http://www.eike-klima-energie.eu/news-anzeige/global-cooling-paradigmenwechsel-des-ipcc/) gehen für die nächsten Jahrzehnte von fallenden Temperaturen aus. Grund dafür sind keine Treibhausgase, wie auch nicht für den leichten Temperaturanstieg im 20. Jahrhundert, sondern, die fallende Sonnenaktivität, die ihr Maximum im de Vries/Suess-Zyklus um das Jahr 2003 hatte und bis zum Jahr 2005 hoch blieb. So schrieb der Sonnenforscher der NASA David Hathaway in 2005 (wir erinnern uns noch an die vermeintlichen Hitzetoten, die 2005 Einzug in die Presseberichte nahmen) “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum“ (http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm). Von dieser Seite gab es unter (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html) eine deutsche Übersetzung, wie der Link-Name erkennen lässt – er bezieht sich eindeutig auf den NASA-Artikel.  Auch dieser Artikel wurde kurz nachdem der Autor in einer Diskussion auf KlimaLounge mit Prof. Rahmstorf den solaren Einfluss auf das Klima darlegte, wenige Tage später aus dem Netz genommen. Heute ist dort eine Wettseite zu finden, die in keiner Weise mehr zum Link-Namen passt. Nach diesem kleinen Exkurs zurück, wie sich die Temperaturen, entgegen aller Prognosen des IPCC entwickelten. Die folgende Abbildung gibt dies wieder.

 

Die Abbildung 8 zeigt die fallende Temperaturentwicklung von Januar 2002 bis Februar 2009. Deutlich zu sehen, dass die Temperaturentwicklung entgegengesetzt zu den IPCC-Prognosen verläuft, Quelle: (http://vademecum.brandenberger.eu/themen/klima/ipcc.php#cooling).

Siehe auch unter (http://www.globalresearch.ca/index.php?context=va&aid=10783). 

Derzeit ist die Sonne so inaktiv, wie seit mindestens 200 Jahren, so dass die Temperaturen, wie NASA, SSRC, Latif u.v.m. angeben für die nächsten Jahrzehnte fallen werden. Das Wissenschaftsmagazin Spektrum der Wissenschaft titelte in seiner Ausgabe 02/09 zur globalen Temperaturentwicklung und den IPCC-Prognosen “Kalt erwischt“.

Da die CO2-Konzentration offensichtlich weiter steigt, zumindest geben dies die diversen Messungen auf dem Mauna Loa an, ist ersichtlich, dass eine atmosphärische CO2-Konzentration keine Temperaturen triggert und somit keinen erkennbaren Einfluss auf diese ausübt. Das gegenwärtige trommeln einer drastischen Temperaturerhöhung um 4°C ( siehe z.B. hier) bis 2050, die (zufälligerweise?) doppelt so hoch ausfällt, wie die Postulate der Staats- und Regierungschefs auf dem G8-Treffen im Juli in L’Aquila, Italien, hat denn auch den Anschein, Medien, Journalisten und Öffentlichkeit mit Desinformationen auf Linie zu bringen, um dadurch Druck aufzubauen, dass die Klimakonferenz in Kopenhagen den Weg für weitere Milliardensummen im Klimamarkt freimacht. Wer die Zeche letztendlich zu begleichen hat, führte uns die Finanz- und Wirtschaftskrise vor.

Raimund Leistenschneider (EIKE)

Related Files




Arktisches Eis II: Schwankungen der arktischen Eisbedeckung und wodurch sie ausgelöst werden.

Der Wissenschaftler Prof. Dr. Morison (Polar Science Center – PSC) und sein Team stellten fest, dass es einen unmittelbaren Zusammenhang der arktischen Seeeisbedeckung mit der Arktischen Oszillation (AO) gibt: „The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum.“ Betrachten wir nun explizit die Winter-AO, um eine Prognose erstellen zu können, wie sich die Sommereisschmelze in 2009 entwickeln wird.

Abbildung 1

Die Abbildung (Quelle: NOAA) zeigt den Winter AO-Index für die Jahre 1950 – 2008 (letzter roter Balken). Es ist deutlich erkennbar, dass die AO sich in einer ausgeprägten Warmphase befindet.  Der 2007-Wert (vorletzter Balken) veranlasste Prof. Dr. Morison zu seiner o.a. Aussage. Da der 2008-Wert nicht signifikant anders aussieht, ist auch in 2009 von einem deutlichen Rückgang der arktischen Sommermeereisbedeckung auszugehen, zumal auch die AMO (Atlantic Multidecadal Oscillation) noch positiv ist, wodurch die Wassertempe-raturen vergleichsweise hoch bleiben. Die AMO ist ein Maß für die Wasseroberflächentemperatur im Atlantik. Da es sich bei der arktischen Seeeisbedeckung um schwimmendes Eis handelt, ist klar, dass vergleichsweise hohe Wassertemperaturen eine Sommereisschmelze begünstigen.

Wie sehr die AMO in Relation zur Eisbedeckung auf der Nordhalbkugel steht, geht überdeutlich aus der folgenden Abbildung hervor.

Abbildung 2

Die Abbildung (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und, dass es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

Die AMO befindet sich derzeit in einer ausgeprägten zyklischen Warmphase, was zusammen mit der Warmphase der AO, die Sommereisschmelze in 2009 weiter begünstigen wird. Da die AMO keinerlei Korrelation mit dem CO2-Atmosphärenpegel aufweist, muss nach einem anderen Zusammenhang gesucht werden. Ihr zyklisches Verhalten deutet auf natürliche Ursachen hin. Hier bietet sich geradewegs die zyklische solare Aktivität an.

Abbildung 3

Die Abbildung links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Mete-orological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.

Ich möchte Ihnen noch weitere Abbildungen zeigen, die die Abhängigkeit der AMO von der Sonnenaktivität belegen. Die folgende Abbildung zeigt oben die NAO im Zeitraum von 1973 bis 2002. Darunter das elektrische Feld (E) des Sonnenwinds. Als dritten Graph den planetary magnetospheric Kp-Index und den dynamischen Druck (P) des Sonnenwindes, Quelle: Lund-University, Schweden (http://sunspot.lund.irf.se/nao1.html). Der Kp-Index ist eine Maßgröße für die geomagnetische Sonnenaktivität, die aus den Daten von 13 weltweiten Observatorien bestimmt wird. Der Kp-Index geht zurück auf Prof. Julius Bartels, der ihn 1949 entwickelte.

Abbildung 4

Es ist ein deutlicher Zusammenhang zwischen dem NAO-Verlauf und den verschiedenen Sonnenaktivitätsparametern festzustellen. Dies zeigt auch die folgende Abbildung. Sie stammt aus der Arbeit “Solar Wind Variations Related to Fluctuations of the North Atlantic Oscillation“ von Fredrik Boberg (Lund Observatorium, Schweden), Henrik Lundstedt (Swedish Institute of Space Physics).

Abbildung 5

Die Abbildung zeigt oben die Gruppe der Sonnenflecken (RG) für 33 Sonnenzyklen, vom Zyklus -12 bis Zyklus 20 und darunter die Stärke der positiven NAO, Quelle: (http://sunspot.lund.irf.se/NAO_article1.pdf). Es ist unschwer in beiden Diagrammen das gleiche Muster erkennbar.

Es ist somit ersichtlich, dass die AMO von der Sonne moderiert wird und mit ihr die arktische Seeeisentwicklung. Da die AMO durch die starke Sonnenaktivität bis 2003 in ihre positive Warmphase gebracht wurde, in der sie, da Wasser bekanntlich eine hohe Wärmekapazität hat und damit träge reagiert, noch ein paar Jahre bleiben wird.

Dass die arktische Sommereisschmelze kein bedrohliches Ereignis sein kann, geht übrigens aus dem sog. archimedischen Prinzip hervor. Schmilzt schwimmendes Eis, so ändert sich dadurch der Wasserpegel um keinen Millimeter, wie die folgende Abbildung zeigt.

 

Abbildung 6

Nach diesem kleinen Exkurs, zurück zu den Arbeiten von Prof. Morison über die arktische Eisschmelze. Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt der arktischen See seit 2002 deutlich geändert hat (folgende Abbildung links).

Abbildung 7

Die Abbildung links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt).

Zu diesem Chart habe ich Ihnen, die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahre vergleichsweise hoch ausfiel, Quelle: NASA, zum Vergleich herangezogen. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h., dass die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

Wir alle kennen diesen Effekt in der Wintersaison, wenn der Gefrierpunkt von Schnee durch das Ausbringen von Salz auf die Straße herabgesetzt wird und dadurch der Schnee/das Eis auch bei Minustemperaturen bereits schmilzt. Noch etwas möchte ich Ihnen nicht vorenthalten.

Jeder Interessierte kennt wohl die beiden folgenden Abbildungen.

Abbildung 8

Die linke Abbildung zeigt die arktische Eisbedeckung im September 1979, unmittelbar nach der Kälteperiode der 1960- und 1970-Jahre, als alle Welt von der vermeintlich drohenden Eiszeit sprach (http://scottthong.files.wordpress.com/2007/03/newsweek1975globalcooling.JPG). Die rechte Abbildung dazu im Vergleich, die arktische Eisbedeckung im September 2005.

Wie bereits gezeigt, ist der Eisrückgang auf Veränderungen im Salzgehalt zurückzuführen und in der Fläche besonders in den Eismeerbereiche vor der russischen Küste zu sehen. Hier ist in der Tat ein deutlicher Rückgang in der Fläche zu sehen, was die beiden Aufnahmen zeigen. Ich habe daher die Aufnahmen näher betrachtet und als Orientierung zu den Küstenbereichen (zum Vergleichen) Flächen markiert.

Abbildung 9

Es ist erkennbar, dass bereits 1979 vor der Einmündung des sibirischen Flusses Lena, eine Ausbuchtung in der Eisbedeckung und damit eine verstärkte Eisschmelze zu beobachten ist. Diese hat sich bis zum Jahr 2005 noch weiter ausgeprägt (rechte Abbildung). Die Eisrückgangsflächen A1, A3, A4 liegen im Flachwasserbereich, was die These, eine Erwärmung hätte dies einzig verursacht, stützt. Wir alle wissen z.B., dass sich eine geringe Wassermenge schneller erhitzen lässt, als ein große. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eisfläche ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe (folgende Abbildung). Aufgrund der thermischen Trägheit und der physik. Wärmekapazität müsste sich eigentlich die Wärme verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall. Es kann demnach mit dem alleinigen Postulat, eine Erwärmung wäre für den Eisrückgang verantwortlich, etwas nicht stimmen.

Abbildung 10

Prof. Morison hat zweifelsfrei festgestellt, dass sich durch zyklisch veränderte Meeresströmungen der Salzgehalt im arktischen Meer verändert hat. Die Gebiete, die eine Zunahme der Salzkonzentration zeigen, korrelieren stark mit den Eisrückzugsgebieten. Es kommt offensichtlich noch eine weitere Komponente, der Schadstoffeintrag über die sibirischen Flüsse hinzu. Schadstoffe verteilen sich vorrangig in der Oberfläche und verstärken dort die Eisschmelze. Wir alle wissen aus Tankerhavarien, dass sich Schadstoffe auf Grund der geringeren chemischen Reaktion in kaltem Wasser dort länger halten und es zu einer Akkumulation kommt. So gelangen über die sibirischen Flüsse jedes Jahr über 4.000 km3 Wasser und mit diesem, gewaltige Schadstoffmengen ins Polarmeer. So senkt z.B. das natürliche Frostschutzmittel Ammoniak (Ammoniak ist eines der wichtigsten und häufigsten Produkte der chemischen Industrie. Es dient als Ausgangsstoff für Stickstoffdünger, aber auch zur Sprengstoffproduktion) den Gefrierpunkt von Wasser ganz erheblich.

Anhand der geschilderten Zusammenhänge möchte ich eine Prognose zur Entwicklung der arktischen Eisbedeckung für die nächsten Jahre abgeben.

Fazit für 2009: Sowohl der noch erhöhte Salzgehalt in den vorrangigen Schmelzregionen, die positive AMO und der hohe Winter-AO-Wert für 2008 werden auch in 2009 die Eisflächen im Sommer deutlich schmelzen lassen, wodurch auch (noch) 2009 eine deutliche Eisschmelze beobachtet wird.

Fazit bis 2015: Der geschilderte Dekadenzyklus und der Rückgang in der Sonnenaktivität werden die Meeresströmungen im Polarmeer wieder ändern, dadurch den Salzgehalt verringern, sowie die AO in die Kaltphase überführen. Da die AMO weiter in einer (abgeschwächten) Warmphase bleibt, wird die Eisschmelze zwar rückläufig ausfallen, aber die Eisbedeckung nicht die Ausmaße von 1979 erreichen.

Fazit ab 2015: Mit weiterer zurückgehender Sonnenaktivität (siehe S. 217 – S. 266) wird auch die AMO in ihre zyklische Kaltphase wechseln und die Eisbedeckung, vor allem im Sommer, weiter zunehmen. Die Werte von 1979 werden dabei deutlich überschritten werden, da mit dem fallenden 208-jährigen de Vries/Suess-Zyklus der Sonne (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/) und dem Minimum im Gleißberg-Zyklus, der den 11-jährigen Schwabe-Zyklus der Sonne moderiert, die Sonne vergleichsweise inaktiv bleibt und die Temperaturen weiter fallen lässt. Land- und Seetemperaturen werden dann, aufgrund der Wärmekapazität des Wassers, synchron zur Sonnenaktivität laufen. Derzeit ist noch von der Energie, die die Meere durch die aktive Sonne im ausgehenden 20.- und zu Beginn des 21. Jahrhunderts erhielten, in den Meeren gespeichert.

Zum arktischen Eisrückgang noch ein dramatischer Bericht der der Royal Society:

In den Regionen um den Polarkreis hat ein bemerkenswerter Klimawechsel stattgefunden. […] Mehr als 2.000 Quadratmeilen Eisfläche zwischen 74 und 80 Grad nördlicher Breite, die bislang die Grönlandsee bedeckten, sind in den letzten zwei Jahren vollkommen verschwunden […]

Die Kälte, die das Gebiet der Arktis über Jahrhunderte in einen undurchdringlichen Eispanzer verwandelt habe, sei offenbar in kürzester Zeit höheren Temperaturen gewichen. Auch in Zentraleuropa gibt es alarmierende Zeichen für eine rasche Klimaerwärmung:

“Alle Flüsse, die im Hochgebirge entspringen, haben aufgrund der abgetauten Schnee- und Gletscherwasser weite Regionen überschwemmt….”

Die britische Royal Society empfiehlt dringend die Entsendung von Schiffen, um den dramatischen Klimaumschwung im Nordmeer zu erforschen…

Obiger Bericht der Royal Society stammt vom 20. November 1817.

Einen Überblick über die arktische (und antarktische) Eisbedeckung liefert der folgende Link: (http://arctic.atmos.uiuc.edu/cryosphere/).

R. Leistenschneider

Den ganzen Bericht können Sie auch als pdf Datei herunterladen

Related Files