Gletscherrückgang in den Alpen – Außergewöhnliche Bedrohung oder natürliche Schwankung?

Wer kennt sie nicht, die Meldungen und Hiobsbotschaften über die alpinen Gletscherrückgänge, wodurch ganze Ökosysteme vom Untergang bedroht wären, die Wasserversorgung von abertausenden von Menschen in Frage gestellt wird und dem Touristikzweig der Wirtschaft, den Garaus machen würde. Meist wird als Vergleich des Gletscherrückgangs die Gletscherausdehnung von 1850, oder 1970 herangezogen (wenn, wie bei den Himalaya-Gletschern traurige Gewissheit wurde, nicht gänzlich schlampig gearbeitet wird). Dies nicht ohne Grund. 1850 lag am Ende der kältesten Epoche der letzten 2.000 Jahre, die in der Wissenschaft unter dem Namen “Kleine Eiszeit“ bekannt ist. Sie begann im 15. Jahrhundert und dauerte bis zur Mitte des 19. Jahrhunderts. Für unser kulturelles Leben hat sie eine Vielzahl von Highlights in der Dichtung (Fallersleben), Malerei (Bruegel) und Musik hervorgebracht. So verdankt die Außergewöhnlichkeit der Stradivarigeige der “Kleinen Eiszeit“ ihre Existenz. Aufgrund der kalten Jahreszeiten hatte das Holz eine andere Wachstumscharakteristik, was ihm andere Eigenschaften verlieh und den Musikinstrumenten ihre Einzigartigkeit gab. Da heute dieses Holz nicht mehr in der gleichen Art wächst, lässt sich eine Stradivarigeige auch nicht nachbauen.

Die Abbildung 1 zeigt exemplarisch zwei Gemälde, in denen die Künstler die Kleine Eiszeit festhielten.

 

„Winterlandschaft“, Pieter Bruegel der Ältere 1565 und rechts, A. Hondius, Thames-1677, London Museum

Zurück zur Gegenwart, die folgende Abbildung zeigt den alpinen Gletscherrückgang, bezogen auf die Vergleichsjahre 1850 und 1970. Es ist schon bemerkenswert, mit welchen Tricks vorgegangen wird, um eine überproportionale Gletscherschmelze zu belegen. Wie bereits geschildert, lag 1850 maximale Eisentwicklung für die letzten Jahrtausende vor und auch 1970 lag in einer Kaltphase mit ausgiebiger Gletscherentwicklung, wie die Abbildung 3 belegt. Die Älteren unserer Leser kennen noch aus den 1970-Jahren den wissenschaftlichen und politischen Wirbel um die anstehende drohende Eiszeit. Sie haben richtig gehört, damals glaubte Politik, Wissenschaft und Medien (http://www.mcculloughsite.net/stingray/photos/the_cooling_world_newsweek_2-thumb-500×646.jpg) nicht an eine drohende Erwärmung, sondern an eine drohende Eiszeit für die nächsten Jahrzehnte und teilweise die selben Wissenschaftler, die heute die Tageszeitungen mit ihren Horrorszenarien schmücken, warnten damals vor der drohenden Eiszeit.

Die Abbildung 2 zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006.

Anmerkung:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war auf dem Höhepunkt der Nacheiszeit (Holozän) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark.

Und dazu die Temperaturentwicklung der letzten 1.100 Jahre.

Die Abbildung 3 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt nach Sunday Telegraph (Lord Christopher Monckton) vom 05.11.2006.

Die Schwankungen der Temperatur lassen erwarten, dass auch die alpine Gletscherentwicklung zyklischen, natürlichen Schwankungen unterliegt und genau dies, hat der Gletscherforscher, Prof. Slupetzky (Uni Salzburg) durch seine Untersuchungen der österreichischen Gletscher herausgefunden, was die Abbildung 4 belegt. Zu dessen Untersuchungsergebnis habe ich Ihnen die zyklischen Schwankungen der AMO (Atlantic Multidecadal Oscillation), einer Schwankung der atlantischen Oberflächentemperaturen, durch die unser Wetter in Mitteleuropa maßgeblich bestimmt wird, weil sie u.a. die Verdunstungsrate über dem Atlantik und den Energietransport bestimmt, aufgetragen, sowie die atmosphärische CO2-Entwicklung nach Mauna Loa.

Die Abbildung 4 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß*) folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

*) Bevor hier anhand einzelner Gletscher eingewendet wird, diese wären seit 100 Jahren kontinuierlich geschrumpft – alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D < 1km

Die Gletscher Kategorie D sind relativ stationär. Es gibt zwar Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode ab dem Ende der Kleinen Eiszeit um 1850 eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen.

Die Abbildung 5 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses gar noch stärker als heute). Der heutige Rückzug begann um 1850.

Zurück zur Abbildung 4

Da die AMO in direkter Weise von der Sonnenaktivität abhängt, ist es nicht verwunderlich, dass die alpine Gletscherentwicklung der Intensität der Sonneneinstrahlung folgt. Zu diesem Ergebnis kamen Forscher der ETH Zürich, die die Arbeiten von Prof. Slupetzky, 2005 untermauern (http://www.ethlife.ethz.ch/archive_articles/091214_gletscherschwund_su). “Rasante Gletscherschmelze in den 1940ern“. Die Untersuchungen zeigen, dass in den 1940-Jahren die Schweizer Gletscher stärker schmolzen, als dies gegenwärtig der Fall ist. Als Datenquelle dienten den Forschern die seit fast 100 Jahren (die Messungen begannen im Jahr 1914) vorliegenden durchgehenden Messungen an den Gletschern, Claridenfirn, Großer Aletsch und dem Silvretta.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, die die vorherige Abbildung zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von ca. 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ und in Stockholm. Es war demnach in weiteren Teilen Europas eine erhöhte Solarstrahlung zu messen.

Die Abbildung 6 (http://wattsupwiththat.com/2009/06/) zeigt die bodennahe solare Einstrahlung in Stockholm seit 1923. Die blaue Linie die geglättete 5-Jahreskurve.

Die Abbildung 7 zeigt die Änderung der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ seit 1940. Der Rückgang ist verbunden mit der Phase des Global Cooling und der Wiederanstieg in den 1980-Jahren mit dem Anstieg der bodennahen Temperaturen. Seit 1980, dem Zeitpunkt, als die Temperaturen zu steigen begannen, ist demnach ein 10%iger-Anstieg der Globalstrahlung zu verzeichnen.

Anhand der Abbildung 8 möchte ich Ihnen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre zeigen.

Die Abbildung 8 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün hinterlegt) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar, was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 4, übereinstimmt. Die Abbildung 8 rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die globalen Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

In der Abbildung 8 rechts ist darüber hinaus die Epoche des Global Cooling (rot umrundet) festgehalten – Anstieg der Aerosolpartikel (vorrangig SO2 und Rußpartikel) mit deutlich zurückgehender Sonnenaktivität – einem schwachen solaren 20. Zyklus. Auch in der Phase des Global Cooling, die Prof. Stern in die Zeitspanne von 1940 – 1980 definierte, wurde der Abkühlung durch die beiden starken solaren Zyklen 18 und 19, gegen Ende der 1940- und 1950-Jahre gegen gewirkt, wie die Abbildung 9 zeigt.

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Tempe

raturkurve bis zum Ende des 20. Jahrhunderts, nach den Daten von Briffa, in der archivierten und publizierten (abgeschnittenen) ­Version (schwarz) und der komplette Datensatz (rot). Es ist die Temperaturreihe, die durch die Manipulationen von Jones (Climategate) Berühmtheit erlangte. Hier in der ungekürzten Fassung. Man erkennt deutlich den Temperaturrückgang, der versteckt werden sollte, Quelle: Rudolf Kipp – EIKE. Deutlich ist erkennbar, dass die starken solaren Zyklen 18 und 19 (blaue Linien, vgl. mit Abbildung 7 links) einen Temperaturpeak nach oben auslösten und dem um ca. 1940 beginnenden Rückgang der Temperaturen entgegenwirkten.

Auch hier, wie beim Temperaturanstieg mit der verbundenen Gletscherschmelze, setzte der Temperaturrückgang erst in Verbindung mit der Sonnenaktivität ein und zwar mit der deutlich nachlassenden Sonnenaktivität im 20. Sonnenzyklus, als in den 1970-Jahren das Gespenst der drohenden Eiszeit umherging und dieselben Forscher, die seinerzeit grandios danebenlagen, wie z.B. Prof. Stephen Schneider (Schneider S. & Rasool S., „Atmospheric Carbon Dioxide and Aerosols – Effects of Large Increases on Global Climate“, Science, vol.173, 9 July 1971, p.138-141), heute einer der einflussreichsten IPCC-Leadautoren, die passend zur solaren Temperaturentwicklung, wieder die abenteuerlichsten Hypothesen aufstellen, diesmal in Verbindung mit anthropogenen Treibhausgasen, die eine Erwärmung herbeiführen würden. Seinerzeit gingen die Herren der These nach, es gäbe eine globale Abkühlung – es drohe eine kommende Eiszeit!

Erst als die solare Aktivität in den 1960-Jahren zurückging und in den 1970-Jahren niedrig blieb, „rauschten“ die Temperaturen deutlich in den Keller, um mit Beginn der solaren Aktivität um 1980 (hoher 21. Sonnenzyklus), erneut anzusteigen. Wie wir heute wissen, dauerte der Temperaturanstieg bis ca. 2003, synchron zur solaren Aktivität. In 2003 hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum (http://wetterjournal.wordpress.com/2009/07/14/). Die Presse war seinerzeit voll mit Meldungen über sog. Hitzetote.

Einige werden einwenden, dass anhand einschlägiger Sonnenaktivitätskurven die Sonnenaktivität in den letzten 30 Jahren nicht zugenommen hätte. Dies ist jedoch falsch. So meldete z.B. die Max Planck-Gesellschaft in 2004 “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute.“ Für die solare Aktivität wird international meist der sog. TSI (Total Solar Irradiance) herangezogen (Abbildung 10).

Die Abbildung 10 zeigt den TSI im Zeitraum 1979 bis Januar 2010 (Quelle: http://www.pmodwrc.ch/pmod.php?topic=tsi/composite/SolarConstant). In der Zeile oben sind die verschiedenen Messsysteme, mit denen der TSI aufgenommen wird (wurde) genannt. So steht z.B. ACRIM für Active Cavity Radiometer Irradiance Monitor. Es ist zu sehen, dass im Messbereich des TSI keine Aktivitätssteigerung der Sonne im Betrachtungszeitraum erkennbar ist, wohl aber in der Abbildung 11 und der Abbildung 8 links.

Beim TSI handelt es sich denn auch um eine Mogelpackung, bzw. um eine irreführende Bezeichnung, da das Messsystem des Satelliten, mit dem der TSI aufgenommen wird, lediglich den Wellenlängenbereich des solaren Energiespektrums von 200 nm – 2.000 nm, also UVB – Infrarot aufnimmt (dafür sensibilisiert ist). Von “Tatal“ kann also keine Rede sein! Der überwiegende spektrale Sonnenanteil wird gar nicht aufgezeichnet, insbesondere nicht der Anteil, der zwischen solarem Minimum und solarem Maximum am meisten variiert. So variiert die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*) Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen, sondern am 14C-Gehalt der Pflanzen (Abbildung 11).

Die Abbildung 11 zeigt über die letzten 1.200 Jahre den de Vries/Suess-Zyklus und die mittelalterliche Warmperiode, sowie die Kleine Eiszeit mit dem Wolf- Spörer- und Maunder-Minimum, Quelle: (http://www.co2science.org/articles/V11/N23/EDIT.php).

In der Abbildung 12 habe ich Ihnen die Maxima im de Vries/Suess-Zyklus zu der aus 14C gewonnenen Proxy-Temperaturkurve eingetragen.

Die Abbildung 12 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden fallen jeweils mit dem Maximum des de Vries/Suess-Zyklus zusammen und die Kälteperioden, wie z.B. das Spörer Minimum mit dessen Minimum.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abbildung 13 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 13, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft noch klarer war, bleibt für den Gletscherrückgang in den 1940-Jahren einzig (in Bezug der davor herrschenden Gletscherausdehnung) die starke solare Aktivität übrig, sowie wir dies bis zu den letzten Jahren ebenfalls hatten.

Wie bereits eingangs erwähnt, waren die Alpen in früheren Jahren weitgehend eisfrei. Dies belegen Holzfunde in heutigen Gletscherregionen der Alpen von Dr. Christian Schlüchter. Dr. Schlüchter ist Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da es Bäume und insbesondere ein Moor nur an Stellen gegeben haben kann, wo kein dauerhaftes Eis vorhanden ist und die Baumgrenze deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten Jahrtausenden etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: “Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Es war die Zeit des römischen Klimaoptimums. Die Abbildung 14 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

 

Die Abbildung 14 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, Grüne Alpen statt ewiges Eis“, 14.02.2005 (http://archiv.ethlife.ethz.ch/articles/tages/gruenealpen.html). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Anhand der Abbildung 15 wird deutlich, dass die Torf- und Holzfunde mit der Temperaturentwicklung im Holozän (bezeichnet die Zeitspanne seit ca. 11.000 Jahren, kleine Abbildung) synchron verlaufen und es Zeiten gab, in denen es wesentlich wärmer war als heute, Quelle: (http://klimakatastrophe.files.wordpress.com/2008/09/gletscherfunde2.jpg) nach Joerin et al. 2006 (Uni Bern).

Die beiden folgenden Bilder in der Abbildung 16 zeigen, wie ein Alpendorf im 19. Jahrhundert von sich ausbreitenden Eismassen begraben wird, dass Klima davor also zyklisch milder war (vgl. mit Abbildung 4), Quelle: ZDF, „Klima – Das Risiko“, Joachim Bublath, 22.10.2003 (http://www.solarresearch.org/zdf_bublath_20031022.htm).

 

Zusammenfassend ist festzustellen, dass der heutige Gletscherrückgang in den Alpen nichts Außergewöhnliches darstellt und die Gletscherentwicklung zyklischen Phasen unterliegt, die von der Sonne gesteuert werden. Ein Einfluss von Treibhausgasen wie z.B. CO2 oder menschliche Einflüsse sind nicht vorhanden.

Raimund Leistenschneider – EIKE

Related Files




ClimateGate 20: Auch Herr Schellnhuber wusste von nichts….

Video 3-Sat Zusammenfassung eines Interviews mit Prof. Dr. Schellnhuber z.T. Verschwinden der Himalya Gletscher. Aufgezeichnet von Solarkritik

Dabei spielt der deutsche Multi-Funktionär und politische Kader-Schmied Schellnhuber in IPCC- und Climategate-Kreisen eine herausragende Rolle. Sollte er tatsächlich nicht gemerkt haben, dass Hiobsbotschaften über das baldige Verschwinden der Himalaya-Gletscher auf einem reinen Gerücht basierten? Wenn das so sein sollte, so wirft das kein gutes Licht auf die Forschung, die da angeblich in Potsdam betrieben wird. Fest steht jedenfalls, dass Schellnhuber sich das Himalaya-Märchen begeistert zu eigen machte. Zitat: ”Wir sind in der Lage, mit Modellen zu erkennen, dass bei fortschreitender Erwärmung in 100 Jahren alle Himalaya-Gletscher verschwunden sein dürften.” *

Welche Modelle sollen das denn sein? Diese Berechnungen würde man jetzt mal gerne sehen. Wie sich inzwischen herausgestellt hat, ist es für Glaziologen auf den ersten Blick völlig ausgeschlossen, das so etwas passiert. Danke an den Kollegen Rolf Degen für den Hinweis auf das Zitat.

Aus ACHGUT von Dirk Maxeiner

* Diese Aussage unterstützt der forsche Forscher Schellnhuber kürzlich im Bayerischen Rundfunk (BR5) und schiebt dieses "katastrophale" Abschmelzen auf den Rußausstoss chinesischer Kohle-Kraftwerke. Siehe Audiodatei im Anhang

Was es mit den Fähigkeiten zu wissenschaftlicher Arbeit des Prof. Schellnhuber noch so auf sich hat sehen Sie hier!

Lesen Sie auch weitere Details zum Werdegang der Himalya Gletscher Ente hier

Related Files




Ökostromnetz in der Nordsee – Innovation auf dem Strommarkt ?

Die Windleistungseinspeisung lag insgesamt im Jahr 2009 zwischen 70 MW und 22.000 MW;  d.h. im Schnitt bei 1.750 Volllaststunden. Da auch auf der Nordsee manchmal Flaute herrscht oder  bei Orkanböen die Anlagen aus Sicherheitsgründen außer Betrieb genommen werden müssen, muss  bei ungeminderter Versorgungssicherheit nahezu die gesamte Leistung durch konservative 

Kraftwerke abgesichert werden. Demnach sind für die unsteten Leistungen auf See zusätzlich  rd. 20 Kernkraftwerke oder 40 Kohle-/GUD-Kraftwerke oder 80 Gaskraftwerke oder einige hundert Biomassekraftwerke als Schattenkraftwerke in betriebsbereitem Zustand erforderlich. 

Dafür wird in der Nordsee gewühlt, um auf dem Meeresgrund und im Schutz der UNESCO  stehendem Wattenmeer für rd. 30 Mrd. Euro Kabel zu verlegen. Hier wird es aber komplizierter als  von den Politikern gedacht. Vor allem weil die Superleitungen mit der so genannten Hochspannungs -Gleichstromübertragungstechnik (HGÜ) arbeiten, werden aufwendige Umspannwerke benötigt, um die in Europa üblichen Wechselströme in die verschiedenen Spannungen umzuwandeln. Die Stromleitungen in den beteiligten Ländern haben auch unterschiedliche Frequenzen. Viel mehr werden neue Überlandleitungen benötigt, um die wachsenden Strommengen der Wind- Industrieanlagen in Norddeutschland in die großen Verbraucherzentren im Süden und Westen des Landes zu transportieren. 

2014 soll in England die staatliche Subventionierung auslaufen, schreibt die WiWo. Bleibt sie nicht erhalten, droht die Spannung aus dem Megaprojekt zu entweichen. Wird dann die Windkrafteuphorie nur noch eine Fußnote der europäischen Wirtschaftgeschichte sein ? 

Weder die Energiewirtschaft noch unsere Politiker sagen uns Verbrauchern, was das alles uns eines Tages kosten wird. Wir haben schon heute zu viel Strom und um ihn loszuwerden müssen wir draufzahlen. D.h. der Verbraucher muss jetzt schon einmal für die Erzeugung – und dann noch einmal für die Entsorgung der Überproduktion bezahlen. 

Ein Irrsinn ! Mit Innovation hat nicht speicherbare (Sonnen + Wind-) Energie nichts zu tun; hier wird der Verbraucher vorsätzlich und bewusst  „verschaukelt“. Aus gesellschaftspolitischer wie aus Wirtschaftspolitischer Sicht ist die schwarz/gelbe Regierung eher eine sozial/liberale Koalition. Der Wähler hat das nicht gewollt. 

VGL Verband für Gesundheits- & Landschaftsschutz e.V.




ClimateGate 19: Sind auch die Temperaturdaten der USA gefälscht?

Das Ergebnis seiner Analysen ist dann auch eindeutig nicht dazu geeignet, uns in Sicherheit zu wiegen. Ganz im Gegenteil. In der am letzten Donnerstag veröffentlichten Presseerklärung heißt es, dass 2009 das bisher zweitwärmste Jahr seit Beginn der Temperaturaufzeichnung sei. Wärmer wäre nur 2005 gewesen. Auch sei das vergangene Jahrzehnt das bislang wärmste seit Beginn der regelmäßigen Messungen.

GISS-Direktor Hansen will auch trotz der seit etwa 10 Jahren stagnierenden bis fallenden Globaltemperaturen nichts von einem Stoppen der Erderwärmung wissen. Schließlich genügt bereits ein einfacher statistischer Trick, um diese Phase aus den Daten verschwinden zu lassen:

“Wenn wir die Temperatur über 5 oder 10 Jahre mitteln, um die Variabilität zu minimieren, finden wir dass die globale Erwärmung unvermindert weitergeht.”

“When we average temperature over five or ten years to minimize that variability, we find global warming is continuing unabated.”

Wobei man erwähnen muss, dass die Analyse des GISS sich nicht mit denen anderer Institute deckt. So war das vergangene Jahr nach Daten des National Climate Data Centers (DCDC) das 5.-wärmste. Die Satellitenmessungen von UAH und RSS sahen 2009 nur auf Rang 6 beziehungsweise Rang 7. Daher mag man sich fragen, woher diese Unterschiede stammen, und wie verlässlich die Methoden zur Ermittlung der Globaltemperatur überhaupt sind.

Genau diese Frage haben sich in den USA ein Computerprogrammierer und ein zertifizierter Meteorologe auch gestellt. Über deren Ergebnisse berichtete der US-Wettermann John Coleman in seiner bemerkenswerten Sondersendung “Global Warming: The Other Side“. Sehen Sie hier den vierten Teil der Reportage mit deutschen Untertiteln:

Global Warming: The Other Side – Teil 4 from Science Skeptical on Vimeo.

Die Vorwürfe der beiden GISS-Kritiker, des Programmierers E. Michael Smith und des Meteorologen Josph D’Aleo, lassen sich in vier Punkten zusammenfassen.

  1. Die Computerprogramme zur Berechnung der Durchschnittstemperaturen wurden massiv verändert. Dadurch ist das Endergebnis nicht mehr der Durchschnitt von wirklichen Temperaturen an realen Orten. Stattdessen nutzen die Forscher Daten von Orten, die hunderte Kilometer entfernt sein können und wenden sie auf ein anderes Gebiet an.
  2. Die Anzahl der Messstationen ist dramatisch reduziert worden, von etwa 6000 bis in die späten 80er Jahre auf heute etwas mehr als 1000.
  3. Dabei sind vor allem solche Stationen eliminiert worden, die in kühleren Gegenden, in höheren Breiten oder höheren Höhen lagen, also solche, deren Temperatur niedriger ist.
  4. Die Temperaturen selbst wurden durch sogenannte Homogenisierung verändert, einem Prozess, der fast ausschließlich zu höheren Temperaturen zu führen scheint.

Joseph D’Aleo hat eine ausführliche Analyse der Ergebnisse seiner Studien zusammengestellt. Sie können sie auf seiner Homepage Icecap.us herunterladen. Weiters Details dazu bringt die kanadische National Post hier. Eine sehr guten Artikel über Klimagate von Joseph D’Aleo finden Sie hier.

In dem äußerst empfehlenswerten Blog von E. Michael Smith gibt es viele weiter Details zu den Methoden, mit denen die Nasa die Temperaturdaten auf Erwärmung trimmt.

In den deutschen Medien hat dieser Skandal bisher kaum stattgefunden. Lediglich beim immer gut und aktuell informierenden Dirk Maxeiner auf der Achse des Guten und im Zeit-Leserartikel-Blog von “Schneefan” wurde bisher darüber berichtet.

Die Ergebnisse der Studien von Smith und D’Aleo sind zu umfangreich, um sie hier in wenigen Worten hinreichend zu behandeln. Wir werden daher in den nächsten Tagen einen mehr detaillierten Artikel zu der Affäre um die Temperaturdaten der Nasa schreiben. Bis dahin möchten wir Ihnen die Empfehlung von US-Wettermann und Begründer des “Weather Chanel”, John Coleman, mit auf den Weg geben: :

“Wenn Sie eine Nachricht hören, dass herausgefunden wurde, dass ein bestimmter Monat oder eine Jahreszeit die wärmste in der Geschichte war,  oder dass fünf der wärmsten Jahre seit Beginn der Aufzeichnung im letzten Jahrzehnt lagen – glauben Sie es nicht.”

 Rudolf Kipp (zuerst erschienen in Science Sceptipal Blog)

Nachtrag: Gerade berichtet die Welt:

UMWELTPROGNOSEN

Weltklimarat gerät erneut ins Zwielicht

25. Januar 2010, 10:04 Uhr

Gerade erst musste der UN-Ausschuss peinliche Fehler bei der Prognose zum Abschmelzen der Himalaya-Gletscher eingestehen, da gerät er erneut in Erklärungsnot: Trotz wissenschaftlicher Zweifel hatte er bereits im Jahr 2007 behauptet, dass die steigenden Kosten durch Naturkatastrophen mit dem Klimawandel zusammenhängen. Details hier.…….

ÄHNLICHE BEITRÄGE (BETA):




ClimateGate 18: Die Probleme in den Modellen zur globalen Erwärmung!

So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.

Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.

Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.

Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben: 

Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.

Hmmm. 

Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.

Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.

Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.

Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?

In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)

Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.

Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.

Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen. 

In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.

Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210  (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.

Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.

Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.

In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?

Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4).  Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.

Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.

Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?

Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.

Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.

Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.

Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.

Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.

So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.

Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.

Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.

Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.

Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.

Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.) 

Was ist zu tun? Alle Computer-Modelle einfach müllen?

Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.

Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.

Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).

Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.

Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.

Unglücklicherweise geschieht das nicht. 

Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.

Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.

John Droz, Jr. ist Naturwissenschaftler und Anwalt. 

Den Originalartikel finden Sie hier: 

Die Übersetzung besorgte Helmut Jäger für EIKE