Rahmstorf vom PIK bestätigt: Anthropogenen Klimawandel gibt es nicht!

 

Tatsächlich liegt lediglich 1% des im Meerwasser befindlichen CO2 als gelöstes CO2 vor. Der übrige Rest ist gebunden, meist als Hydrogencarbonat (91%). Weiter bleibt fraglich, inwieweit solche Megaveranstaltungen wie Mexiko, die große Geldmengen verschlingen, in Anbetracht von Climategate, längst widerlegter Zusammenhänge zwischen Temperatur und CO2, sowie weltweit fallender Temperaturen gegenüber dem Steuerzahler noch verantwortbar sind.

Der prominente amerikanische Physikprofessor Harold Lewis bezeichnet die menschlich verursachte Erderwärmung als den “größten und erfolgreichsten pseudowissenschaftlichen Betrug, den ich während meines langen Lebens gesehen habe.“ In seinem Rücktrittsschreiben an die der Amerikanischen Physikalischen Gesellschaft gewährt er tiefe Einblicke in die Machenschaften einer durch eine “Flut aus Geldern…korrumpierten“ Forschern (Siehe Anmerkung der Redaktion unter * vom 8.8.15), deren einziges Interesse die Jagd nach Forschungsgeldern und Karrieremöglichkeiten ist. Wir möchten nun aufzeigen, dass diese Worte, zumindest teilweise, doch etwas zu hart geraten sind, denn die Gilde der Angesprochenen liefert wenigstens zeitweise auch wissenschaftlich Wertvolles.

EIKE berichtete bereits darüber, dass Prof. Schellnhuber anhand eigener Untersuchungen zu dem Schluss gelangte, dass es keine globale Erwärmung in den letzten Jahrzehnten gab: „J.F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin, and H.-J.Schellnhuber: Power-law persistence and trends in the atmosphere, a detailed study of long temperature records, Phys. Rev. E 68 (2003)“. In dieser Arbeit wurden die Temperaturverläufe von 95 weltweit verteilten Stationen der letzten Jahrzehnte untersucht, wozu es im Summary unmissverständlich heißt “In der weit überwiegenden Mehrheit aller Stationen konnten wir keine Anzeichen für eine globale Erwärmung erkennen“.

Auch sein nicht minder medienbekannter PIK-Kollege, Prof. Rahmstorf, hat durch eigene Untersuchungen im gleichen Jahr bestätigt, dass das heutige Temperaturniveau kühl im Vergleich zu früheren Warmperioden ist. Seine Arbeit (“Timing of abrupt climate change: A precise clock“, Geophys. Res. Lett.. 30, Nr. 10, 2003, S. 1510, doi:10.1029/2003GL017115) beschäftigt sich mit den sog. Dansgaard-Oeschger-Ereignissen (DO-Ereignisse, siehe hier ). Diese beschreiben rasante Klimaschwankungen während der letzten Eiszeitepoche. Zwischen 110.000 und 23.000 BP wurden 23 solcher Ereignisse aus dem GISP-2-Eiskern rekonstruiert. Benannt sind sie nach Prof. Willi Dansgaard und Prof. Hans Oeschger, die sie als erste entdeckten. Die folgende Abbildung zeigt die DO-Ereignisse in der Arbeit von Rahmstorf, 2003.

 

Abbildung 1 zeigt die nummerierten Dansgaard-Oeschger-Ereignisse von 50.000 – 0 Jahre BP, dazu besonders markiert, dass sog. 8k-Ereignis, welches für einen abrupten Kälteeinbruch steht. Die Ursache war ein abruptes Abrutschen sehr großer, gelöster Eismassen in den Nordatlantik. Rechts ist die Lage der Probe (roter Kreis) zu sehen.

Die DO-Ereignisse folgen einem 1.470 Jahre-Zyklus, der auch in Einzelfällen die zwei- oder dreifache Länge erreichen kann, was auf ein Schwingverhalten hindeutet. Die Periodizität fand Prof. Gerard Clark Bond. Darüber hinaus wies er nach, dass die DO-Ereignisse in 5er-Gruppen auftreten, die zwischen 5.000 und 15.000 Jahren liegen. In diesem 1.470-Jahre-Zyklus sind sowohl der bekannte de Vries/Suess-Zyklus der Sonne, als auch der Gleissberg-Zyklus der Sonne abgebildet. Die folgende Abbildung zeigt die Länge der DO-Ereignisse und den Bond-Zyklus (kleine Abbildung, Quelle: http://www.uni-graz.at/~foelsche/VO/Klima_2010/Klima_09_Abrupte_Klimaaenderungen.ppt#302,9,Folie 9).

 

Abbildung 2 zeigt den typischen Temperaturverlauf einiger DO-Ereignisse. Sie beginnen mit einer abrupten Erwärmungsphase, halten ihre Temperatur, um anschließend wieder rapide zu fallen.

So weit zu den DO-Ereignissen. Betrachten wir nun den Temperaturverlauf, der sich aus dem GISP-2-Eiskern ergibt.

 

Abbildung 3 zeigt das aus GISP-2 ermittelte Temperaturprofil von 50.000 BP bis heute und darunter, als Feinauflösung von 7.000 v.Chr. bis heute. Unschwer ist zu erkennen, dass wir, zumindest nach den Untersuchungen von Rahmstorf, heute in einer vergleichweise kalten Zeit leben. Während der mittelalterlichen Warmzeit vor 1.000 Jahren, als die Wikinger das grüne Grönland (daher der Name: Grünland) besiedelten und dort Ackerbau und Viehzucht betreiben konnten, war es ca. 1°C wärmer als heute. Im römischen Klimaoptimum vor ca. 2.000 Jahren, als Hannibal mit seinen Elefanten im Winter! die weitgehend gletscherfreien Alpen überquerte, war es sogar rund 2°C wärmer als heute und im Klimaoptimum des Holozäns vor fast 3.500 Jahren, als sich die Hochkulturen entwickelten, war es sogar ca. 3°C wärmer als heute. Im Anschluss daran gab es vor ca. 3.200 Jahren eine rapide Abkühlung von etwa 2°C.

Untersuchungen des geologischen und paläontologischen Instituts der Uni Bonn, im Auftrag von Dr. Mordechai Stein (University of Israel) anhand von Pollen*) ergaben zweifelsfrei, dass im 13. Jahrhundert v.Chr. eine “dramatische Trockenperiode“ (Prof. Dr. Thomas Litt, Anmerkung: Trockenes Klima bedeutet kälteres Klima) herrschte – es handelt sich also nicht um regionale, auf Grönland beschränkte Ereignisse, wie Abbildung 4 aus einer weiteren Arbeit zeigt.

*)   Die mikroskopisch kleinen Pollen lagern sich im Sediment ab, wo sie lange überdauern. Anhand der Pollenarten und Mengen (die Olivenbaumpolle steht z.B. für feuchtes Klima) lässt sich auf die herrschenden klimatischen Verhältnisse schließen. Die „Jahresringe“ werden durch weißen Verdunstungskalk, der sich im Sommer bildet, abgeschlossen.

 

Abbildung 4 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt die Oberflächentemperatur in der Sargasso-See über die letzten 3.000 Jahre. Auch hier ist deutlich zu sehen, dass die heutigen Temperaturen vergleichsweise niedrig sind.

Abschließend ist festzuhalten, dass die heutigen Temperaturen nichts Außergewöhnliches darstellen, im Vergleich eher unterdurchschnittlich sind und es bereits in jüngster Vergangenheit Epochen gab, in denen es deutlich wärmer war als heute. Den Menschen ging es in Warmzeiten verständlicherweise besser als in Kaltzeiten. Nicht umsonst reisen wir im Sommer nach Spanien und nicht nach Sibirien oder zum Nordpol.

Es bleibt abzuwarten, wann beim PIK die eigenen wissenschaftlichen Erkenntnisse in die tägliche Arbeit einfließen werden und man dort wieder Verbindung zur Realität aufnehmen wird.

Raimund Leistenschneider – EIKE

(*) Hier stand bis zum 8.8.15 eine beleidigende Äußerung des Autors gegenüber alarmistischen Klimaforschern, die weder durch das zuvor gestellte Zitat noch durch die Realität gedeckt war. Wir bedauern diese Entgleisung und entschuldigen uns bei den Kollegen auf die sie gemünzt war. Wir haben sie außerdem gestrichen.




Gibt es einen Zusammenhang zwischen Sonnenfleckenaktivität und Erdbeben-/Vulkantätigkeit?

 

 

 

Um jegliche Sorge vorweg zu nehmen, ich möchte hier unseren Lesern keine solchen Kausalzusammenhänge zumuten, wie dies am vergangenen Donnerstag Frau Illner in Ihrer Talksendung versuchte, als sie einen Zusammenhang zwischen dem aktuellen Deutschlandwetter und der Ölkatastrophe im Golf von Mexiko herstellte durch ihre Fragestellung, ob sich die Natur an uns rächen wolle. Unnötig zu erwähnen, dass Aberglaube nicht zur Tradition unserer abendländischen Kultur gehört, die wir solchen Größen wie Kepler, Kopernikus, Newton und nicht zuletzt Luther zu verdanken haben. Aber zurück zum obigen Thema.

 

Wie sieht es jedoch mit den Einflüssen (Kräften) aus, die die magnetische Tätigkeit der Sonne modulieren, sind diese in der Lage, auch Einfluss auf die tektonische und vulkanische Tätigkeit in der Erde auszuüben und kann daher ein Zusammenhang, also eine Kausalität abgeleitet werden? Einer Beantwortung der Frage, soll sich der Bericht nähern. Sich dieser Fragestellung zu nähern, bedarf zuerst eines Blickes, was die magnetische Aktivität der Sonne antreibt.

 

Wohl jeder hat schon einmal Sonnenflecken entweder selbst (nicht ohne geeigneten Schutz, insbesondere bei Verwendung eines optischen Verstärkers) oder auf Photos betrachtet.

 

Sonnenflecken während des Aktivitätsmaximums in einem 11-jährigen Sonnenzyklus, dem sog. Schwabezyklus und als Größenvergleich die Erde.

 

Sonnenflecken treten in einem Band, nördlich und südlich des Sonnenäquators auf und bilden die Fußpunkte von magnetischen Dipolen (folgende Abbildungen).

 

Die Abbildung zeigt die Verteilung der Sonnenflecken im Zeitraum von 1875 – 2005, Quelle: NASA. Es ist eine deutliche Steigerung in der 2. Hälfte des 20. Jahrhunderts zu verzeichnen, die bis zur Jahrtausendwende anhält!

 

 

Im Bild links sind recht transparent die magnetischen Plasmabögen zu sehen, die sich zwischen Sonnenfleckenpaaren (magn. Süd- und Nordpol ausbilden und Energieinhalte, mit einer Temperatur von bis zu 2 Mio. Kelvin annehmen können). Die im Bild rechts zu sehende Kräuselung der Sonnenoberfläche entsteht dadurch, dass sich die Oberfläche ständig hebt und senkt (pulsiert und dabei Wellen ausbildet), ähnlich der Meeresoberfläche, Quelle: SOHO (Solar and Heliospheric Observatory).

 

Alle 11-Jahre (es handelt sich dabei um einen Mittelwert zwischen 8 und 15 Jahren, der letzte Sonnenzyklus hatte eine Dauer von 14 Jahren und war damit ungewöhnlich lang) wechselt die magnetische Polarität und der Schwabezyklus beginnt erneut. Es dauert also 2 Zyklen, bis die magn. Polarität wieder gleich ist. Dieser Zyklus wird Hale-Zyklus genannt. Diese, einer breiten Öffentlichkeit bekannten Grundzyklen der Sonne sind nur ein Teil der  solaren Aktivitätszyklen. Darüber hinaus gibt es z.B. den Gleißberg-Zyklus, der den Schwabezyklus in seiner Intensität steuert und den magnetischen de Vries-Suess-Zyklus, der als Hauptsonnenzyklus bezeichnet werden kann (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/) (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Dieser hatte in 2003 sein im Mittel 208-jähriges Maximum. Dem Jahr, als Politik und Medien vom Jahrhundertsommer sprachen und im Oktober 2003 in Göttingen Polarlichter zu sehen waren. Der magnetische Hauptsonnenzyklus ist übrigens nicht im sog. TSI (Total Solar Irradiance) abgebildet, da der TSI lediglich den Wellenlängenbereich von 200 nm – 2.000 nm erfasst und die Wellenlängenbereiche der höchsten solaren Variabilität, gar nicht abbildet. Von „Total“ kann also keine Rede sein.

 

Wie sehr der im Mittel 208-jährige de Vries-Suess-Zyklus Einfluss auf das Klimageschehen auf der Erde hat, zeigt exemplarisch die folgende Abbildung.

  

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Zum Verständnis des 11-jährige Sonnenzyklusses, hat der renommierte Astrophysiker H.W. Babcock (Gold Medal of the Royal Astronomical Society) die Dynamotheorie entwickelt:

 

 ·        Zu Beginn des Zyklus vertikale Feldlinien in großer Tiefe.

·        Die differentielle Rotation „wickelt“ die Feldlinien um die Sonne.

·        Die Feldstärke wird dadurch verstärkt.

·        Starke Flussröhren steigen auf und bilden dadurch die Sonnenflecken. Am  Ende des Zyklus neutralisieren sich die am Äquator entgegen gesetzten Felder.

 

Die Basistheorie geht demnach davon aus, dass die Dynamik des magnetischen Sonnenfleckenzyklus von der Rotation der Sonne angetrieben wird. Dabei wird der Eigendrehimpuls berücksichtigt, der an die Rotation der Sonne um ihre Achse anknüpft. Die Rotationsgeschwindigkeit der Sonne ist übrigens nicht konstant. In unregelmäßigen Zeitabständen werden Änderungen der äquatorialen Rotationsgeschwindigkeit der Sonne von mehr als 5% beobachtet (die Sonne rotiert nicht gleichmäßig um ihre Achse), die mit Änderungen der Sonnenaktivität einhergehen. Zu dem Eigendrehimpuls, gibt noch einen weiteren Drehimpuls, den Bahndrehimpuls, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammen hängt. Hierzu hat der Astrophysiker Dr. Landscheidt eine Theorie entwickelt.

 

Die Abbildung zeigt, wie der Masseschwerpunkt des Sonnensystems im Lauf der Jahre wandert. Dies wird durch die räumliche Verteilung der Massen der großen Gasplaneten Jupiter, Saturn, Uranus und Neptun gesteuert. Die kleinen Kreise zeigen den Masseschwerpunkt. Zu sehen sind die relativen ekliptikalen Positionen von Massenzentrum und Sonnenzentrum für die Jahre 1945 – 1995 in heliozentrischer Sicht. Die gelbe Scheibe stellt die Sonne dar. Es ist leicht verständlich, dass sich durch Veränderung des Drehimpulses, der mit der Verlagerung des Massenschwerpunktes einhergeht, die Sonne moduliert wird, was sich in einer veränderten Energieabgabe auswirkt. Die blauen und roten Zahlen stehen jeweils für einen engen Zyklusumlauf. Ergänzt nach Quelle: Dr. Theodor Landscheidt, Schroeter Institute for Research in Cycles of Solar Activity Nova Scotia, Kanada (kleine Photos: NASA).

 

Die Erweiterung zur klassischen Dynamotheorie besteht darin, dass zusätzlich der dyna-mische Bahndrehimpuls berücksichtigt wird, der mit der sehr unregelmäßigen Bahnbewegung der Sonne um das Massenzentrum des Planetensystems zusammenhängt und durch die vier großen Gasplaneten verursacht wird. Der Unterschied zwischen Massezentrum der Sonne selbst (ruhiger Pol) und Massezentrum des Sonnensystems beträgt zwischen 0,01 und 2,19 Sonnenradien. Letztendlich sind es die Gravitationskräfte der großen Gasplaneten, die die magnetische Aktivität der Sonne (mit) anstoßen und deren Varianz verursachen.

 

Das Minimum liegt an, wenn Jupiter auf der einen Seite und Saturn, Uranus und Neptun ihm im Planetenorbit gegenüberstehen. Das Maximum, wenn alle Gasplaneten in Konjunktion stehen. Zwischen diesen Extremen entwickelt sich ein komplexes Schwingungsmuster, was durch die Gravitationskräfte und den Bahndrehimpuls moduliert wird (folgende Abbildung). Der flüssige Sonnenmantel und die oberen Sonnenschichten werden dadurch bildhaft durchgeknetet (es entstehen Fließänderungen), wodurch das magnetische Feld, die magnetische Stärke und die Energieabgabe der Sonne beeinflusst werden. Der Betrag des Bahndrehimpulses zum Eigendrehimpuls der Sonne kann bis zu 25% betragen. Wogegen der Eigendrehimpuls der Sonne relativ stabil ist, kann sich der Bahndrehimpuls auf das 40-fache der Ausgangswerte verändern.

 

 

Die Abbildung zeigt den Verlauf des Masseschwerpunkts des Sonnensystems von 1900 – 2020, Quelle: Solar System Dynamics Group, Jet Propulsion Laboratory Pasadena (http://users.qld.chariot.net.au/~carls/ephemerides/SSB_1900-2019.htm). Deutlich ist eine 20-Jahres-Schwingung erkennbar (Hale-Zyklus hat im Mittel 22,1 Jahre), deren Extrema mit der Aktivität der Sonne im Schwabe-Zyklus korreliert. Auffallend ist weiter, dass 1970 die Schwingung gering ausfiel – der entsprechende Sonnenzyklus (Sonnenzyklen werden durchnummeriert und dieser trägt die Nr. 20) war schwach und 2009 die Schwingung ebenfalls klein ist, was einen schwachen 24. Sonnenzyklus erwarten lässt, zumal beide aus dem Grundmuster herausfallen.

 

Wäre es nun möglich, dass die flüssigen und ebenfalls magnetischen Schichten der Erde, also der Erdmantel, auf dem die Erdplatten „schwimmen“, ähnlichen Einwirkungen der großen Gasplaneten unterliegen, wie dies bei der Sonne, mit ihren flüssigen Schichten der Fall ist? Zumal durch die sog. Milankovi?-Zyklen bekannt ist, dass die großen Gasplaneten, sowohl den Bahnradius der Erde um die Sonne, als auch die Neigung der Erde um ihre Achse verändern, also nachweislich bereits Einfluss auf Erdparameter besitzen.

 

Betrachten wir die Änderung der vulkanischen- und Erdbebentätigkeit über die letzten Jahrzehnte hierzu.

 

 

Die Abbildung links gibt die Anzahl vulkanischer Aktivität >VEI = 1 und größerer Eruptionen für die Jahre 1875 – 2004 an, Quelle: (http://www.michaelmandeville.com/earthchanges/gallery/Quakes/) nach Daten des Smithsonian Instituts “Volcanoes of the World“. Die rechte Abbildung zeigt die Erdbebenaktivität von 1973 – 2004 nach den Daten der U.S. Geological Survey. Beide Datenreihen zeigen zum ausgehenden 20. Jahrhundert einen starken Aktivitätsanstieg.

 

Auffallend ist, dass die Sonnenaktivität im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus ihren Höhepunkt 2003 hatte und diese in der zweiten Hälfte des 20. Jahrhunderts stark anstieg, wie die folgende Abbildung zeigt.

 

Die Abbildung zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Der Anstieg der magnetischen Sonnenaktivität (de Vries-Suess-Zyklus) zeigt Parallelitäten zum Anstieg der vulkanischen Aktivität. Wird nun die vulkanische Aktivität über die vergangenen 400 Jahre betrachtet, so fällt auf, dass immer in Verbindung mit dem Maximum des de Vries/Suess-Zyklus die vulkanische Aktivität ebenfalls ihr Maximum hatte, wie die folgende Abbildung zeigt.

 

Die Abbildung zeigt die vulkanische Aktivität, ergänzt mit den Daten der Abbildung 8, links für das ausgehende 20. Jahrhundert. Darunter ist der im Mittel 208-jährige de Vries-Suess-Zyklus, der durch die großen Gasplaneten bestimmt wird, wieder gegeben. Es fällt auf, dass die vulkanische Aktivität Schwankungen unterliegt und starke Aktivitäten synchron zum Sonnenzyklus auftreten. Insbesondere in den Jahren nach dessen Maximum ist eine verstärkte vulkanische Aktivität zu verzeichnen, wie auch in diesem Jahr der Fall.

 

Insbesondere schwere Erdbeben stiegen seit dem Beginn der (leichten) Erwärmung im Jahre 1980, die durch Satellitendaten bestätigt ist und die auf die ansteigende solare Aktivität zurückzuführen ist,  deutlich an, wie die beiden folgenden Abbildungen zeigen.

 

Die Abbildung links zeigt die Erdbeben ab einer Magnitude von >4. Die Daten stammen vom ANSS-Katalog (Advanced National Seismic System). Die rechte Abbildung listet die Ereignisse auf die verschiedenen Magnituden nach den Daten der USGS-NEIC  (U.S. Geological Survey – National Earthquake Information Center) World-Database auf.

 

Da die solaren Aktivitätsänderungen auf Flussänderungen in der Konvektionszone der Sonne zurückzuführen sind, folgende Abbildung, die durch die Planeten mit beeinflusst werden, ist es denkbar, dass deren Auswirkungen auch auf den flüssigen Erdmantel einwirken und dadurch relative Änderungen auf die Platentektonik ausgeübt werden könnten.

 

Die Ursache für die Sonnenzyklen (Schwabe-Zyklus) in der Sonne selbst, ist nach Ansicht der NASA ein Transportband im Sonnenmantel.

 

Das große Förderband besteht aus Materie von heißem Plasma und hat aufgrund der Sonnenrotation (Theorie nach Babcock) einen nördlichen und südlichen Zweig. Deren Materie benötigt ca. 40 Jahre für einen Umlauf in der Sonne. Die NASA-Wissenschaftler gehen davon aus, dass dessen Umläufe die magn. Sonnenaktivität steuern. Die Umlaufgeschwindigkeit lag in der Vergangenheit bei ca. 1 m/s, hat sich aber mittlerweile deutlich verlangsamt und liegt auf der Nordhalbkugel bei 0,75 m/s und auf der Südhalbkugel bei nur noch 0,35 m/s. Es ist daher davon auszugehen, dass die nächsten Sonnenzyklen sehr schwach ausfallen und die Erdtemperaturen zurückgehen werden.

 

Nach der Theorie von Dr. Landscheidt, würde dieses Transportband darüber hinaus, sowohl durch die Gravitationseinflüsse der großen Planeten, als auch durch den Bahndrehimpuls beeinflusst.

 

Der Klimatologe Cliff Harris und der Meteorologe Randy Mann untersuchten, inwieweit Vulkaneruptionen auf Klimawechsel im Holozän Einfluss ausübten (folgende Abbildung).

 

Die Abbildung zeigt die Klimawechsel für die vergangenen 4.500 Jahre. Es zeigt sich, dass Klimawechsel mit gesteigerter vulkanischer Tätigkeit einhergehen. Während die beiden Autoren davon ausgehen, dass Vulkane dass Klima ändern (was für sich auch zutrifft, so hatte der Ausbruch des Pinatubo in 1991 die globalen Temperaturen für zwei Jahre um bis zu 0,8°C sinken lassen), triggert jedoch die Vulkantätigkeit nicht das Klima, sondern könnten durch die selben Einflüsse getriggert werden, die die Sonnenzyklen (mit) verursachen – die Einflüsse der großen Gasplaneten. In der klimatischen Betrachtung verstärken anschließend Vulkanausbrüche die Abkühlung auf kürzeren Zeitskalen.

 

Auf diesem Gebiet wäre sicherlich noch eine Menge Forschungsarbeit notwendig, inwieweit eine Verknüpfung zwischen den Ursachen der solaren Aktivitätsschwankungen und der Erdbeben- und Vulkantätigkeit zulässig ist und, sofern die erste Fragestellung bejaht werden kann, wie groß ihr Einfluss ist und ob sich daraus ein „Frühwarnsystem“ für erdbebengefährdete Gebiete ableiten lässt.

 

Aus Sicht des Verfassers wäre es sinnvoller, in diese Richtung Forschungsaktivitäten zu treiben, als Milliarden an Forschungsgelder auszugeben, für nicht vorhandene, bzw. in der Realität nicht nachweisbare Zusammenhänge zwischen Klima und CO2 zu finden oder sonstigen auf CO2 basierenden Horrorszenarien nachzugehen, die von den allseits bekannten Aktivistengruppen flankiert werden.

 

Raimund Leistenschneider – EIKE

Mehr zu Landscheidts Arbeiten und Nachfolger hier




Tornadoland Deutschland

EIKE berichtet mehrfach über historische Temperaturen im Holozän (bezeichnet die aktuelle Klimaepoche seit der letzten Eiszeit), in denen um im Mittel bis zu 2°C höhere Temperaturen herrschten, als heute. Die Abbildung 1 zeigt die exemplarisch den Temperaturverlauf der letzten 10.000 Jahre.

 

Die Abbildung 1 nach Schönwiese zeigt deutlich, dass es seit dem Klimaoptimum im Holozän vor 6.500 Jahren kontinuierlich kühler wird, auch heute. Transparent ist die kleine Eiszeit abgebildet, die bis ca. 1850 andauerte und die als Basis für Temperaturbetrachtungen dient. Leicht verständlich, werden heutige Temperaturen mit dieser Zeit verglichen, müssen die heutigen Temperaturen hoch ausfallen. Damals wie heute, wurden aus kommerziellen Gründen Wettergeschehen für die Bevölkerung dramatisiert dargestellt, Quelle “Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland“, Uni Freiburg (http://www.geographie.uni-freiburg.de/ipg/publikationen/glaser/GlaserBeckStangl2004-Temperatur_und_Hochwasser.pdf).

Die Abbildung 2 links zeigt die historische Darstellung des Hochwasserereignisses am Rhein von 1651, mit einem zerberstenden Kirchenturm und davonschwimmenden Häusern (Bayer. Staatsbibliothek München). Die Abbildung 2 rechts zeigt zerberstende Wolkenkratzer in Roland Emmerichs Katastrophenthriller “2012“. Wie sich die Bilder gleichen (!), nur das Flugzeug fehlt in der linken Abbildung.

Die folgenden Zeilen werden zeigen, dass es im 20. Jahrhundert, als das Gespenst einer sog. anthropogenen Klimaerwärmung noch nicht durch Politik, Gesellschaft und Medien geisterte, deutlich schwerere Unwetter/Tornados gab und Tornados in Deutschland nichts Ungewöhnliches darstellen.

Die Abbildung 3 zeigt umgeknickte Strommasten (nach dem „Jahrhundertorkan“ Kyrill, 2007) und abgedeckte Häuser nach einem Tornadoereignis (bei Schwerin, 2009) in Deutschland.

Der Deutsche Wetterdienst (DWD) stellt z.B. im IPCC-Jahr 2007 fest (Pressemitteilung vom 22.01.2007): „Orkane der Größenordnung von „Kyrill“ (18.01.2007) sind alle 10-20 Jahre zu erwarten. Ein direkter Bezug zum Klimawandel lässt sich aus solchen Einzelereignissen nicht herstellen. Betrachtet man die Stürme und Orkane der letzten 30 Jahre, so hat bislang weder deren Häufigkeit noch deren Intensität zugenommen“

Dies untermauert auch der Meteorologe Nikolai Dotzek (Gründer des Tornado-Netzwerks), “Ein Trend zu mehr Tornados ist in unseren Landen dennoch nicht auszumachen.“ (S.d.W. 08/05,  S. 38, “Tornados in Deutschland“). Dies verdeutlicht die Abbildung 4.b. Sie stammt vom Tornado-Netzwerk und gibt die Intensitätsverteilung der Tornados in verschiedenen Vergleichszeiträumen wieder.

Wird hingegen die folgende Abbildung 4.a betrachtet, die die Tornadoereignisse als Summe über ausgewählte Zeiträume auflistet, so könnte der Eindruck entstehen, Deutschland ist auf dem Wege zum Extremwetter- und Tornadoland.

Die Abbildung 4.a zeigt die Anzahl der Tornadoereignisse in Deutschland ab dem Jahr 1800, jeweils für 1 Dekade, Quelle: (http://www.tordach.org/topics/globalchange_de.htm). Insbesondere seit dem Jahr 2000 ist ein sprunghafter Tornadoanstieg zu verzeichnen. Das Tornadonetzwerk „Tordach“ hierzu:

“Aber aus diese Zeitreihe der Tornadomeldungen darf auf keinen Fall geschlossen werden, dieser Anstieg käme in erster Linie durch mehr Tornadoereignisse, verusacht durch den anthropogenen „globalen Wandel“. Viel entscheidender ist bei uns in Europa noch immer die stark variierende Effizienz der Erkennung und Meldung von lokalen Unwettern. Anfang des 20. Jahrhunderts hat Alfred Wegener sehr viele Tornadoberichte aus Deutschland zusammen getragen und 1917 in seinem Buch Wind- und Wasserhosen in Europa veröffentlicht. Daher der Anstieg der Meldungen ab 1880. In den 1930er Jahren hat Johannes Letzmann noch intensiver nach Tornadomeldungen geforscht. Ergebnis: Die 1930er Jahre haben nach wie vor die höchste Anzahl gemeldeter Tornados. Erst die Dekade 2000-2009 wird diese Zahl vermutlich übertreffen. Die Frage lautet also: Welcher Prozentsatz der tatsächlichen Ereignisse wird gemeldet?

Ein Rechenbeispiel: In den 1940er Jahren hat sich in Deutschland aus naheliegenden Gründen kaum jemand um Downbursts und Tornados gekümmert, und es wurden vielleicht nur ca. 5 bis 10% aller Ereignisse bekannt. In den letzten fünf Jahren ist es u.a. dank Wetterforen im Internet, TorDACH, Skywarn und Stormchasern womöglich gelungen, ca. 80 bis 90% aller Ereignisse zu dokumentieren. Das bedeutet eine Steigerung um das Acht- bis Achtzehnfache! Und dies ganz allein durch sorgfältigere Dokumentation der Fälle, nicht etwa, weil es tatsächlich mehr Ereignisse gegeben hätte. Selbst wenn die Erwärmung des Weltklimas einen leichten Trend zu mehr Gewittern erzeugen würde – er ginge in den extremen Schwankungen der Beobachtungseffizienz vollkommen unter. Man muss sich hier vor Augen halten, dass offizielle Stellen in den USA noch in den 1920er Jahren behauptet haben, pro Jahr gäbe es in den gesamten USA nur etwa 25 Tornados (das diente in jener Zeit noch als Argument dafür, eine koordinierte Tornadoforschung lohne sich in den USA nicht). Heutzutage liegt der klimatologische Mittelwert der Tornados pro Jahr in den USA bei etwa 1000 bis 1200. Auch hier hat allein das genauere Hinschauen (auch auf die schwächeren Ereignisse) die Zahlen so erhöht, und nicht ein Klimatrend.

Wenn aber die Wahrscheinlichkeit, dass Tornados erkannt und gemeldet werden, in den USA und in Europa in den vergangenen Jahrzehnten stark gestiegen ist, dann ist die Frage naheliegend, ob dieser Anstieg alle Tornado-Intensitäten betrifft. Oft wird behauptet, es gebe „immer mehr signifikante, d.h. starke und verheerende Tornados“. Stimmt das?“

Abb. 2b (Anmerkung: Entspricht in unserem Beitrag der Abbildung 4.a) gibt eine solche Darstellung für Deutschland, geordnet nach spezifischen Epochen mit intensiver oder eher „zufälliger“ Tornadoforschung. Selbst auf dieser gegenüber der der USA viel kleineren Datenbasis zeigen die Intensitätsverteilungen speziell seit der Gründung von TorDACH im Jahr 1997 einen deutlichen Anstieg der Meldungen schwacher Tornados, während bei den starken und verheerenden Tornados eine prozentuale Abnahme im Laufe der Zeit zu sehen ist. Bei den Meldungen von schwachen F0 Tornados können wir in Deutschland in den kommenden Jahren weiterhin mit starken Steigerungsraten rechnen. Es gibt aber keinen Hinweis auf eine Zunahme der signifikanten Tornados: Der F3 Tornado von Acht im Jahr 2003 war z.B. ein Ereignis, das genau in die bestehende Klimatologie passt.

Kein Hinweis auf eine zunehmende Häufigkeit von Tornados“ – Dies Ergebnis wird auch gestützt von den beiden Berichten des Intergovernmental Panel on Climate Change (IPCC, 2001, 2007).“

Soviel zu der vermeintlichen Steigerung von Tornadoereignissen in Deutschland!

Auf welchen Wetterabläufen Tornados basieren, ist nicht hinreichend erforscht. Der Tornadobeauftragte des Deutschen Wetterdienstes (DWD), Andreas Friedrich sagt hierzu: “Das ist eines der letzten ungelösten Rätsel der Meteorologie.“ Auffallend ist jedoch, dass sich im Tornadoverlauf der Aktivitätszyklus der Sonne wiederfindet (Abbildung 5).

 

Die Abbildung 5 zeigt die Anzahl der schweren Tornados in den USA im Zeitraum von 1950 – 2006. In dem Chart lässt sich ein 10-jähriges Wellenmuster (rote Linie) erkennen, welches mit der solaren Aktivität der Sonne korreliert. In Zeiten geringer solarer Aktivität (Schwabezyklus im Minimum) ist die Tornadohäufigkeit gering und in Zeiten hoher solarer Aktivität (Schwabezyklus im Maximum) ist die Tornadohäufigkeit hoch. Die Min- und Maxima fallen jeweils zeitlich eng zusammen.

Anmerkung: Tornados werden in 6 Klassen von F0 bis F5 eingeteilt, wobei F5 die stärkste Kategorie darstellt (F steht für Fujita-Skala).

Nachweislich werden in Deutschland Tornados seit dem Jahr 837 gesichtet, insgesamt ca. 900. Dass auch in Deutschland Tornados entstehen, liegt daran, dass „Tornadoland“ überall dort ist, wo kalte kontinentale und feuchtwarme ozeanische Luftmassen in freier Bahn aufeinander treffen und es häufig starke Gewitter gibt. Die geringere Tornado-Ausprägung in Europa im Vergleich zur USA ist indes darauf zurückzuführen, dass die in West-Ost-Richtung verlaufenden Alpen und Pyrenäen den Luftmassen im Weg stehen. Nichts desto weniger gibt es auch in Deutschland Tornados der höchsten Stärkeklasse F4 und F5, eben nur weniger. Das letzte Ereignis fand am Abend des 10. Juli 1968 in Pforzheim statt (auch im Juli). Die folgenden Bilder vermitteln einen Eindruck über die Auswirkungen und Schäden, die dieser Tornado verursachte.

Abbildung 6: Wie Spielzeuge durch die Luft gewirbelte Autos, abgeknickte Bäume und zerstörte Häuser kennzeichneten die Pforzheimer Innenstadt am Tag, nachdem der Tornado durch den Süden der Stadt gezogen ist. In einer Zeit, als in Politik, Wissenschaft und Medien von einer drohenden Eiszeit gesprochen wurde, weil es vergleichsweise kalt war (http://klimakatastrophe.wordpress.com/2009/11/03/der-globale-cooling-konsens-der-1970er-jahre-alles-nur-ein-mythos/).

Der Tornado fegte in einer 500 m breiten Schneise durch die Stadt und das angrenzende Umland. Dabei erreichte er Windgeschwindigkeiten von 350 km/h (Anmerkung: bei dem Ereignis bei Schwerin im Mai 2009, Abbildung 1, traten Windgeschwindigkeiten von „nur“ 240 km/h auf). Es wurden 2 Menschen getötet, über 200 zum Teil schwer verletzt, 2.350 Gebäude beschädigt, zahlreiche Autos bis zu 200 Meter durch die Luft gewirbelt, 46 Hektar Stadtwald und etwa 80 Hektar Staatswald komplett umgeworfen und abgebrochen. Das Ganze dauerte 3 Minuten und der Schaden belief sich auf damals über 130 Mio. DM. Der WDR (“planet-wissen“) sagt hierzu folgendes “… mit Stürmen dieser Klasse müssen wir im Schnitt alle 20 bis 30 Jahre rechnen. Kleinere F2-Tornados treten im Schnitt ein bis zwei pro Jahr auf.“ Insgesamt wurden in Deutschland acht F4 und zwei F5-Tornados dokumentiert.

Dass Autos durch die Luft gewirbelt und Häuser derart beschädigt werden, liegt daran, dass der Luftdruck, wenn der Schlauch des Tornados sich über Grund bewegt, dort schlagartig von 1.000 auf 900 Millibar fällt. Die Luft entweicht dabei explosionsartig, reißt alles mit sich und die Häuser explodieren förmlich von innen.

Zu dem geschilderten extremen Tornadoereignis in Pforzheim sind in Deutschland aus der Vergangenheit noch zwei stärkere, der Klasse F5 bekannt. Das eine ereignete sich am 29. Juni 1764 in dem Ort Woldegk in Mecklenburg, dass andere 40 Jahre später, am 23. April 1800 in Hainichen im Erzgebirge.

Auflagenfördernde Berichte in den Medien und Horrorszenarien bekannter Kreise sind das eine. Bei genauer Betrachtung hat die Realität damit recht wenig, bzw. gar nichts zu tun. Oder geht es nur darum, breiten Schichten der Bevölkerung ein schlechtes Gewissen einzureden, um sie dann trefflich melken zu können.

Raimund Leistenschneider – EIKE




Arktische Sommereisschmelze – Ein Menetekel für eine bevorstehende anthropogene Klimaerwärmung?

Dennoch macht vielen unserer Mitmenschen das nachfolgende Bild Sorgen, oder es wird versucht, damit Sorgen auszulösen.

Die Abbildung 1 zeigt die arktische Seeeisentwicklung zum 15.07.2010 im Vergleich der Jahre 2002 – 2009. Es ist unschwer zu erkennen, dass in 2010 in den vergangenen Wochen, die dortige Eisschmelze noch größere Ausmaße eingenommen hat, als im Rekordschmelzjahr 2007 im (kurzen) Vergleichszeitraumes 2002 – 2010. Quelle: (http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic)

 

Die Verfechter des anthropogenen Klimawandels machen für diese Eisschmelze anthropogen ausgebrachte THG´s (Treibhausgase) verantwortlich. Allen voran, Kohlenstoffdioxid (CO2), insbesondere, weil der Faktor, der von den Klimarealisten als einzig entscheidender Faktor für das Klimasystem Erde angeführt wird, die Sonne, derzeit eine „Pause“ einlegt, und eine vergleichsweise geringe Aktivität zeigt, CO2 aber nach wie vor ansteigend ist. EIKE wird Ihnen aufzeigen, dass zum einen, das Klimageschehen etwas komplexer ist und auf deutlich mehr Faktoren beruht, als uns das IPCC und deren Verfechter weismachen wollen und zum anderen, die Sommereisschmelze, auch die (scheinbar) beschleunigte Sommereisschmelze in 2010, die obiges Bild zeigt, allein auf natürlichen Ursachen beruht und dass es mit einem (vermeintlichen, auf kurzen Zeitspannen) Eisrückgang in der arktischen Seeeisbedeckung bald vorbei sein wird.

 

Die Abbildung 2 zeigt die solare Aktivitätskurve anhand des TSI (Total Solar Irradiance) im Zeitraum von 1980 – Juli 2010, Quelle: (ftp://ftp.pmodwrc.ch/pub/data/irradiance/composite/DataPlots/comp06_ext_d41_62_1005.pdf). Derzeit ist die Sonne in einer sog. ruhigen Phase.

 

Die Abbildung oben zeigt, dass der aktuelle 24. Sonnenzyklus nicht recht beginnen will und bis jetzt sehr schwach ausgefallen ist, was als Erklärung für die in 2010 beobachtete verstärkte Eisschmelze in Abbildung 1 gegenüber den Vorjahren nicht herangezogen werden kann.

 

Nun ist bekannt, dass die Sonne bis zum Jahr 2003 ihr langjähriges Maximum im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus hatte. 2003 war denn auch das Jahr, in dem in Mitteleuropa Rekordtemperaturen in einem „Jahrhundertsommer“ zu verzeichnen waren, der fälschlicherweise seinerzeit von großen Teilen der Medien dem anthropogenen Klimawandel zugeschrieben wurde (Abbildung 3).

 

Die Abbildung 3 zeigt die Temperaturanomalien im “Hitzesommer“ in Europa vom August 2003, Quelle: Hadley Center. Die Temperaturanomalien beziehen sich dabei im Vergleich auf das späte 19. Jahrhundert.

 

Die Abbildung 4 zeigt, wie sich die magnetische Aktivität der Sonne mit dem Hauptsonnenzyklus, bei dem es sich vorwiegend um einen magnetischen Zyklus handelt, im 20. Jahrhundert änderte. Obwohl der bekannte Sonnenzyklus, der im Mittel 11-jährige Schwabe-Zyklus in 2003 bereits abgefallen war, befand sich die magnetische Aktivität und damit die Aktivität der Sonne in ihrem Maximum. So waren beispielsweise im Oktober 2003 in Deutschland Polarlichter zu sehen, was den Sonnenforscher der Uni Göttingen, Dr. Volker Bothmer, zu der Aussage veranlasste, dies sei normalerweise nicht möglich, dann müsse auf der Sonne Sturm herrschen. Die ESA bezifferte die Schäden an Satelliten, die durch die hohe solare Aktivität entstanden, auf nahezu 400 Mio. €. Noch in 2005 titelte der Sonnenforscher der NASA, David Hathaway: “Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“ (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html). Mit dem solaren Minimum ist das solare Minimum im Schwabe-Zyklus gemeint.

 

 

Die Abbildung 4 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Wie passt dies nun zusammen, der TSI zeigt eine zurückgehende (2003), bzw. schwache solare Aktivität (2005) und die magnetische Aktivität, die exorbitante Energiemengen zur Erde schleudert, hat ihr Maximum. Die Antwort ist gänzlich einfach. Das Messgerät auf den Satelliten, die den TSI aufnehmen, hat lediglich ein energetisches Sichtfenster von 200 nm (UVB) – 2.000 nm (IR). Also die Bereiche, die bis zur Erdoberfläche gelangen. Weite Teile des solaren Energiespektrums, vor allen die Bereiche, die extrem variabel sind, werden gar nicht erfasst. Unser Wetter wird aber nicht auf der Erdoberfläche „gemacht“, sondern in der Tropos- und Stratosphäre, bzw. durch den Svensmark-Effekt (EIKE berichtete mehrfach darüber) und hier wirkt das gesamte solare Energiespektrum. Insofern handelt es sich beim TSI um eine Mogelpackung, da von „total“ keine Rede sein kann.

 

Der berühmte Meeres- und Klimaforscher Prof. Mörner (1999-2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung) hat untersucht, wie sich die arktische Seeeisbedeckung in den vergangenen 600 Jahren änderte (Abbildung 5).

 

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 5, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde von mir um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus).

 

Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus (Abbildung 6). Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung 5 zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Die Abbildung 6 zeigt die 30-jährig gleitende Temperaturkurve von 1701 – 2000. In der Temperaturkurve ist der 208- jährige de Vries/Suess – Zyklus abgebildet. Der de Vries/Suess – Zyklus hatte in 2003 sein Maximum, als die Temperaturen ihren Höchststand erreichten. Das letzte Temperaturmaximum war in den 90er-Jahren des 18. Jahrhunderts, genau im Maximum des de Vries/Suess – Zyklus. Anmerkung: Nach dem Maximum in der solaren Aktivität zu Beginn des Jahrtausends fallen die Temperaturen deutlich (kleines Bild).

 

Obwohl die Untersuchungen von Prof. Mörner zeigen, dass die arktische Seeeisbedeckung zyklisch ist und damit auf natürliche Ursachen zurückzuführen ist und mit dem Hauptsonnenzyklus korreliert, erklärt auch die magnetische Aktivität der Sonne (noch) nicht den diesjährigen Eisrückgang, bzw. den, der letzten Jahre, da die magnetische Aktivität der Sonne seit 2005 vergleichsweise schwach ist. Das Wetter/Klima ist eben nicht so einfach zu verstehen, wie z.B. ein Prof. Schellnhuber und einige Politiker uns Glauben machen wollen: CO2 hoch – Temperatur hoch (Eisbedeckung runter), CO2 runter – Temperatur runter (Eisbedeckung hoch), zumal die globalen Temperaturen seit 10 Jahren deutlich fallen und das CO2 weiter ansteigt. Es also keine Korrelation zwischen CO2 und der Temperatur gibt.

 

Unsere Erde, deren Oberfläche ist zu über 70% mit Wasser bedeckt. Wasser ist bekanntlich ein hervorragender Wärmespeicher und wird nicht umsonst im Heizungen zum Wärmetransport und Wärmespeicherung benutzt. So liegt es nahe, dass das Klimasystem, auf Grund der in den Ozeanen gespeicherten Energie, einen Nachlauf gegenüber der solaren Aktivität aufweist. Dies konnten verschiedene Forschergruppen beweisen, von denen ich Ihnen zwei Charts vorstellen möchte (Abbildung 7 und 8).

 

Die Abbildung 7 zeigt die zeitliche Reaktion der Temperatur zur Sonnenaktivität (Trägheit des Klimasystems), Quelle: SPPI – Science & Public Policy Institute nach Scafetta und West, Duke University. Die Temperatur fällt zeitversetzt mit der Sonnenaktivität, was vor allem auf die gespeicherte thermische Energie in den Ozeanen zurückzuführen ist.

  

Der geniale Sonnen- und Klimaforscher Prof. Solanki (“Solar activity over the last 1150 years: does it correlate with climate”) untersuchte den Zusammenhang der solaren Aktivität mit der der Temperatur über die letzten 1150 Jahre. Seine Untersuchungen zeigten, dass die Sonnenflecken in der Langzeitbetrachtung dem Klima im Mittel um 10 Jahre vorauslaufen (Abbildung 8), also das Klima den Sonnenflecken hinterher.

 

 

Es darf als gesichert angesehen werden, dass Herr Prof. Solanki mit seinen Untersuchungen der Realität sehr nahe kommt. Aber warum kommt es gerade in 2010 zu einem stärkeren Eisrückgang als in den letzten 10 Jahren, zumindest Stand 07.07.2010. Die Antwort liefert die Abbildung 9.

 

Die Abbildung 9 zeigt die zyklische AMO*) im Zeitraum von 1981 – Juli 2010 im Nordatlantik (0° – 70°N).

 

*)   AMO (Atlantic MultiDecadal Oscillation) ist eine zyklische Temperaturschwankung der Oberflächentemperaturen im Nordatlantik. Dabei wechseln sich in einem Rhythmus von ca. 35 Jahren Warm- und Kaltphasen, ohne Beeinflussung durch den Menschen ab. Die AMO steht in starker Korrelation mit den arktischen Temperaturen, wie die Abbildungen 10 und 11 zeigen.

 

Die Abbildung 10 zeigt die arktischen Temperaturschwankungen im Zeitraum von 1880 – 2000. Deutlich ist ein Schwingverhalten zu erkennen, welches mit der AMO (Abbildung 11) übereinstimmt.

 

Abbildung 11 zeigt die AMO von 1856 – 2007. Während der Phasen einer positiven AMO liegen die arktischen Temperaturen deutlich über dem Mittelwert (Abbildung 10).

 

Doch nicht nur mit den arktischen Temperaturen und der arktischen Seeeisbedeckung (wie noch gezeigt wird), sondern auch mit der Gletscherentwicklung in den Alpen steht die AMO in direktem Zusammenhang, wie die Abbildung 12 zeigt.

 

Die Abbildung 12 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005, Quelle: Slupetzky, 2005, Uni Salzburg. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

 

Die Abbildung 12 zeigt, dass während einer positiven AMO-Phase, ein deutlicher Gletscherrückgang zu verzeichnen ist. Nun lässt sich auch die Abbildung 9 „lesen“. Der bis Juli 2010 deutliche Eisrückgang ist auf die starke AMO in 2010 zurückzuführen, die 2009, als die Eisschmelze im Sommer „schwächelte“, negativ war.

 

Da es sich bei der arktischen Seeeisbedeckung nicht um akkumulierte Schneefälle, sondern um gefrorenes Wasser handelt, kann es niemanden verwundern, dass die Eisschmelze in wärmerem Wasser (positive AMO = Warmphase) verstärkt auftritt und dies umso mehr, je positiver die AMO ist. 2010 ist die Spitze der AMO zwar etwa gleich hoch wie 2007, dennoch ist davon auszugehen, dass die diesjährige Eisschmelze nicht die Ausmaße von 2007 annehmen wird, da 2007 nach einer kumulierten Phase von mehreren Maxima der AMO liegt und 2010 nicht.

 

Dass vorrangig die zyklische AMO für die verstärkte Eisschmelze in der Arktis verantwortlich ist, möchte ich Ihnen weiter anhand der nachfolgenden Abbildungen zeigen.

 

 

Die Abbildung 13 zeigt die Temperaturabweichungen in der Arktis (rot) und der Antarktis (blau) im Zeitraum von 1979 – 2009 (Quelle: http://www.appinsys.com/GlobalWarming/GW_4CE_ PolarIceCaps.htm). Während die Temperaturschwankungen bis in die 1990-Jahre synchron verlaufen, beginnt sich ab 1994 das Temperaturverhalten in der Arktis von dm der Antarktis abzukoppeln. Die Arktis beginnt sich zu erwärmen. Wird diese Erkenntnis mit der AMO und den Abbildungen 10 und 11 verglichen, so wird ersichtlich, warum die Abbildung stattfand. Ab 1995 beginnt die positive Phase der zyklischen AMO. Mit dem Abkoppeln der Temperaturwerte und der positiven AMO beginnt denn auch synchron die beobachtete Eisschmelze in der Arktis, weil es dort wärmer wird.

 

 Die Abbildung 14 links zeigt die Abweichungen der arktischen Eisbedeckung (schwarz) und der antarktischen Eisbedeckung (grün). Mit einer zeitlichen Zerzögerung von ca. 2 Jahren zur positiven AMO, berinnt 1997 in der Arktis die verstärkte Eisschmelze und beide Datenreihen beginnen, sich voneinander abzukoppeln. Die verstärkte arktische Eisschmelze wird denn auch noch wenige Jahre andauern, bis die positive AMO wieder in ihre zyklische negative Phase (Kaltphase) eintritt.

 

Wie unmittelbar die arktische Eisentwicklung von den Oberflächentemperaturen (und damit von der zyklischen AMO) abhängt, geht aus den beiden nächsten Abbildungen hervor.

 

Die Abbildung 15 links zeigt die SST-Anomalien im arktischen Ozean, also die Abweichungen der dortigen Oberflächentemperaturen im Zeitraum von 1980 – 2009 und die Abbildung rechts die arktische Eisentwicklung (schwarz) und dazu invertiert, die SST-Anomalien. Es kann nicht verwundern, dass das arktische Eis, welches überwiegend aus schwimmendem Eis besteht, direkt von den SST-Anomalien abhängt.

 

Über diese Erkenntnisse hinaus, welche die arktische Eisschmelze prinzipiell erklären, gibt es nach Angaben von Prof. Dr. Heinrich Miller (stellv. Direktor des Alfred-Wegner-Instituts) zwischen der Arktis und der Antarktis auf längeren Zeitskalen eine Kippschaukel, d.h. zeigt die Antarktis Eiszunahme so liegt in der Arktis eine Eisschmelze und umgekehrt vor. Globale Meeresströme transportieren dabei gewaltige Wärmemengen von Pol zu Pol und treiben diese Klimaschaukel an. Ihre Erkenntnisse wurden im Rahmen des europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica) gewonnen und im November 2006 veröffentlicht. Die Daten der Arktis und Antarktis konnten dabei über im Eis eingeschlossene Luftbläschen und den darin enthaltenen Spurengasen abgeglichen werden.

 

Zur starken AMO kommt weiter, dass in 2009 und Anfang 2010 ein starker El Niño vorlag, wie die Abbildung 16 zeigt.

 

Die Abbildung 16 zeigt die ENSO (El Niño 3.4-Sektor) und einen starken El Niño zwischen Oktober 2009 und März 2010.

 

Zu den El Niño-Auswirkungen auf die Gebiete Europas, Asiens und der Arktis hat Prof. Brönnimann (ETH Zürich) anhand von Untersuchungen nachgewiesen, dass es in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung gab, die auf El Niño-Effekten beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen. Die Ergebnisse sind in Abbildung 17 festgehalten.

 

Die Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und der Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist (Quelle: Spektrum der Wissenschaft 03/05, S. 20). Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und Teilen des arktischen Gebietes (den Flächen, für die Daten vorliegen – vor Grönland) und frostige Kälte im Nordpazifik. Dies erinnert uns doch sehr an den vergangenen Winter (siehe auch Untersuchungen von Hansen, zu den Auswirkungen der AO, weiter unten im Text)! Vergleicht man weiter mit der Abbildung 10 und 11, so ist festzuhalten, dass seinerzeit auch die AMO eine deutliche positive Spitze aufweist und die arktischen Temperaturen hoch sind.

 

Bleibt denn noch eine Frage offen, warum die Eisschmelze gerade an den Orten in der Arktis stattfindet, an denen sie stattfindet.

 

Bisher wurde lediglich ein physikalisch/chemischer Faktor betrachtet, der für Schmelzvorgänge von Wasser verantwortlich ist, die Wärme. Wie jeder von uns aus eigener Erfahrung weiß, bestimmt aber nicht nur die Temperatur des Eises oder des Wassers den Schmelzpunkt, bzw. Gefrierpunkt, sondern auch dessen chemische Zusammensetzung. So ist jedem bekannt, dass im Winter die Straßen mit Salz gestreut werden, weil Salz den Gefrierpunkt herabsetzt. Meerwasser ist bekanntlich salzhaltig. Sein Salzgehalt ist nicht konstant, sondern er variiert (Abbildung 18).

 

Die Abbildung 18 zeigt den Salzgehalt der Meere. Das Mittelmeer hat z.B. einen Salzgehalt von 38 ppt (parts per thousend). Dies entspricht einem Salzgehalt von 3,8%. Der niedrigste Salzgehalt findet sich mit 32 ppt vor Alaska und der höchste im roten Meer mit 40 ppt. Das Tote Meer hat sogar einen Salzgehalt von 24%. Für den arktischen Ozean liegen in dieser Abbildung keine Daten vor.

 

Der Salzgehalt variiert aber nicht nur über die Meere, sondern auch über die Zeit. Zu den eingehend geschilderten zyklischen Schwankungen des Wärmeeintrages in den arktischen Ozean hat ein Forscherteam von NASA und Hochschulwissenschaftlern der Universität von Washington eine Dekadenschwingung ermittelt (http://www.nasa.gov/vision/earth/lookingatearth/ipy-20071113.html), die durch die atmosphärische Zirkulation AO (Arktische Oszillation)  ausgelöst wird und das arktische Klima massiv beeinflusst.

 

AO: Entgegen der AMO, die für Schwankungen in der Meeresoberflächentemperatur steht, ist die AO, wie übrigens auch die bekanntere NAO (Nord-Atlantik-Oszillation), ein normierter Druckunterschied zwischen zwei oder mehr ausgesuchten Orten, die weit auseinander liegen und daher eine großräumige Schwingung darstellen. So bewirkt z.B. eine positive AO, auf Grund der damit verbundenen Luftströmungen, ein Aufstauen von kalter Luft über der Arktis, was nach Prof. Hansen für den kalten Winter 2009/2010 verantwortlich ist (http://www.columbia.edu/~jeh1/mailings/2010/20100127_TemperatureFinal.pdf).

 

Die Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) geben an, dass diese Schwingung und die damit verbundenen Klimaschwankungen nichts mit einer anthropogenen globalen Erwärmung zu tun haben. Sie stellen weiter fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum."

 

Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt des arktischen Ozeans seit 2002 deutlich geändert hat (Abbildung 19).

 

Die Abbildung 19 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung 19 rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

 

Neben dem natürlichen Salzgehalt des arktischen Ozeans, gibt es noch einen weiteren Faktor, der den Schmelzpunkt von Wasser beeinflusst. Es ist die Schadstoffeinbringung in den arktischen Ozean, insbesondere durch die großen sibirischen Flüsse. Zu der Problematik der Schadstoffeinbringung wird im ACIA-Report 2008 (Impacts of a warming Arctic) auf S. 106 eingegangen. Da durch die Verteilung der Landmassen, im arktischen Meer nur ein vergleichsweise geringer Wasseraustausch mit dem Atlantik und dem Pazifik stattfindet, kommt es zu Schadstoffkumulationen. Darüber hinaus werden chemische Verbindungen in kaltem Wasser (da chemische Reaktionen im Allgemeinen bei Kälte langsamer ablaufen) deutlich langsamer abgebaut, was jeder am Beispiel von Tankerunfällen weiß.

 

Über die großen sibirischen Flüsse fließt jährlich die gewaltige Menge von ca. 4.000 km3 Wasser in den arktischen Ozean. Wie bereits in Abbildung 19 rechts gesehen, befindet sich die in der Fläche größte Eisveränderung vor den russischen Küstengebieten, die mit einem vergleichweise hohen Salzgehalt korrelieren. Gut ist dies in den beiden nächsten Abbildungen zu sehen.

 

Die Abbildung 20 links zeigt die arktische Eisausdehnung im September 1979, kurz nach der Kaltperiode der 1960 -1970 Jahre, als das Schreckgespenst der drohenden Eiszeit durch Politik und Medien ging und die Abbildung rechts die arktische Eisausdehnung im September 2005. Beide Abbildungen werden gerne von den Verfechtern des anthropogenen Klimawandel benutzt, um einen dramatischen Eisrückgang aufzuzeigen, aus dessen Grund, politische Entscheidungen zur Reduzierung von THG´s unabdingbar seien, was, wie geschildert, Unfug ist.

 

Die globale Erwärmung soll danach für den deutlichen Rückgang der Eismassen und Eisflächen in den letzten 30 Jahren verantwortlich sein. Schauen wir uns daher die beiden o.g. Abbildungen genauer an. In Abbildung 21 sind die Eisrückgangsflächen unterteilt und als Orientierung zu den Küstenbereichen (zum Vergleichen) markiert.

 

In der Abbildung 21 links ist zu sehen, dass bereits 1979, nach einer Kälteperiode! das Eis vor dem Mündungsgebiet der Lena zu schmelzen beginnt, die für ihre Verschmutzung bekannt ist. In der rechten Abbildung der Eisentwicklung in 2005 ist gegenüber der Lena eine deutliche Einbuchtung in die Eisfläche zu sehen.

 

Zur Rolle der Wasser- und Seeeismassen schreiben die Verfechter des anthropogenen Klimawandels, Prof. William Collins, Robert Coman, James Haywood, Martin R. Manning und Philip Mote in S.d.W 10/07, S. 72 – 81 (“Die Wissenschaft hinter dem Klimawandel“): “Im Meer zeigen sich deutliche Erwärmungstrends, die sich erwartungsgemäß mit der Tiefe abschwächen“ und weiter “Das Meer erwärmt sich wegen seiner großen thermischen Trägheit langsamer“.

 

Analysiert man das Meeresprofil, die Tiefen (Abbildung 22) und das damit verbundene Wasservolumen und setzt beides in Korrelation zur obigen Aussage, so ist festzustellen, dass die Eisrückgangsflächen A1, A3 und A4 alle im Flachwasserbereich liegen und somit die These stützen, dass diese durch Erwärmung verschwanden, da sich das Flachwasser entsprechend seiner geringeren Pufferkapazität (Volumen) erwärmt. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eismasse ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe. Aufgrund der thermischen Trägheit und der Wärmekapazität müsste sich eigentlich die Wärme im größeren Volumen verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall, was mit einer reinen Erwärmung nicht vereinbar ist.

 

Die Abbildung 22 zeigt das Tiefenprofil des arktischen Meeres. Genau unterhalb der am weitesten vorgeschobenen Auftaufläche liegt ein Tiefseegraben mit 4.000 m Tiefe, dessen großes Wasservolumen sich eigentlich dämpfend auf die Eisschmelze auswirken müsste, da sich die Wärmemenge in einem größeren Volumen verteilen kann.

 

Fazit:

Abschließend ist festzuhalten, dass die arktische Eisschmelze natürlichen Zyklen unterliegt, die durch die Sonne gesteuert sind, wobei auf Grund der thermischen Speicherung des Wassers, das Klimasystem der Erde der solaren Aktivität um mehrere Jahre nachläuft. Der derzeitige Eisrückgang ist nichts Außergewöhnliches und fügt sich in die natürliche Variabilität ein und ist auf die derzeit starke AMO und den vergangenen starken El Niño zurückzuführen. Mit der zyklischen Änderung der AMO in ihre negative Phase (Kaltphase) werden sowohl die arktischen Temperaturen fallen (wie wir es übrigens derzeit am Beispiel der PDO für Alaska sehen*)), als auch die arktische Eisbedeckung wieder deutlich zunehmen. Weiter wird die sommerliche Eisausdehnung durch den Schmelzpunkt des Wassers bestimmt, der in erster Linie von natürlichen Schwankungen des Meerwassersalzgehalts beeinflusst wird. CO2 oder sonstige THG´s haben bei alledem nicht den geringsten Einfluss.

 

*)  Pacific Decadal Oscillation (PDO)

Seit Beginn der negativen Phase der PDO in 2008, fallen in Alaska die Temperaturen deutlich (Abbildung 23).

 

Die Abbildung 23 zeigt den zeitlichen Verlauf der PDO von 1900 – September 2009, Quelle: (http://jisao.washington.edu/pdo/). Das kleine Bild zeigt die landesweiten Temperaturabweichungen in Alaska von 1918 – 2009 (Quelle: NOAA). PDO und Landtemperaturen in Alaska sind deckungsgleich. In Alaska fallen die Temperaturen mit der PDO. Seit 2005 um ca. 2°C.

  

Raimund Leistenschneider – EIKE

 

 




Die 10 Punkte der Klimarealisten – Nur Fiction oder fundierte Wissenschaft

1.)  These lt. Focus der Klimarealisten

„Das Klima wandelt sich schon immer“

dazu im Text von Focus Redakteurin Christina Steinlein

Die Erde ist 4,6 Milliarden Jahre alt, Eiszeiten folgten auf Warmzeiten und umgekehrt – alles ohne menschliches Zutun. Erstens heißt das aber nicht, dass der momentane Klimawandel nicht vom Menschen verursacht wird. Zweitens, so Jochem Marotzke vom Max-Planck-Institut für Meteorologie, sollte jeder, der diese These vertritt, sich mit den Größenordnungen vertraut machen: „Der heutige Klimawandel läuft zehnmal schneller ab als jeder andere zuvor – wenn man singuläre Ereignisse wie Asteroideneinschläge oder Supervulkanausbrüche ausschließt.“ Beispielsweise habe es 5000 Jahre gedauert, aus der letzten Eiszeit herauszukommen: Pro 1000 Jahre erwärmte sich das globale Klima um etwa ein Grad.

Heute findet der gleiche Temperaturanstieg in 100 Jahren, einem Zehntel der Zeit, statt. „Diese Zahlen sind sehr grob, aber das sind die Größenordnungen, von denen wir sprechen.“ Es ist ausgeschlossen, dass natürliche Prozesse einen so schnellen globalen Wandel bewirken.

EIKE zu Punkt 1 

„Der heutige Klimawandel läuft zehnmal schneller ab als jeder andere zuvor – wenn man singuläre Ereignisse wie Asteroideneinschläge oder Supervulkanausbrüche ausschließt.“

Dies ist definitiv eine Falschaussage, wie die Untersuchungen von Rahmstorf (2003, siehe Abbildung) zeigen. In dieser Untersuchung ist zu sehen, dass es Klimawandel mit einer Temperaturänderung von mehr als 6°C innerhalb von wenigen Jahrzehnten gab. In Spektrum der Wissenschaft, 11/09, S. 70 steht zu diesen krassen Klimawandel: “Die Schwankungen vollzogen sich bisweilen so schnell, dass einzelne Individuen sogar im Lauf ihres Lebens beobachten konnten, wie Pflanzen und Tiere, mit denen sie noch aufgewachsen waren, verschwanden und durch eine ihnen unvertraute Flora und Fauna ersetzt wurden.“ Und da die damaligen Individuen ein sehr kurzes Leben hatten (mit 30 Jahren war man alt), fand dieser Klimawandel von 6°C und mehr innerhalb von 2-3 Jahrzehnten statt. Selbst wenn die Temperaturreihen, die eine Erwärmung in den letzten 100 Jahren zeigen, nicht gefälscht wären, das IPCC redet heute lediglich von einem Temperaturanstieg von 0,7°C im 20. Jahrhundert.

 Aber wir brauchen gar nicht soweit zurückzugehen, um die obigen Aussage zu falsifizieren. 

Nehmen wir die letzten 100 Jahre: Steiler Temperaturanstieg seit 1920 bis 1942 (der steile Anstieg der Temperaturen nach 1960 ist, wie seit Climategate Gewissheit, durch manipulierte Temperaturdaten des GISS und CRU zustande gekommen. Temperaturen ohne Fälschungen zeigen keine nennenswerte Erwärmung). Nehmen wir weiter die letzten 200 Jahre: Der Temperaturanstieg seit 1815 bis 1825 (Angell et al. 1985: http://ams.allenpress.com/archive/1520-0450/24/9/pdf/i1520-0450-24-9-937.pdf) ist steiler als der (gefälschte) Anstieg seit 1960 bis heute nach CRU und GISS, bzw. IPCC.

Die folgende Abbildung, aus dem IPCC Bericht und statistisch im Auftrag von Lord Monkton analysiert, zeigt, dass es bereits in den letzten 150 Jahren, zwei vergleichbare Temperaturanstiege mit gleicher Steigungsrate gab, wie der, zwischenzeitlich als Fälschung entlarvte Temperaturanstieg seit den 1980-Jahre, den Herr Marotzke als einzigartig zu erkennen glaubt.

Fazit:  Zum einen scheinen die befragten “Klimaforscher“ um Herrn Marotzke ihre eigenen Untersuchungen nicht zu kennen(!) und zum anderen fügt sich der Temperaturanstieg im 20. Jahrhundert in die Temperaturschwankungen der letzten 200 Jahre ein und liegt innerhalb der natürlichen Variabilität.

2.) These lt. Focus der Klimarealisten

Die Ozeane sind schuld

dazu im Text von Focus Redakteurin Christina Steinlein

Das Kohlendioxid in der Atmosphäre stamme hauptsächlich aus den Ozeanen, argumentieren die Leugner.

„Fakt ist: Jährlich werden etwa 100 Gigatonnen Kohlenstoff zwischen Ozeanen und Atmosphäre ausgetauscht. Das ist ein sehr dynamischer Prozess. In manchen Regionen gibt der Ozean CO2 ab, in anderen nimmt er es auf“, erklärt Jochem Marotzke, Direktor des Max-Planck-Instituts für Meteorologie. Die Menschen blasen jährlich etwa sieben Gigatonnen in die Atmosphäre – das mag im Vergleich wenig klingen, aber was zählt, ist der Netto-Effekt: „Das Netto ist beim Austausch zwischen Ozean und Atmosphäre ungefähr bei null, ein bis zwei Gigatonnen nehmen die Meere sogar auf. Im Gegensatz dazu führen die Menschen der Atmosphäre kontinuierlich Kohlendioxid zu.“ Von den sieben Gigatonnen jährlich, die die Menschheit verursacht, bleibt etwa die Hälfte in der Atmosphäre.

„Netto gibt der Ozean gar kein CO2 ab, sondern nimmt seit Jahrzehnten welches auf“, stellt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung klar. „Das ist durch rund 10 000 CO2-Messungen im Ozean von Forschungsschiffen belegt.“ In der Folge steigt die CO2-Konzentration in den Meeren, was zur Versauerung des Meerwassers führt.

Ein weiteres Argument führt Rahmstorf an: „Wir wissen ja, wie viele fossile Brennstoffe gefördert und verbrannt wurden und wie viel CO2 dabei in die Atmosphäre gelangt ist.“ Drittens hat Hans Suess in den 50er-Jahren eine Untersuchung durchgeführt, die belegt, dass das CO2 in der Atmosphäre nicht aus den Ozeanen stammt, sondern aus der Verbrennung von Erdöl, Erdgas oder Kohle. Anhand der Isotope der Kohlenstoffatome konnte der Forscher nachvollziehen, ob sie aus den Ozeanen oder aus der Verbrennung fossiler Stoffe stammen.

EIKE zu Punkt 2

Die Werte, die Herr Marotzke angibt, beruhen auf spekulativen Abschätzungen der CO2-Kreisläufe (was es mit der Genauigkeit der IPCC-Werte auf sich hat, ist spätestens seit den Himalaya-Gletschern bekannt), die einer wissenschaftlichen Überprüfung nicht standhalten: Die Abschätzung, die zur Anreicherung von anthropogenem CO2 in der Atmosphäre führt, beruht auf den 13C Isotopenanalysen. Hier liegt ein einfacher Rechenfehler vor (siehe E. Schulze), wie auch die Arbeit von Knorr bestätigt. Anthropogenes CO2 ist seit 200 Jahren gleichbleibend und nicht vom Rauschen zu unterscheiden, E. Schulze in "Über den Anteil am atmosphärischen Kohlendioxyd durch Verbrennungsvorgänge", August 2009, sowie Knorr, W. “Is the airborne fraction of anthropogenic CO2 emissions increasing? Geophysical Research Letters, 2009; 36 (21). Des Weiteren ist das Statement von Herrn Marotzke nicht hilfreich, der Bedeutung der Meere für die atmosphärische CO2-Konzentration auch nur annähernd gerecht zu werden, wie die folgende Abbildung zeigt.

Die Abbildung zeigt den aus Eisbohrkernen rekonstruierten Temperaturverlauf und dazu die atmosphärische CO2-Konzentration. Zum einen ist überdeutlich zu erkennen, dass das CO2 der Temperatur folgt und nicht umgekehrt und zum anderen handelt es sich um einen linearen Zusammenhang. Beide Kurven stehen in einem linearen Verhältnis zueinander, was in der folgenden Datenreihe, die einen längeren Zeitraum abdeckt, verdeutlicht wird (http://tucsoncitizen.com/wryheat/2009/06/24/al-gores-favorite-graph/). Jeder Wissenschaftler oder wissenschaftlich Interessierte weiß, wenn die Temperatur dem CO2-Gehalt der Atmosphäre folgen würde, müsste der Zusammenhang nicht linear, sondern logarithmisch sein! Es handelt sich demnach um Ausgasungserscheinungen des Ozeans (und der Böden). Im umgekehrten Fall (wird es kälter) nimmt der Ozean das CO2 auf. In der Physik ist bekannt, dass der CO2-Gehalt des Wassers neben dem Druck, vor allem von der Temperatur abhängt. Bei zunehmenden Temperaturen gast folglich gebundenes CO2 aus, wodurch die maßgebliche Rolle der Ozeane belegt ist. Noch ein paar Zahlen unsererseits: Nach Angaben der NASA sind in den Meeren ca. 40.000 GT C gespeichert, in den Böden nach den Angaben des IPCC gar die unvorstellbare Menge von 66.000.000 – 100.000.000 GT C. Aus beiden Senken gast CO2 temperaturabhängig aus. 

Die Aussage “Netto gibt der Ozean gar kein CO2 ab, sondern nimmt seit Jahrzehnten welches auf“ ist demnach eine Falschaussage.

Fazit:   Rahmstorf und Marotzke scheinen grundlegende physikalische Zusammenhänge aus dem Blickfeld gerückt zu sein. Die atmosphärische CO2-Konzentation folgt der Temperatur. Beide stehen in einem linearen Verhältnis zu einander, was nur den Rückschluss auf Ausgasungsvorgänge (Ozean/Land) zu lässt.

3.) These lt. Focus der Klimarealisten :

Vulkane stoßen viel mehr CO2 aus als menschliche Aktivität

dazu im Text von Focus Redakteurin Christina Steinlein

Vulkane und Gestein, vor allem in Vulkangebieten, geben tatsächlich CO2 ab. Die Menge ist schwer zu messen, „aber garantiert deutlich niedriger als die vom Menschen verursachte Menge“, stellt Marotzke klar. Das Umweltbundesamt geht davon aus, dass die CO2-Emissionen durch Vulkane ungefähr zwei Prozent der vom Menschen verursachten Emissionen ausmachen würde. Eine sehr viel höhere Emissionsrate aus Vulkanen und Gesteinen gilt als unwahrscheinlich: Vor der Industrialisierung war die CO2-Konzentration in der Atmosphäre relativ konstant.

Wäre der Vulkanismus der Hauptemittent, hätte der CO2-Gehalt der Atmosphäre auch vor der Industrialisierung kontinuierlich ansteigen müssen.

EIKE zu Punkt 3

Zu dieser Behauptung verweisen die Autoren auf die Arbeiten des Instituts für Angewandte-Geologie der Uni-Erlangen: Insgesamt stammt der Hauptteil des CO2 in der Erdatmosphäre aus dem Erdinneren, kommt aber nicht nur aus den Vulkanen, sondern tritt als sog. "juveniles Kohlendioxid" aus einer Vielzahl von Stellen, die teilweise recht unspektakulär aussehen. Es ist dies eine natürliche Folge der Plattentektonik,… Eine exakte Quantifizierung der gesamten, aus dem Erdinneren ausströmenden CO2-Mengen ist heute noch nicht möglich. Dies liegt einfach darin begründet, daß es unmöglich ist, an einer genügend großen Anzahl von Stellen (so z.B. an den Ozeanböden) kontinuierlich zu messen“ (http://www.angewandte-geologie.geol.uni-erlangen.de/klima1.htm). 

Noch ein paar weitere Zahlen, die die Dominanz der durch vulkanische Aktivität austretenden sog. Treibhausgase zeigt. Das Wissenschaftsmagazin “scinexx“ schreibt: “Denn egal ob an Land oder am Grund der Ozeane: Schlammvulkane stoßen jährlich Millionen Megatonnen an Methan aus und nehmen dadurch Einfluss auf das Weltklima.“ Bisher hatten Wissenschaftler den mittleren Gesamtanteil von Methan auf der Basis von 160 Schlammvulkanen aus 15 verschiedenen Gebieten mit 30 bis 35 Megatonnen/Jahr beziffert, was anhand der jüngsten Untersuchungen des Alfred Wegener Instituts und der obige Meldung von scinexx deutlich zu niedrig ist. Prof. Dr. Achim J. Kopf  (Marine Geotechnik am DFG Forschungszentrum der Universität Bremen) gibt folgende Werte an, die aus den Schlammvulkanen entweichen: 1,97 . 1011 bis 1,23 . 1014 m³ Methan/Jahr, wovon 4,66 . 107 bis 3,28 . 1011 m³ aus Oberflächenvulkanen stammen. Dies entspricht einer Gewichtsmenge von 141 – 88.000 Tg/Jahr (1Tg = 1 Million metrische Tonnen). 

Selbst von den etwa ca. 1.400 aktiven Vulkanen (ein Vulkan gilt als aktiv, wenn er in den letzten 10.000 Jahren ausgebrochen ist) sind derzeit erst 24*) vermessen, wobei die Bodenausgasungen um die Vulkane kaum berücksichtigt sind. 

*) Die Angaben schwanken je nach Literatur um ein paar Vulkane.

Fazit:   Die befragten “Klimaforscher“ sind ganz offensichtlich in ihren Erkenntnissen nicht auf der Höhe der Zeit. Die vulkanisch bedingten Ausgasungen sind nicht einmal zu 1% vermessen und damit bekannt und der Hauptanteil des atmosphärischen CO2-Gehalts stammt aus tektonischen Prozessen und ist somit weitgehend vulkanischen Ursprungs.

  

4.) These lt. Focus der Klimarealisten

Der Wasserdampf

dazu im Text von Focus Redakteurin Christina Steinlein 

„Klar ist Wasserdampf das wichtigste Treibhausgas“, sagt Martin Claußen, Mitdirektor des Max-Planck-Instituts für Meteorologie und Vorsitzender der Deutschen Meteorologischen Gesellschaft: „Er wirkt wie ein Verstärker.“ Der Wasserdampf ist aber nicht der Grund für die Erwärmung, sondern die Folge: Die Temperatur bestimmt, wie viel Wasserdampf in der Atmosphäre ist und nicht umgekehrt.

Im Gegensatz zum Kohlendioxid bleibt Wasserdampf meist nur wenige Tage in der Atmosphäre – und kehrt dann als Regen auf die Erdoberfläche zurück. Je wärmer allerdings die Atmosphäre ist, umso mehr Wasserdampf kann sie aufnehmen. Damit spielt der Wasserdampf tatsächlich eine sehr große Rolle beim natürlichen Treibhauseffekt. Die Wasserdampf-Moleküle in der Erdatmosphäre können wiederum Wärmestrahlung absorbieren und die Temperatur so weiter erhöhen.

EIKE zu Punkt 4

„Leider“ gibt es kein Wasserdampf-Feedback, auch wenn dies noch so sehr beschwört wird, wie die folgende Abbildung zeigt.

Die Abbildung zeigt die Änderung der globalen relativen Luftfeuchte für unterschiedliche Höhen anhand von NASA-Satellitendaten. Entgegen der Aussage von Herrn Claußen, ist keine Zunahme des Wasserdampfgehalts, sondern eine globale Abnahme zu verzeichnen. Die Studie kommt zu dem Schluss, dass es in den letzten 60 Jahren keinen Anhaltspunkt für eine treibhausgasbasierte Erwärmung gibt.

700 mbar  entspricht ca.   3.000 m-Höhe

600 mbar  entspricht ca.   4.000 m-Höhe

500 mbar  entspricht ca.   5.500 m-Höhe

400 mbar  entspricht ca.   7.000 m-Höhe

300 mbar  entspricht ca.   9.000 m-Höhe

Auch stellte die NASA bereits 2004 fest, dass die Klimamodelle den Einfluss von Wasserdampf überbewerten: “A NASA-funded study found some climate models might be overestimating the amount of water vapor entering the atmosphere as the Earth warms. They found the increases in water vapor were not as high as many climate-forecasting computer models have assumed.” (http://www.nasa.gov/centers/goddard/news/topstory/2004/0315humidity.html).

Zur Wirkung des sog. Wasserdampf-Feedback hat EIKE in ihrem Artikel “Das wissenschaftliche Ende des Treibhauseffekts“ (http://www.eike-klima-energie.eu/lesezeichen-anzeige/das-wissenschaftliche-ende-der-klimakatastrophe/) eingehend Stellung genommen. Wir zitieren: “Die unbefriedigende Situation änderte sich nun schlagartig mit zwei neuen Arbeiten, von denen die eine im Feb. 2009 bei Theoretical and Applied Climatology [2], die andere im Sept. 2009 bei Geophysical Research Letters erschien [1].

 G. Paltridge, A. Arking und M. Pook zeigten in der Zeitschrift Theoretical and Applied Climatology, dass die spezifische und relative Feuchte in der mittleren und oberen Troposphäre (oberhalb 850 hPa) im Gegensatz zu den Voraussagen der Klimamodelle des IPCC in den Jahren 1973 bis 2007 mit den steigenden Temperaturen in dieser Zeit abnimmt, was einer negativen Rückkopplung entspricht.” 

Und genau diese neg. Rückkopplung, die das IPCC geflissentlich unterlassen hat zu erwähnen, hat der Atmosphärenforscher am MIT, Prof. Dr. Lindzen, beschrieben. Eine deutsche Zusammenfassung findet sich unter (http://wetterjournal.wordpress.com/2009/05/21/die-argumente-der-klimaskeptiker-i-treibhauseffekt-und-wolken/)

Weitere Fachliteratur:

Paltridge, G., Arking, A. and Pook, M. 2009. Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data. Theoretical and Applied Climatology: 10.1007/s00704-009-0117-x. A comparison of tropical temperature trends with model predictions”, by Douglass, D.H., J.R. Christy, B.D. Pearson, and S.F. Singer, 2007 – International Journal of Climatology

Fazit:   In den Aussagen der befragten “Klimaforscher“ kommt zum Vorschein, dass Vermutungen mit der Realität, die längst das Postulat der Wasserdampfverstärkung widerlegte und einen Schritt weiter ist, verwechselt werden.

5.) These lt. Focus der Klimarealisten

Die Sonne beeinflusst das Klima

dazu im Text von Focus Redakteurin Christina Steinlein

Die Sonne ist der Energielieferant der Erde. Ihre Aktivität schwankt in einem ungefähr elfjährigen Zyklus. Es ist unbestritten, dass diese Schwankungen des Sonnenzyklus in der Vergangenheit das Klima verändert haben. Sie können aber aus zwei Gründen die Erwärmung im 20. Jahrhundert nicht erklären. Erstens: Seit Ende der 70er-Jahre wird die Sonnenstrahlung direkt von Satelliten aus gemessen. Diese Beobachtungen zeigten, dass der Unterschied zwischen Maximum und Minimum der Sonnenstrahlung während eines Zyklus etwa 0,1 Prozent der Strahlungsintensität ausmachen. „Die Stärke der Schwankungen ist zu gering. Die Strahlungswirkung der vom Menschen verursachten Treibhausgase ist inzwischen um ein Mehrfaches stärker“, Rahmstorf.

Und zweitens: Hätte der Zyklus der Sonne tatsächlich einen signifikanten Einfluss auf das Klima, dann ist es nicht zu erklären, dass sich die Erde in den letzten dreißig Jahren erwärmt und nicht im Takt mit der Sonne wieder abgekühlt hat. Eine aktuelle Studie, die im Magazin „Nature“ veröffentlicht wurde, kam gar zu dem Ergebnis, dass die Sonnenaktivität seit über 50 Jahren nicht zugenommen, in den letzten 20 sogar abgenommen hat.

EIKE zu Punkt 5

“Erstens… Die Stärke der Schwankungen ist zu gering. Die Strahlungswirkung der vom Menschen verursachten Treibhausgase ist inzwischen um ein Mehrfaches stärker“, Rahmstorf.

Dies ist eine Falschaussage, bezogen auf die solaren Aktivitätsschwankungen, wie die folgende Abbildung belegt.

Die Abbildung, Quelle: GISS, zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum 1984 – 2005. Anmerkung: Dem GISS ist bei der Beschriftung der Zeitachse ein Fehler unterlaufen, es muss natürlich heißen, Year plus 1900. Der Hub zwischen Min. – Max. beträgt 7 W/m2.

Dazu noch die solare Aktivitätskurve, aus der ersichtlich wird, wie stark die Strahlungsabgabe der Erde mit der Sonnenaktivität korreliert – die Kurven sind nahezu in ihrer Form deckungsgleich.

 

“Und zweitens: Hätte der Zyklus der Sonne tatsächlich einen signifikanten Einfluss auf das Klima,… dass die Sonnenaktivität seit über 50 Jahren nicht zugenommen, in den letzten 20 sogar abgenommen hat.“ Rahmstorf

Auch dies ist leider eine Falschaussage. Der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus hatte um 2003 sein langjähriges Maximum, als in Deutschland die Presse vom “Hitzesommer“ redete. In 2005 (der de Vries/Suess-Zyklus hat, wie der im Mittel 11-jährige, „untergeordnete“ Schwabe-Zyklus, oft eine Doppelspitze in der Aktivität), als überall von den “Hitzetoten“ in der Presse zu lesen war, sagte der Chef-Sonnenforscher der NASA, Hathaway: “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“ (http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm

Rahmstorf hebt bei seinen Aussagen auf die Satellitendaten ab, die seit 1979 die solare Aktivität messen. Satelliten sind hierfür sicherlich das geeignete Instrument, nur muss der Satellit auch die „Augen“ dafür haben, die solare Aktivität zu sehen. Genau die hat er aber nicht! Die solaren Aktivitätsschwankungen werden im sog. TSI (Total Solar Irradiance) zusammengefasst. Das Messsystem ist aber nur in der Lage, den Wellenlängenbereich von 200 nm – 2.000 nm aufzunehmen, also nur einen Bruchteil des solaren Aktivitätsspektrums. Von “Total“ kann demnach gar keine Rede sein. Insbesondere die Berieche, die zwischen Sonnenminimum und Sonnenmaximum am stärksten variieren, werden gar nicht aufgezeichnet. So variiert im Schwabe-Zyklus die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*)    Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen.

Die wegweisenden Arbeiten von Svensmark und Veizer, die Rahmstorf, Schellnhuber und Marotzke offensichtlich nicht bekannt sind (Höhe der Zeit?) finden Sie z.B. unter (http://www.sciencedirect.com/..). Die Welt widmete  Svensmark im Dezember 2009 folgenden Titel “Ein Physiker erschüttert die Klimatheorie“ (http://www.welt.de/wissenschaft/umwelt/article5528858/Ein-Physiker-erschuettert-die-Klimatheorie.html). Weiteres wissenschaftliches Material findet sich unter (http://www.pro-physik.de/Phy/leadArticle.do?laid=2547). Die Liste lässt sich beliebig fortsetzen.

Fazit:   Bei den Sonnenaktivitätskurven des TSI handelt es sich um eine Mogelpackung, bzw. um eine irreführende Bezeichnung. Die solare Aktivität hat bis zum Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährige de Vries/Suess-Zykluss (ca. 2003) kontinuierlich zugenommen, synchron zur leichten Temperaturerhöhung, die die Satellitendaten ausweisen. Seit dem Rückgang der solaren Aktivität (de Vries/Suess-Zyklus) und dem Ausbleiben des 24. Schwabezyklus, rauschten die Erdtemperaturen in den Keller, wie wir dies gegenwärtig in weiten Teilen auf der Nordhalbkugel anhand des strengen und langen Winters zu spüren bekommen.

6.) These lt. Focus der Klimarealisten

Alle Klimavorhersagen sind Quatsch

dazu im Text von Focus Redakteurin Christina Steinlein 

Die Wissenschaftler werden häufig als Klimapropagandisten oder Klimahysteriker beschimpft. Gleichzeitig wird ihnen vorgeworfen, nur ungenaue Aussagen zu treffen.

Zum Beispiel die, dass sich die Temperatur bis Ende des Jahrhunderts um einen Wert zwischen 1,1 und 6,4 Grad erwärmen wird. Konkretere Prognosen lassen sich nicht treffen, sie wären unseriös. Die genannte Spanne stellt keine Unsicherheit dar. Sie entsteht aus der Arbeit der Klimaforscher, die eine ganze Reihe von Szenarien durchrechnen, nach dem Prinzip: „Wenn wir soundso viel CO2 ausstoßen, dann wird es soundso warm.“ So kommen die Differenzen zustande.

Dass die Vorhersagen aber alles andere als Unsinn sind, kann man der Landkarte unten entnehmen. Die einzelnen Grafiken des Weltklimarats IPCC zeigen die Prognosen von Modellen, die nur natürliche Einflüsse auf die Temperaturentwicklung berücksichtigt haben (blau) und von Modellen, die auch den Einfluss der Menschen miteinbezogen (rot). Die Linie zeigt jeweils die tatsächlichen Messwerte an.

Häufig behaupten Skeptiker auch, dass die Prognosen bislang alle zu pessimistisch ausgefallen sind. Auch das widerlegt die Karte des IPCC.

EIKE zu Punkt 6

Klimamodelle sind grundsätzlich nicht dazu geeignet, dass Geschehen für die nächsten Jahre auch nur annähernd richtig wiederzugeben, wäre die treffende Bezeichnung. Da sich jedes Modell/Vorhersage an der Realität messen muss, zeigt die folgende Abbildung, dass selbst für kurze Zeiträume, Klimamodelle fulminant an der Realität vorbei gehen. Die globalen Temperaturen fallen deutlich, das IPCC meldet anhand seiner Modelle, steigende Temperaturen.

Die Abbildung zeigt die vier Temperatur-Szenarien (B1, A1B, A2, Commitment) aus dem IPCC-Bericht 2007, die aus den IPCC-Klimamodellen ermittelt wurden. Das Szenario “Commitment“, welches die niedrigste Temperaturentwicklung angibt, geht dabei von einer gleich bleibenden CO2-Konzentration wie im Jahr 2000 aus! Bei den drei anderen Szenarien steigt indes die CO2-Konzentration weiter an, wie dies z.B. die Mauna Loa-Daten wiedergeben, Quelle: S.d.W. 02/09, “Kalt erwischt“, S. 21 – 22. Die roten Punkte geben die tatsächliche Temperaturentwicklung bis 2008 wieder (schwarze Punkte, sind die gemessenen Temperaturwerte bis 2005). Seit 2005 fallen die Temperaturen deutlich. Die grün, blau und violett schraffierten Bereiche zeigen die Szenarien der früheren IPCC-Vorhersagen (FAR = First Assessment Report, 1990; SAR = Second Assessment Report, 1995; TAR = Third Assessment Report, 2001).

Schellnhuber zeigte jüngst in beeindruckender Weise, was von Klimamodellen zu halten ist: Wir sind in der Lage, mit Modellen zu erkennen, dass bei fortschreitender Erwärmung in 100 Jahren alle Himalaya-Gletscher verschwunden sein dürften.” Diese Aussage machte der „Forscher“ Schellnhuber kürzlich im Bayerischen Rundfunk (BR5). Seit Glaciergate wissen wir, was es mit dem vermeintlichen Ergebnis aus Klimamodellen zum Himalaya-Gletscherschwund auf sich hat. Herr Schellnhuber schiebt dieses "katastrophale" Abschmelzen auf den Rußausstoß chinesischer Kohle-Kraftwerke. Kein weiterer Kommentar zu den Klimamodellen!! 

Zum Abschluss lassen wir das IPCC selbst zu den Klimamodellen Stellung nehmen. Im dritten Sachstandsbericht 2001 Sec. 14.2.2.2., S. 774 heißt es: ”… we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible”

Fazit:   Wissenschaft ist die Lehre der Exaktheit. Klimamodelle haben nichts mit Exaktheit, sondern lediglich etwas mit Vermutungen und Gewichtungen zu tun, durch welche die Endergebnisse in beabsichtigter Weise getrimmt werden. Vermutungen, bzw. Vermutungswissenschaftler sollten in der seriösen Wissenschaft keinen Einzug halten. Darüber hinaus kennen die “Klimaforscher“ ganz offensichtlich nicht die eigenen Klimamodelle, was den Anschein hat, dass die befragten “Klimaforscher“ nicht wissen, wovon sie reden!

7.) These lt. Focus der Klimarealisten

Die IPCC-Berichte sind politisch beeinflusst

dazu im Text von Focus Redakteurin Christina Steinlein

Das IPCC sei eine interessengeleitete Kungelrunde, behaupten Klimaskeptiker. „Das ist eine Verschwörungstheorie. Den Verschwörungstheoretikern kann man Fakten vorlegen, so viel man will, das kommt bei denen nicht an“, sagt Marotzke. „In der gesamten Geowissenschaft gibt es nichts Vergleichbares zu den IPCC-Berichten, nichts, das so sorgfältig begutachtet wird. An der Erstellung sind über 1000 Wissenschaftler beteiligt. Es gehen nur Studien in die Berichte ein, die zuvor veröffentlicht und damit von der Fachwelt beurteilt wurden. Die IPCC-Berichte, die aus diesen begutachteten Studien entstehen, werden wiederum begutachtet, und das mehrfach.“ Davon auszugehen, dass über 1000 Wissenschaftler die Wahrheit unterdrücken und nicht ein einziger ausschert, ist abwegig. „Jeder Wissenschaftler, der stichhaltig belegen könnte, dass die menschengemachte Erwärmung kein Problem ist, wäre auf einen Schlag der berühmteste Wissenschaftler der Welt. Das würde sich doch kein Forscher entgehen lassen“, argumentiert Marotzke weiter. 

Außerdem werden die Berichte des IPCC-Berichts anschließend noch zusammengefasst – und von Regierungsvertretern verabschiedet. Dass all die Regierungen mit den unterschiedlichsten Interessenlagen der Zusammenfassung des IPCC-Berichts Satz für Satz einstimmig zugestimmt haben, ist nur „deshalb möglich, weil an den enthaltenen wissenschaftlichen Ergebnissen beim besten Willen nicht zu rütteln ist. Die Bush-Administration hätte dem Bericht sonst wohl kaum zugestimmt“, stellt Rahmstorf klar.

  

EIKE zu Punkt 7 

Das IPCC sollte sich nicht hinter Politikern verstecken, sondern für seine Arbeiten und die seiner Leader selbst gerade stehen. Climategate ist real. Glaciergate ebenfalls und beides ist nur die Spitze des Eisbergs, wie die Temperaturmanipulationen diverser Institute, darunter das GISS, schließen lassen. Die Herren haben, um zu steigenden Temperaturen zu gelangen, einfach die Stationen heraus genommen, die fallende Temperaturen ausweisen und die Stationen, die in Ballungszentren liegen und somit steigende Temperaturen ausweisen, betrachtet (SURFACE TEMPERATURE RECORDS: POLICY DRIVEN DECEPTION? by Joseph D’Aleo and Anthony Watts). Ein Beispiel für die Güte der verbliebenen Messstationen. 

Fazit:   Climategate ist traurige Gewissheit. Der Rücktritt von Phil Jones, der den Betrug zugibt oder der Himalaya-Betrug der zugegeben wurde, beweisen: Es gibt ein Klimakartell von korrupten Klimaforschern, die Daten fälschen, Kollegen diffamieren und Begutachtungen manipulieren.

8.) These lt. Focus der Klimarealisten

Der Mensch ist nur für drei Prozent des CO2 verantwortlich

dazu im Text von Focus Redakteurin Christina Steinlein

Wer das sagt, vergleicht Äpfel mit Birnen. Die 97 Prozent CO2-Emissionen, für die angeblich die Natur zuständig ist, gehören zu einem geschlossenen Kreislauf: Menschen, Tiere und Pflanzen atmen Milliarden von Tonnen CO2 aus. Allerdings stehen auf der anderen Seite Pflanzen, die das CO2 (zusammen mit anderen Stoffen) durch die Photosynthese wieder in Blätter und Holz umwandeln. Der biologische Kohlenstoffkreislauf ist geschlossen. „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen“, erklärt Rahmstorf. 

Diese vom Menschen verursachten Emissionen machen zwar tatsächlich etwa die oben genannten drei Prozent aus – dabei handelt es sich aber um Milliarden Tonnen Kohlendioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt werden.

EIKE zu Punkt 8

Es gibt in der Natur keine stationären Prozesse, allenfalls periodisch-instationäre, wie z.B. den Tag/Nacht-Rythmus. Dies sollte einem Physiker, wie Rahmstorf eigentlich bekannt sein. 

Mit zunehmender Erwärmung gast nicht nur zusätzliches CO2 aus, welches vorher, z.B. in den Weltmeeren gebunden war (siehe unter Punkt 2). Auch das Leben überall auf der Welt nimmt an Vielzahl und Vielfalt zu. Nicht umsonst gelten tropische Regenwälder als das Dorado der Artenvielfalt. Das CO2 wird per Photosynthese nur zum Teil in Biomasse umgewandelt, ca. 30 % gehen als Hydrogencarbonat in die Böden (siehe Fachbücher der Pflanzenphysiologie). Ein nicht weiter wachsender Pflanzenbestand scheidet durch die Photosynthese (O2) und durch Atmung (CO2) die gleiche Menge ab, wie er für die Atmung (O2) und Photosynthese (CO2) verbraucht. Während der Wachstumsphase der Pflanzen wird im Zuge der Photosynthese so viel CO2 in organische Substanz eingebaut und O2 an die Atmosphäre abgegeben wie die Konsumenten dieser organischen Substanz (Bakterien, Pilze, Weidetiere, der Mensch, ja die Pflanzen selbst durch ihre Atmung) im Zuge der Verdauung, Atmung, Verrottung, Verwesung an CO2 freisetzen und an O2 verbrauchen. Dieser Prozess ist jedoch dynamisch und somit nicht für einen betrachteten Zeitabschnitt, wie z.B. 30 Jahre (internationale Definition für Klimazeitraum) konstant oder geschlossen. Mit zunehmendem Wachstum, z.B. durch bessere klimatische Bedingungen, wozu auch CO2 gehört, nicht umsonst ist CO2 ein effektiver Pflanzendünger, ergibt sich bildlich gesprochen, eine Spirale nach oben. Es gibt in einer offenen Atmosphäre mit ständiger Durchmischung keinen geschlossenen Kreislauf. CO2 schwankt mit der Temperatur und war nie konstant. Mit zunehmender Artenvielfalt steigen z.B. auch deren CO2-Emissionen (siehe unter Punkt 9).

Wer behauptet, natürliches CO2 wäre konstant, also ohne Einfluss auf die atmosphärischen CO2-Schwankungen, der hat entweder sein Metier verfehlt, oder sagt bewusst Falsches, wie die folgende Abbildung zeigt. 

Die Abbildung zeigt, wie sich laut NASA/Science die Artenvielfalt seit Beginn der 1980-Jahre steigerte, was folglich auch Auswirkungen auf die C-Kreisläufe der Natur hat. Von konstanten Kreisläufen kann also gar keine Rede sein. 

Fazit:   Der atmosphärische CO2-Gehalt war in der Atmosphäre nie konstant, sondern schwankte ganz erheblich. Anhand der gigantischen natürlichen CO2-Mengen, die allein durch eine Erwärmung freigesetzt werden und den CO2-Pegel triggern (Abbildung unter Punkt 2), gehen die wenigen GT anthropogenem CO2 im Hintergrundrauschen natürlicher Fluktuationen unter.

9.) These lt. Focus der Klimarealisten

Wir atmen zu viel

dazu im Text von Focus Redakteurin Christina Steinlein

Es stimmt, dass Menschen, Pflanzen und Tiere Kohlendioxid ausatmen – und zwar die unvorstellbare Menge von etwa 120 Milliarden Tonnen pro Jahr. Aber: Wie schon erwähnt, gehören diese zum geschlossenen Kohlenstoffkreislauf. Das ausgeatmete CO2 entsteht bei der Verbrennung von Nahrungsmitteln im Körper. Es ist also Kohlendioxid, das vorher der Atmosphäre durch die Photosynthese entzogen wurde.

Das Gleiche gilt für die Verbrennung von Holz: Wird immer nur so viel Holz verbrannt wie auch wieder aufgeforstet wird, trägt die Holzverbrennung nicht zusätzlich zum Treibhauseffekt bei.

EIKE zu Punkt 9 

Mit jedem Atemzug CO2 (385 ppm), dass wir einatmen, atmen wir die fast 150-fache Menge CO2 wieder aus. Jeder Mensch fast 1 Tonne und Jahr. Die von allen Menschen im Atmungsprozess erzeugte CO2-Menge ist beispielsweise mit der des weltweiten automobilen Verkehrs in etwa gleich zu setzen. Gottlob ist beim IPCC noch niemand mit der Forderung an die Menschheit herangetreten, dass diese, oder bestimmte Länder, jetzt nicht mehr atmen dürfen oder zumindest der Sport einzuschränken ist, bei dem bekanntermaßen die Atmung auf Hochtouren läuft.

Wie bereits geschildert, gibt es in der Natur weder stationäre Systeme, noch geschlossene Kreisläufe. Die Menge CO2, die die Menschheit im Jahr durch den Citrat-Zyklus produziert und in die Umwelt abgibt, ist vernachlässigbar, mit der Menge, die Bakterien oder Insekten als Beitrag zusteuern. Nach Brefeld beträgt allein die Biomasse der landlebenden Mikroorganismen 400 Milliarden Tonnen, die alle über den Citratzyklus Energie gewinnen und dabei CO2 freisetzen. Die Biomasse der Menschen liegt mit 0,4 Milliaden Tonnen bei 1/1000 und ist damit vernachlässigbar klein. Wie ein jeder weiß, steigen mit zunehmender Temperatur die Lebensbedingungen für Bakterien und sonst. Mikroorganismen. Nicht umsonst werden in der medizinischen Forschung die dort ablaufenden Prozesse mit dem Katalysator Wärme beschleunigt. D.h. aber, dass mit zunehmender Erwärmung die Biomasse entsprechend, teils explosionsartig steigt und damit natürlich auch deren Stoffwechsel und mit diesem die Atmung, wodurch sich die ausgebrachte CO2-Menge dieser Spezies deutlich erhöht.

Die genannten 120 GT beruhen denn auch nur auf den Abschätzungen des IPCC: 60 GT/Jahre durch Respiration von Pflanze und Tier und 60 GT/Jahr durch Bodenatmung (Bakterien). Diese Schätzung ist mehr als fragwürdig (auch ohne Glaciergate). Allein die Insektenatmung einer Spezies (Drosophila) beträgt  im halben Jahr 2.000 GT!!! (Fachbücher der Tierphysiologie). 

Die folgende Abbildung zeigt, wie sich dynamische Populationsmodelle verhalten. Es sind keine stationären oder in sich geschlossenen Systeme, sondern stark dynamische und offene.

Die Abbildung links zeigt den Unterschied zwischen begrenztem und exponentiellem Wachstum bei optimalen Bedingungen. Populationen bewegen sich, je nach Rahmenbedingungen zwischen diesen Kurven. Die rechte Abbildung zeigt anhand der Räuber/Beute-Beziehung das Schwingverhalten der Individuenanzahl. Durch die derzeitige Schwingung nach oben, zu mehr CO2 (auf Grund von Ausdünstungen aus Ozean/Land und erhöhter Biodervisität) wird das Pflanzenwachstum angetrieben, wie es die Untersuchungen der NASA (Abbildung unter Punkt 8) zeigt. 

Der weltweit anerkannte Prof. Veizer sagt hierzu folgendes: "CO2 reitet quasi Huckepack auf dem Wasserkreislauf, denn bei der Photosynthese müssen Pflanzen fast 1000 Wassermoleküle ausatmen, um ein einziges CO2-Molekül aufzunehmen." Wenn es wärmer wird, beschleunigt sich der irdische Wasserkreislauf, die Bioproduktivität erhöht sich, Bodenorganismen atmen vermehrt CO2 aus (http://www.pro-physik.de/Phy/leadArticle.do?laid=2547). 

Fazit:   Die befragten “Klimaforscher“ wandern auf ihnen unbekanntem Terrain und kommen dabei mächtig ins Straucheln. Deren genannte Zahlenangaben sind reine Spekulation (Vermutungen). Die Aussage, es gäbe stationäre Systeme, die somit keinen Einfluss auf die atmosphärische CO2-Konzentration hätten, ist wissenschaftlicher Mumpitz.

  

10.) These lt. Focus der Klimarealisten

Das wird alles nicht so schlimm, weil es Rückkopplungen gibt

dazu im Text von Focus Redakteurin Christina Steinlein 

Seit der Industrialisierung hat die Menschheit die CO2-Konzentration in der Atmosphäre um ein Drittel erhöht. Werden unvermindert Treibhausgase emittiert, wird sich der CO2-Gehalt bis etwa 2050 verdoppelt haben. Der jüngste Bericht des Weltklimarats nennt eine Spanne von 1,1 bis 6,4 Grad Celsius, je nachdem, wie sich die CO2-Emissionen entwickeln.

Schon eine leichte Erwärmung kann Vorgänge in Bewegung setzen, die den Treibhauseffekt verstärken oder abschwächen. Die Klimaforscher sprechen von positiven oder negativen Rückkopplungen. Es sind etliche dieser Rückkopplungen bekannt – das Problem ist, dass es sich dabei fast ausschließlich um solche Effekte handelt, die den Klimawandel beschleunigen. Die Wissenschaftler nennen solche Ereignisse „Kipppunkte“.

Die Erfahrung der Erdgeschichte zeigt, dass schon für Laien recht moderat klingende Klimaveränderungen immer massive Auswirkungen gehabt haben. Sie lehrt, dass in der Vergangenheit die Veränderung des Meeresspiegels pro Grad Celsius globaler Temperaturänderung zwischen 10 und 30 Metern lag. Wenn die Temperatur sich bis 2050 um zwei Grad erhöht, im Vergleich zu der Zeit vor der Industrialisierung, werden die Meeresspiegel langfristig um 20 Meter ansteigen. Venedig, New York und Bombay können wir vergessen“, warnt Hans-Joachim Schellnhuber, Leiter des Potsdam-Instituts für Klimafolgenforschung.

Ob er die Folgen des Klimawandels als „nicht so schlimm“ einschätzt, bleibe jedem selbst überlassen, sagt Marotzke. „Die Fakten sprechen jedenfalls für sich.“

EIKE zu Punkt 10

Die meisten Rückkopplungen sind spekulativ und nicht nachgewiesen, bzw. widerlegt (siehe Punkt 4). Nie sind Kipppunkte in der Natur beobachtet worden. Dagegen verlaufen alle geophysikalischen Vorgänge in Zyklen. Es gibt keinen beschleunigten Klimawandel (siehe oben und folgende Abbildung). Die Konzentration  des CO2 hat sich gemäß direkten Messungen um  ca. 2,6 % seit 1826 erhöht. Dies liegt innerhalb der Fehlergrenze und somit im natürlichen Rauschen (Beck E.G., Reconstruction of atmospheric CO2 Background levels since 1826, unpublished manuscript; ww.realCO2.de). Der vorindustrielle CO2-Wert lag deutlich höher, als das IPCC dies angibt und war wesentlich volatiler, wie aus dem Bericht der amerikanischen Akademie der Wissenschaft zu entnehmen ist, dortige Figur 2 (http://www.ncbi.nlm.nih.gov/pmc/articles/PMC129389/).

Prof. Augusto Mangini (Universität Heidelberg) hat in Zusammenarbeit mit Prof. Spötl von der Universität Innsbruck Stalagmiten der Spannagel-Höhle (Tirol) ausgewertet. Mittels weiterer Proxys (13C, Strontium, Barium, Yttrium, Blei, Schwefel, sowie ins Meer gespülte Sedimente) hat das Forscherteam seine Temperaturreihen abgesichert, so dass aus Sicht von Mangini et al. die Temperaturwerte (blaue Kurve) genauer, als mit Vergleichsmethoden (rote Kurve) angegeben werden konnte, Quelle: Wiener Zeitung vom 19.04.2009. Es fällt auf, dass die Temperaturwerte sehr viel variabler sind, als vom IPCC ausgewiesen. So stiegt im 4. Jahrhundert nChr. die Temperatur um 1,6°C in 120 Jahren. Hierzu ist der heutige Temperaturanstieg von 0,7°C im 20. Jahrhundert (der teilweise noch gefälscht ist) vergleichsweise gering.

Fazit:   Wissenschaft ist die Lehre der Exaktheit! Marotzke, Rahmstorf und Schellnhuber sind dieser Maxime offensichtlich nicht verpflichtet und betätigen sich lieber als Vermutungswissenschaftler, deren Thesen mit schriller Propaganda und immer phantastischeren Horrorszenarien zum Sieg verholfen werden soll. Wir möchten den o.g. Professoren deshalb die Aussage eines gestandenen und seriösen Wissenschaftlers, Herrn Prof. Dr. John S. Mattick, der in Spektrum der Wissenschaft 03/05 (in einem anderen Zusammenhang, die Aussage aber umso passender beim Klimaspektakel) folgende Worte fand, zum Nachdenken entgegen und mit auf den Weg geben:

“Unbewiesene Annahmen entwickeln manchmal ein Eigenleben, was besonders in der Naturwissenschaft unangenehme Folgen haben kann. Am Anfang geht es gewöhnlich nur um eine plausible oder einfache Erklärung der Befunde. Wenn sie keine offensichtlichen Mängel aufweist und ihr Wahrheitsgehalt nicht unmittelbar überprüfbar ist, mutiert sie aber oft zum Glaubenssatz. Neue Beobachtungen werden dann passend interpretiert. Irgendwann aber muss das Dogma unter der Last eklatanter Widersprüche zusammenbrechen.“  

Zusammengetragen von Dipl.-Ing. Michael Limburg, Dipl.-Biologe Ernst Georg Beck, Dipl.-Ing. Raimund Leistenschneider – EIKE