„Ein hochrangiger deutscher Politiker aus einer großen Volkspartei….„… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

(Die Grundidee dieses Satzes soll von Voltaire stammen: Wenn es keinen Gott gäbe, so müsste man ihn erfinden“; allerdings soll Voltaire auch gesagt haben: „Ja weniger Aberglaube, desto weniger Fanatismus, desto weniger Unheil“. Ich hoffe nur, dass unser Politiker dies auch wusste)

Meine Frau und ich haben in dreißig Ehejahren eine sehr nützliche Übereinkunft getroffen: Wenn wir Gefahr laufen, wegen Sachen, die wir uns unbedacht sagen, aneinander zu geraden, dann muss der, der gerade was Blödes vom Stapel gelassen hat, den Satz noch dreimal laut sagen – in aller Regel erkennen wir dann, was gerade schief läuft, müssen meist drüber lachen. Und alles ist gut.

Ich bat diesen Politiker, das auch zu tun – aber er verstand nicht, was ich damit wollte.

Meine Damen und Herren, das ist genau der Punkt.

Diese Aussage unseres Politikers ist so absolut zynisch, so demagogisch und offenbart – selbst wenn man sie nur einmal hört – einen höchst alarmierenden Sinn hinter all dem Gedöns von Erderwärmung, CO2 und anderen Katastrophen: arrogante Machtpolitik.

Eine zweite Sache hat mich dann aber völlig aus dem Häuschen gebracht. Nicht nur, dass ich eine Reihe bezeichnender Zitate von Journalisten aller Couleur, aus Presse, Fernsehen, Internet usw. vorzeigen könnte, die von „einer CO2-freien Welt“ (wortwörtlich!) als erstrebenswertes Ziel aller Anstrengungen schwätzen, nein, dieser gefährliche Unsinn wird per politisch sanktioniertem Lehrplan in den staatlichen Schulen auch unseren Kindern übergeholfen.

Ich habe mir die einschlägigen Unterrichtsmaterialen des sächsischen Kultusministeriums für Lehrer besorgt. Mit diesen verbindlichen Vorgaben sollen den Schülern in einer poppig aufgemachten Art und Weise die Gefährlichkeit des Giftgases CO2-vorgeführt werden. Die Zukunft unserer Erde und auch die der unmittelbaren Heimat wird in den düstersten Farben gemalt (Dürren, Seuchen, Hungersnöte, Naturkatastrophen, Kriege usw.) und es wird nützliche Handreichung gegeben, wie und mit welchen Argumenten gegen feindliche „Klimaskeptiker / Klimaleugner“ vorzugehen sei.

Doch, meine Damen und Herren,

was wissen wir tatsächlich?

Was müssen wir tatsächlich tun?

Nun, zunächst sollten wir uns immer vor Augen führen, dass das „Teufelsgas“ CO2 einerseits ein Spurengas ist (also wie schon der Name sagt, nur in geringen Spuren vorkommt) und andererseits ein für uns äußerst wichtiges Gas darstellt: Die Existenz der gesamten Pflanzen- und Tierwelt – auch die des Menschen – hängt nämlich vom Vorhandensein dieses „Killergases“ ab. Es ist  (in den vorkommenden Spuren-Konzentrationen) also weder gefährlich noch giftig. Eine CO2-freie Atmosphäre würde uns töten. Eine „CO2-freie Zukunft“ müssen wir unbedingt verhindern!

Die Frage ist, wie groß muss und darf der Anteil dieses Gasen in der Atmosphäre sein und was ist „normal“?

Die beschämende Antwort auf diese Frage ist: Wir wissen es nicht.

Gehen wir dem weiter nach, so sehen wir, dass Messungen, die nicht in die eine oder anderer Richtung „zurechtgebogen“ sind, ganz unterschiedliche Konzentrationen in der Vergangenheit und heute belegen. Grundsätzlich muss natürlich beim Vergleich von Daten geklärt werden: wie man misst und wie vergleichbar die Messmethoden und wie groß ihre Fehlerbandbereiten sind.

Dennoch, aus seriösen Recherchen erkennt man leicht: in der Atmosphäre (also in „Freier Umgebung“ – hier drinnen werden wir sicher schon bei 4000 ppm sein…) scheinen Konzentrationen von 250 bis über 1400 ppm in der erdgeschichtlichen Vergangenheit, in historischer, vorindustrieller Zeit und auch heute keine ungewöhnlichen Zahlen zu sein. Selbst in den letzten 200 Jahren schwankten die gemessenen Werte zwischen 450 und 290 ppm.

Man misst heute im Observatorium auf dem Vulkan Mauna Loa rund 380 ppm (die berühmte, seit Mitte der 50-iger Jahre ansteigernde Kurve).

Die nächste und wie mir scheint, die grundlegendste Frage ist, beeinflusst diese im ppm (Part per Million) Bereich liegende CO2-Konzentration die Temperatur der Erdatmosphäre? Auch hier zeigen verschiedene direkte Messungen …

(ach übrigens, wer weiß, seit wann es überhaupt Thermometer und eine richtige Grad-Skala gibt?  –  seit Fahrenheit 1715) 

… und indirekte Temperaturermittlungen, dass es z.B. vor 3600 Jahren rund 1 grad wärmer war, als heute, dafür 200 Jahre später (vor 3400) 1,5 grad kälter. Was immerhin einen Temperatursturz von 2,5 grad in 200 Jahren bedeutete – und zu dieser Zeit gab´s nur ganz wenige Menschen und keine Autos und vor allem keine Klima-Rettungsaktion.

Um solche Temperatur-Schwankungen zu erklären, wird gewöhnlich mit dem sogenannten Treibhauseffekt argumentiert und wenn man die damit zusammenhängenden Veröffentlichungen auf der „Klimaschützer“-Seite durchforstet, scheint alles völlig klar zu sein.

Die tatsächliche Antwort auf diese Frage ist aber ebenso überraschend und beschämend, wenn man die ganze Literatur durchkämmt, wie die zur Normal-Konzentration von CO2: wir wissen es nicht.

Wir wissen nicht genau, wie CO2 als „Klimagas“ im komplexen System der Atmosphäre insgesamt wirkt. Und es existiert kein wissenschaftlich verifizierbarer und falsifizierbarer Zusammenhang zwischen CO2-Gehalt und Temperatur. Das, was wir aufstellen sind Korrelationsvermutungen – und die können auch z.B. so gedeutet werden, dass die CO2-Konzentration in der Atmosphäre der Temperatur folgt und nicht umgekehrt.

Mich als gelernter Experimentalphysiker verwundert dabei besonders, dass mir trotz intensiver Recherche und Anfragen an ein paar meiner Physiker-Kollegen bislang kein ernstzunehmendes Experiment zur Wirkung des CO2 als „Treibhausgas“ bekannt geworden ist.

Aber verdammt, viele Leute scheinen doch ganz genau zu wissen, dass das Klima über kurz oder lang kollabieren wird, wenn wir nichts dagegen tun: sprich das weitere „Einblasen“ von CO2 in die Atmosphäre, koste es, was es wolle, unterbinden. Wozu denn sonst die gewaltigen Ausgaben für Klimaforschung, die großen und teuren Klimakonferenzen, die heiß umkämpften politischen Vereinbarungen, die dringenden Appelle usw.

Woher kommt die Mär von den 2 grad, die wir dem Klima noch zubilligen und die sich z.B. auch unsere Diplomphysikerin Merkel als Grenzziel setzt?

Tja,

auch das beruht nicht auf gesichertem Wissen. Es ist allenfalls eine Annahme.

Allerdings wissen wir genau, wer sie verbreitet und wer sie als politisches Programm aufgenommen hat und wer nun seine Volkswirtschaft und seine Steuerzahler dafür bluten lässt und wer damit schon jetzt steinreich geworden ist. 

Alle, aber auch wirklich alle diese „Vorhersehungen“, oh, Verzeihung,  „Vorhersagen“ sind Ergebnisse von Computer-Modellen, basierend auf komplexen, chaotischen Systemen, basierend auf dem nicht genauen Wissen über Treibhauseffekte und auf immer noch nicht genau bekannten CO2- und anderen Gas-Kreisläufen (Wasserdampf) im Boden, im Ozean und in der Atmosphäre.

Allerdings ist völlig klar: Wetter (lokales, globales und damit auch Klima – im strengen statistischen Sinne) unterliegt einer ständigen Veränderung. Und diese Veränderung findet mal schnell und mal langsam statt. Das kann man ohne großartige Messungen und Computerprogramme in und an der Natur (Pflanzenwelt, Tierwelt, Landwirtschaft, Seefahrt, Handelstraßen usw.) sehen, erleben, und nachvollziehen. Eigentlich wäre es sogar äußerst merkwürdig, wenn das nicht geschähe. Das Problem ist nur: aus unerfindlichen Gründen sind die heute lebenden Menschen auf „Statik“ getrimmt und jede (natürliche) Veränderung wird deshalb als Bedrohung aufgefasst. Früher freuten sich die Leute, wenn es wärmer wurde – heute haben sie davor panische Angst.

Liebe Freunde,

Nichtwissen, kann durch Wissen ersetzt werden, indem man misst, forscht, nachdenkt und rechnet.

Das ist Sinn der exakten Naturwissenschaften.

Aber leider gibt es auch eine bittere Erkenntnis, die im Lauf der langen Geschichte menschlicher Kultur immer wieder gewonnen werden musste:

Nichtwissen wird durch Halbwissen, durch „Konsens“ von Laien und letztlich durch Glauben ersetzt, was dazu führt, dass nur noch das gemessen wird, was die Priester voraussagen. Die „treuen“ Forscher beforschen eifrig die Wahrheit der reinen Lehre ihrer Religion und das damit nicht konforme Denken wird erst ausgegrenzt, dann verpönt und schließlich unter Strafe gestellt und geahndet – Ungläubige werden identifiziert, zu Ketzern erklärt. Im Mittelalter wurde so was in Europa unter dem Jubel der Masse auf Scheiterhaufen verbrannt.

Ich habe den merkwürdigen Eindruck, dass wir ohne auf diese Lehre aus unserer Vergangenheit zu achten, heutzutage feste dabei sind, diesen alten Holzweg neu zu beschreiten. Und Alle machen mit. Oder zumindest fast Alle.

Ja es ist ganz lustig, da machen sogar die mit, die es eigentlich aus eigenem Verständnis nicht tun sollten.

Da stellen sich z.B. bedeutende Wirtschaftsunternehmen, deren aktenkundiger Geschäftszweck die profitable Produktion und der steigende Absatz von Energie ist, an die Spitze von Energie-Einsparungsaktionen.

Da ist ungefähr so, als ob Volkswagen anstelle einer Abwrackprämie eine „Auto-Vermeidungsprämie“ fordern würde.

OK, das war nicht fair. Also Spaß beiseite, kommen wir auf unseren Politiker vom Anfang zurück.

Ich fragte ihn weiter, was denn das Richtige sei, was „unseren Menschen“ beigebracht werden müsse, was sie aus Unkenntnis denn nicht verstünden?

Nun, er rückte mit der Forderung nach Umweltschutz raus. Und letztlich warf er das Menetekel der Erschöpfung aller fossilen Energieträger, Gas, Kohle, Erdöl in die Wagschale seiner Argumente, beklagte das mangelnde Bewusstsein der „Verbraucher“ was den Einsatz von Energie betrifft und die mangelnde Energieeffizienz der heutigen Technik.

Hm. Dagegen kann man ja nun wahrlich nichts sagen!

Umweltschutz ist immer gut, Energieeffizienz auch. 

Doch fangen wir nochmals von Vorne an.

Die Erde ist ein relativ offenes System und gleichzeitig auch ein relativ geschlossenes.

Offen, was die energetische Wechselwirkung mit dem Kosmos, insbesondere mit unserer Sonne betrifft, geschlossen, was den Kreislauf von mit Masse behafteten Stoffen betrifft.

Insofern werden wir unentwegt mit einer (im Vergleich zu unserem Verbrauch) riesiger Menge an Energie „bombardiert“, die auch praktisch gleichzeitig unseren Planeten fast wieder vollständig verlässt. Das, was zeitweilig als Rest hier bleibt, heizt einerseits den Planeten und dessen Atmosphäre auf das uns heute bekannt Maß als Gleichgewichtszustand auf. Andererseits speichern Gesteine, Wasser, Luft, Pflanzen und Tiere die ankommende Sonnenenergie in ganz verschiedenen Formen und Zeiträumen.

So weiß man, dass Kohle gespeicherte Sonnenenergie in Form verrotteter Pflanzen ist. Bei Erdöl und Gas weiß man es – und das ist auch wiederum ganz verblüffend – nicht so ganz genau. Ja natürlich, in der Schule lernt man, dass dies auch nur Produkte aus Pflanzen- und Tierresten sind. Aber auch hier werden durchaus ernste Zweifel angemeldet. Und mir ist bekann, dass Ölfirmen in Tiefen bohren, in denen die „biologische“ Entstehungstheorie große Mühe hat, die gefundenen Vorkommen zu begründen. 

Auch der heute meist verwendete Brennstoff für unsere Atomkraftwerke ist nichts anderes als ein Energiespeicher – allerdings stammt dessen Energiegehalt aus ganz frühen Anfängen des Sonnensystems, bzw. des uns bekannten Kosmos.

Egal. Dem vernünftigen Menschen leuchtet ein: Wenn der Tagebau leer ist, ist er leer und neue Kohle kommt da nicht wieder rein – jedenfalls nicht zu unseren Lebzeiten. Kurz die Endlichkeit fossiler Energieträger ist zumindest ein richtiger Denkansatz, wenngleich die Zeiträume bis zur Erschöpfung nicht kurz sein werden, wie immer mal wieder panisch gewarnt – aber das ist prinzipiell unwichtig.

Das Problem, vor dem wir hier stehen ist, dass die Stoffkreisläufe (der Kohlenstoff-Kreislauf), die zur Bildung von Kohlenstoff-Reserven in Form fossiler Träger führen, in riesigen Zeiträumen stattfinden, angetrieben durch die Sonnenenergie. Wir aber greifen mit unserer Energiegewinnung und den damit verbundenen Stoff- und Energiewandelungsprozessen nur in einem klitzekleinen Zeit-Ausschnitt massiv ein. Wir erzeugen damit diskontinuierlich Prozess-Produkte in Spitzenkonzentrationen, die uns in den kurzen Zeitspannen ihrer Freisetzung, gemessen am langen Zeitraum ihrer Entstehung eben Probleme bereiten. 

Kurz: Wenn wir davon ausgehen, dass die wirkliche Herausforderung nicht das sich völlig unabhängig von der Tätigkeit des Menschen ständig durch kosmische Kräfte verändernde Wetter (hier als statistische Größe Klima genannt) ist, sondern die umweltschonende Bereitstellung von Energie für die zivilisatorische und kulturelle Entwicklung der gesamten Menschheit auf der Erde, dann sind wir wieder völlig beieinander.

Wir können das Klima nicht schützen und das Wetter (Temperatur, Luftdruck, Luftfeuchte, Wolken, Niederschlag usw.) wahrscheinlich global auch nicht beeinflussen, ganz sicher aber die Umwelt. Und Beides sind völlig verschiedene Sachen.

Ein Freund sagte mir vor kurzem mit Blick auf diese unsägliche CO2-Hysterie: wir haben kein CO2-, sondern ein C-Problem: Wir verfeuern derzeit kostbare und vielleicht tatsächlich endliche, sehr billige und gut verfügbare C-Träger, die wir viel besser für Chemieindustrie und Pharmaherstellung verwenden könnten. Das ist – bei dieser Gelegenheit gesagt, auch wahr und ein bisschen beschämend, wenn uns außer Verbrennung nichts Besseres für diesen Schatz einfällt.

Also dreht sich alles um eine zukunftsfähige, die Umwelt nicht negativ beeinflussende, weltweite, unsere Kohlenstofflager schonende, ausreichend große Energieproduktion.

Energie, die wir dringend benötigen.

Energie, deren Verbrauch nicht deswegen steigen wird, weil die „armen Länder“ auch eben nur mal so viel konsumieren wollen wie wir, sondern weil sich das Kulturniveau aller Menschen anheben und auf hohem Niveau über die ganze Erde hinweg ausgleichen wird.

Es ist gerade die Energieproduktion, die wir nicht mehr „abstellen“ können, weil sie der Antrieb und die Grundlage für unsere zivilisatorische Entwicklung geworden ist. Energie sinnvoll einzusetzen ist die eine Seite, d.h. alle Entwicklungen, die energieeffizientere Technologien (Produktion, Verkehr, Logistik und Verbrauch) zum Ziel haben, sind richtig im ethischen Sinn und dies ist sicher auch eine große Chance für viele mittelständische Unternehmen.

Aber es geht auch um alternative Energieproduktion, um Energietransport und Speicherung, um den zukünftigen Energiehunger der Weltbevölkerung zu stillen. Und dieser „Hunger“ darf nicht als negative Forderung verstanden werden, sondern als Herausforderung an Wissenschaft und Technik.

Denn dieser „Energie-Hunger“ ist der messbare Ausdruck unserer kulturellen Fortentwicklung. So, wie der Hunger eines menschlichen Individuums nach energiereicher Nahrung Ausdruck des Energieverbrauchs seines Körpers und insbesondere seines Gehirns ist.

Kommen wir noch kurz auf die scheinbare Lösung des Energieproblems durch Kernfusion.

Wahrscheinlich werden wir in wenigen Jahren in der Lage sein, ein solches Kraftwerk zu bauen und in Betrieb zu nehmen. Es würde eine riesengroße Menge an Elektroenergie produzieren. Aber es löst zwei Probleme nicht: den verlustreichen Transport von Elektroenergie über große Entfernungen und die Aufheizung der Erde – nicht durch atmosphärische Spurengase – sondern durch tatsächliche Aufheizung des Mantels infolge einer Energieproduktion zusätzlich zur (gespeicherten oder ständig einfallenden) Sonnenenergie, mit der unsere Erde im Gleichgewicht steht, auch wenn wir sie in Energie-Umwandlungsprozesse einbeziehen und Arbeit verrichten lassen. Außerdem würden nur wenige Kraftwerke an zentralen Stellen nötig und finanziell möglich sein.

Wer garantiert dann bei der heutigen politischen Weltlage die Durchleitung und den sicheren Betrieb?

Also vergessen Sie die Kernfusion. Lassen Sie sich von der Sonne „erleuchten“.

Hier hat die Natur nur leider ein großes Problem für uns parat: die Energiedichte ist sehr klein – zu klein für die heutige Technologie der Sonnenenergiegewinnung. Und zu allem Verdruss gibt es sowohl Tag und Nacht und Wolken, Sturm und Windstille. Da Wind und fließendes Wasser, aber auch Pflanzen ja auch nichts Anderes als Energie-Träger der Sonnenenergie sind, ist bei allen diesen Sachen die Herausforderung gleich und mit heutigen technischen Mitteln ist nur die Wasserkraft sinnvoll im Sinne von Aufwand und Nutzen und kontinuierlicher Verfügbarkeit im Vergleich zu Kohle, Erdöl, Gas und Uran.

Anstatt also Milliarden und aber Milliarden zu verschwenden, um 100-Watt-Glühlampen zu verbieten und CO2-Abgase in Bergbaustollen zu verstecken, anstatt teure Silizium-Platten auf Scheunendächern zu entsorgen und Landschaften mit hässlichen Windmühlen zu verschandeln, deren Existenz allein von der gewaltigen Subventionierung durch den Steuerzahler abhängt, muss es eine Rückkehr zur wissenschaftlichen und ingenieurtechnischen sowie zur wirtschaftlichen und letztlich politischen Vernunft geben.

Es muss tatsächlich alles daran getan werden, die auf die Erde einfallende Sonnenenergie als praktisch unerschöpfliche und riesige Energiequelle „anzuzapfen“. Aber leider scheinen eben die heute eingesetzten Technologien dafür nur bedingt geeignet zu sein.

In diesem Zusammenhang muss auch Alles auf den Prüfstand, was mit dem heutigen Energie-System in Verbindung steht und was Ideen für die Zukunft liefern könnte. Zum Beispiel halte ich es für sehr angebracht darüber nachzudenken, ob es nicht besser wäre, statt der kontinuierlichen, zentralen Energieerzeugung eine verbrauchsabhängige, also variable, dezentrale Erzeugung „vor Ort“ zu bevorzugen.

Dies würde ganz andere Denkansätze und Technologien bei Erzeugung, Transport und Speicherung ermöglichen. Also werden wir auch die Frage stellen: ja, muss es denn Strom sein, den wir zentral erzeugen und über Drähte transportieren, ohne ihn wirklich sinnvoll speichern zu können, oder könnte man mit dem Energieträger Gas (Wasserstoff) nicht viel besser auskommen und umgehen?

Aber alle diese Fragen können nur beantwortet werden, wenn wir nicht mit Demagogie, nicht mit einem machtpolitisch motivierten Schwindel, nicht mit einer wissenschaftlichen Fälschung argumentieren. Und wir sollten uns auch volkswirtschaftlich nicht in die Tasche lügen.

Denn eines ist sicher: es wird herauskommen!

Es wird herauskommen – und der Verdacht des Betruges keimt bereits -, dass die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind und dass alle darauf bauenden Argumente und Folgerungen falsch sind.

Dies wird die Glaubwürdigkeit der Naturwissenschaft und der Politik dermaßen massiv untergraben, dass notwendige und richtige Ansätze zur Revolution der Energiesysteme nicht mehr ernst genommen werden. Und dann, meine Freunde, dann haben wir ein richtiges Problem!

Im Gegensatz zu meinem Politiker, der mir die Stichworte für diesen Vortrag geliefert hat, glaube ich nämlich fest daran, dass nur mit der Wahrheit und nur mit ihr und nur, wenn wir uns als vernünftige Wesen auch vernünftig über die großen Fragen streiten und einigen, nachhaltig die Existenz und Entwicklung unserer Zivilisation geschützt werden kann. 

Insofern freue ich mich auf die durch hocheffiziente Photosynthese-Werke gestützte, flexible Wasserstoff-Energiewirtschaft der Zukunft, die das Wort „Knappheit“ nicht mehr kennt.

Prof. Dr. Knut Löschke Leipzig

Der Vortrag erschien in leicht gekürzter Form zuerst bei der Partei der Vernunft




Angeblich immer heißere Sommer!

Im Text zu dieser Grafik – wurde beim Leser der Glauben erweckt, als wäre die Temperaturerwärmung nach 2003 weiter gegangen, genauso wie die Klimawissenschaftler dies damals vor sieben Jahren falsch vorhergesagt haben.

Doch tatsächlich kam es anders. Die Temperaturen sind in den letzten 9 Jahren nicht mehr weiter gestiegen, sondern gefallen. Laut Deutschem Wetterdienst sind die Jahresmittelwerte um 0,7 Grad Celsius zwischen dem Jahr 2000 und 2009 zurückgegangen.

Ich habe nun die Grafik eigenhändig um 6 Jahre erweitert und dabei versucht, die einzelnen Jahre einzutragen. Auch der Laie erkennt nun den starken Temperaturrückgang in diesem letzten Jahrzehnt. In Wirklichkeit ist der Temperaturrückgang noch stärker, weil der Wärmeinseleffekt der Klimastationen der Abkühlung entgegenwirkt.

Nun weiß jeder, weshalb die Temperaturgrafik im Jahre 2003 aufhört.

Josef Kowatsch, Hüttlingen




Cui Bono:Die finanziellen Interessen hinter der These vom Klimawandel!

Insofern sind die Ergebnisse aus /1/ und /2/ bedeutend.

Wie war es möglich,  trotz der Unlogik des von der offiziellen Klimaforschung behaupteten Mechanismus’ der  Öffentlichkeit das Märchen von der Klimakatastrophe ( und kürzlich von „tipping points“ ) durch CO2 einzureden?

Dies bewirkten im Verein mit dem geringen Verständnis der Öffentlichkeit für wissenschaftliche Fragen massive wirtschaftliche Interessen.

Es begann wohl in den 80er Jahren. Frau Thatcher hatte Probleme mit der nuklearen Wiederaufarbeitungsanlage Sellafield. Die Bevölkerung wollte sich darüber nicht beruhigen lassen. Da kam die Idee auf, die Vermutung von Arrhenius und Fourier aus dem 19. Jahrhundert wieder aufzuwärmen, CO2 könne auf Grund seiner Infrarotabsorption die Atmosphärentemperatur erhöhen. So sollte die Kernenergie als „das kleinere Übel“ der Öffentlichkeit schmackhaft gemacht werden.       

Der Einfluss von CO2 wurde übrigens bereits kurz nach seiner  Vermutung als äußerst gering erkannt, und 100 Jahre lang gab es dann in der wissenschaftlichen Literatur keine Erwähnung eines Einflusses von CO2 auf das Erdklima .

Fourier und Arrhenius schätzten die erwartete Erwärmung übrigens als eine der großen Wohltaten der Industrialisierung ein. Sie nahmen eine Erderwärmung im Hinblick auf den historischen Befund, dass in Warmzeiten sich die Menschheit immer kräftig zum Positiven entwickelt hatte, als eine „Annäherung an das Paradies“. Auch die Erhöhung der landwirtschaftlichen Erträge bei Zunahme von atmosphärischem CO2 war bereits bekannt.

Die Idee einer „gefährlichen“ Erderwärmung durch CO2  wurde in den 80er Jahren natürlich  von den Nuklearindustrien aller Länder aufgegriffen und verbreitet. Sofort eröffnete sich allen Regierungen die Vision von Steuern in riesiger Höhe, gegen welche die Betroffenen nicht protestieren würden können, da sie ja zur Weltrettung nötig sind. Umweltverbände sahen natürlich die Möglichkeit zu mehr Einfluss, Macht und Geldmitteln. Während der 20 Jahre der Existenz der CO2-These fanden sich ungezählte weitere Möglichkeiten, diese zu Lasten der Bevölkerungen zu nutzen: Entwickelte Staaten sahen hierin einen Hebel, die wachsende wirtschaftliche Konkurrenz der sich entwickelnden Länder zu kontrollieren. Wer CO2 kontrolliert, kontrolliert die Energie, und damit die Industrien ( was China, Indien und diverse andere Staaten durchschauten und es zum Eklat von Kopenhagen 2009 kommen ließen ).

Das „Bonbon“, das diesen Staaten angeboten wurde, hieß „Technologietransfer zur Bewältigung der Klimakrise“ (Lieferung auf Kosten der  Steuerzahler der entwickelten Länder). Ein verlockendes Arrangement für die Lieferfirmen. So stieg denn auch in wenigen Tagen vor der Klimakonferenz in Kopenhagen 2009 die dafür geforderte Summe von zunächst 6 Mrd. auf 100 Mrd. am nächsten Tag, und 1000 Mrd. (!) am übernächsten Tag. Hauptmotivation wurde aber in letzter Zeit der CO2-Emissionhandel.  Weltweit fallen jedes Jahr 30 Gigatonnen CO2 an. Bei der derzeitigen Belastung von 10 Euro/Tonne ( 30 Euro/ Tonne sind im Gespräch ) ergäbe das Einkünfte von 300 Mrd./ Jahr ( 900Mrd./Jahr ), in 10 Jahren also 3 bzw. 9 Billionen ( von den Verbrauchern/Steuerzahlern aufzubringen ) und ein entsprechendes Handelsvolumen. Wenige Prozent Handelsprovisionen ergeben daher Gewinne von riesigen Milliardensummen. Deshalb war ENRON  ( der größte Energiehändler der Welt  und einer der größten Konzerne Amerikas, bevor er in einem Feuerwerk von Korruption implodierte ) einer der heftigsten Verfechter des Kyoto Protokolls ( an welches sich NICHT halten zu müssen, die USA zur Bedingung der Installierung des UN-Klimarates gemacht hatten. Andererseits behielten sie sich dabei ausdrücklich vor, an den Geschäften  welche sich  mittels Propaganda des  Klimarates ergeben würden, teilzunehmen ).

Zitat von ENRON: „We intend to make this into a gigantic and long-lasting business“

Alle großen Bankhäuser, wie die inzwischen in Konkurs gegangenen Lehman Brothers, und Goldmann-Sachs bereiteten sich auf dies Riesengeschäft vor. Die „Chikago Carbon Exchange“ hat bereits Filialen in diversen anderen Ländern. Ihr Geschäftsführer gibt das Geschäftspotential sogar mit 10 Billionen ( in Worten: Zehntausend Milliarden ) pro Jahr an. Aktiv in diesem Geschäft ist Pachauri, der Vorsitzende des UN-Klimarates.

Ablasshandel: diverse Firmen verkaufen  existierende Aufforstungen und Anpflanzungen als Klimaschutz. Dabei tritt der Ablasshändler an den Anpflanzer heran und bietet ihm einen Teil des Geldes, das er vom Ablasssuchenden kassiert hat, wenn der Anpflanzer seine Anpflanzung nachträglich als Klimaschutz erklärt. Einer der Hauptakteure in diesem Geschäft ist der Klimaschützer  Albert ( Al ) Gore. Dessen Firma erwarb außerdem angesichts des enormen Profitpotentials bereits,  wie Goldmann-Sachs, 10% an der „Exchange“.

Der extrateure„grüne Strom“ kommt meist aus Wasserkraftwerken, welche schon viele Jahrzehnte lang Strom lieferten. Wenn die Elektrizitätsproduktion aus Wind und Sonne wegen mangelnder Sonne oder Wind ausfällt, muss Elektrizität  bis zu 50% aus dem Ausland zugekauft werden. D.h. überwiegend aus Kernkraftwerken. „Ökostrom“ also aus Kernkraftwerken. Die Betrugsmöglichkeiten sind unbegrenzt.

Nicht zuletzt profitieren die „Gefälligkeitsforscher“ für ihre Zuarbeit. Für die mühsame Kleinarbeit der Temperaturdaten-„Homogenisierung“ und für die Ausarbeitung von Klimamodellen, deren Falschansätze international durch Konferenzdiskussionen und Veröffentlichungen in streng zensierten Zeitschriften,  für den vielzitierten „Konsens der Forscher“,abgeglichen werden, sind bisher immerhin über 60 Mrd. geflossen. Wohlgemerkt, zur „Erforschung“ einer Frage welche bereits seit  100 Jahren geklärt ist.

Gewinne auf Kosten des Steuerzahlers machen die Hersteller von Anlagen zur Erzeugung von Strom aus Wind und Sonne. Jeder Arbeitsplatz in dieser Industrie in Deutschland muss vom Steuer- oder Gebührenzahler mit 150tausend Euro jährlich finanziert werden.

Zur „Erforschung“ von „Endlagerung“ von angeblich klimaschädlichem CO2 unter der Erde erhielt Vattenfall dies Jahr 200 Mio Euro aus Steuergeldern. Eine Technik die mit Sicherheit tausende von Erstickungsopfern fordern würde, und zu einer gigantischen Land- und Immobilienentwertung führen würde, womit die nächste Bankenkrise begänne.

Enorme Gewinne sieht auch die Agri-Industrie.  Archer Daniels Midland der größte amerikanische Landwirtschaftskonzern, lobbyierte  erfolgreich für eine zwangsweise Beimischung von Bioethanol zum Benzin. Nicht nur ergab das eine höhere Absatzmenge, sondern durch die gleichzeitige Verknappung des Nahrungsmittelangebotes generell steigende Preise für Agrarerzeugnisse. Wie wir es  2008/2009 erlebten.

  Die gigantischen  Profite, aufzubringen vom Steuerzahler und Verbraucher, würden sich verflüchtigen, sobald die Öffentlichkeit das Märchen durchschauen würde. Das erklärt die strikte Zensur der Medien, besonders der deutschen. Der aufmerksame Leser entnimmt zwar ab und an einer Formulierung, dass der Journalist mehr weiß als er schreibt, aber auch die Medien brauchen ihre Katastrophenthemen ( Waldsterben, Computerkatastrophen zur Jahrtausendwende, Eiszeit in den 70er Jahren etc.) so dass die Zensur umfassend ist. Zwar finden sich da und dort Andeutungen über die Wirklichkeit in den Internetausgaben  einiger Zeitungen ( Welt online, FAZ online, Spiegel online), die aber von der gutgläubigen Mehrheit nicht gelesen werden.

Bei diesen Profiten kann man erwarten, dass das CO2-Märchen mit Klauen und Zähnen verteidigt werden wird. Immer häufiger wird verlangt, nicht-linientreue Äußerungen und Forschungsergebnisse strafrechtlich zu verfolgen. Die Gesetzgebung versucht eilig, die Gesetze, welche den Profit zulasten der Steuerzahler/Verbraucher absichern, noch bevor die Blase platzt, unter Dach und Fach zu bringen.

Die Klimafront bröckelt jedoch. Die USA haben sich in Kopenhagen den asiatischen Ländern angeschlossen und ihre Klimagesetzgebung auf Eis gelegt.  Die Bundesregierung strebt nach ihrer Düpierung in Kopenhagen kein internationales CO2-Abkommen mehr an. Beim jetzigen G20-Gipfel wurde das Thema von der Tagesordnung genommen. Kanada hat sich aus den Klimaverträgen verabschiedet. Australien und Neuseeland haben  in einer spektakulären Kehrtwendung „klimarealistische“ Experten berufen, zur Neuformulierung ihrer Klimagesetzgebung. Der französische Wissenschaftsminister bezeichnete kürzlich den UN-Klimarat als „ganz gewöhnliche Mafia“. Die Royal Society in England hat prominente „Klimakritiker“ in wichtige Positionen berufen.

Hinter den Kulissen bereitet man sich daher schon vorsichtig vorausschauend auf den GAU vor.  Z.B. durch Namenänderung von Forschungsinstituten („Klimaforschung“ ersetzt „Klimawandel“ ). Zwecks Absicherung des Geldflusses auch nach dem Platzen der Blase.

Durchaus auch spektakulär  die Anmerkung des obersten deutschen Klimakatastrophenpropheten, Schellnhuber, er  setze seine Hoffnungen weniger auf die Politik sondern auf die Möglichkeit „dass sich die Klimaforschung kollektiv geirrt habe und irgendeinen Mechanismus, der das Klima stabilisiert, übersehen habe“

Um die Klimadiskussion in Perspektive zu setzen genügt ein Blick in die Geschichte. Die Ausbeutung der Angst der Bevölkerung vor Klimaänderungen war immer  eine beliebte Technik. Im Mittelalter forderten die Kirchen stetig wachsende ( finanzielle ) Opfer von der Bevölkerung um das existenzbedrohende  Anwachsen der Alpengletscher zu „ stoppen“.

Die atztekische Bevölkerung wurde von ihrer Priesterschaft so sehr mit finanziellen Opfern ( und Menschenopfern ) zwecks „Klimakontrolle“ belastet, dass sich ein großer Teil der Bevölkerung schließlich auf die Seite der spanischen Eroberer schlug.  Die atztekische „Klimakatastrophe“ ging also für ihre Betreiber nach hinten los.

Gesellschaftspolitisch  ist die Entwicklung nicht unplausibel. Die Kirchen sind ihres „Erklärungsmonopols“ verlustig gegangen. Die „Deutungshoheit“ ist im öffentlichen Bewusstsein auf  „die Wissenschaft“ übergegangen. Wenig Wunder also, dass dies Machtvakuum besetzt wurde.  Das Fischen im Trüben wird jetzt eben nicht mehr durch die Kirche gerechtfertigt, sondern mittels eines Eindrucks von, Wissenschaftlichkeit“ den Bilder von „ Klimarechenzentren“ hervorrufen sollen.

 Prof. Dr. Carl Otto Weiss für EIKE

Quellen:

  /1/ http://watssupwiththat.com/2009/07/23/new-paper-from-lindzen/

  /2/ http://wattsupwiiththat.com/2010/06/27/spencer-on-pinatubo-and-climate-sensitivity/

 /3/ http://jennifermarohasy.com/blog/2009/05/the-climatically-saturated-greenhouse-effect/

      auch:  G.W. Paltridge; Journal of the Royal Meteorological Society, Vol.127 ( 2001) 305




Greenpeace ist ein Konzern wie jeder andere!

Ökowatch: Sie haben in Ihren Beiträgen unter anderem die Umweltschutzorganisation Greenpeace angegriffen. Was stört Sie an Greenpeace?

David Harnasch: Überhaupt nichts. Greenpeace ist ein Konzern wie jeder andere, er verkauft nur statt Autos oder Lebensmitteln eine Weltsicht und eine Meinung. Mich stört an den werten Kollegen von der Presse, dass sie nur sehr selten hinterfragen, was ihnen von diesem Laden serviert wird, denn Greenpeace ist bekanntlich „unabhängig“. Was selbstverständlich Quatsch ist, denn die Gehälter für über 1.000 Festangestellte fallen nicht vom Himmel. Also muss Angst und Empörung geschaffen und bewirtschaftet werden. Das ist völlig legitim, aber das Geschäftsprinzip ist eher das der Bildzeitung als das von BMW.

    Ökowatch: Sie kritisieren unter anderem, dass Greenpeace die falschen Prioritäten setzen würde. Aber wie soll man entscheiden, was die richtigen Prioritäten sind und wer soll das tun?

David Harnasch: Die Prioritäten von Greenpeace sind aus dem Eigeninteresse der Organisation heraus absolut richtig: Wenn man mit der Angst vor gentechnisch optimierter Nahrung mehr Geld verdient als mit der Empörung über Gift im chinesischen Fluss Dongjing, dann wäre man schlecht beraten, den Fokus hierauf zu legen. Nur ist das eine ein Non-Problem, das andere hingegen eine Katastrophe, die mal eben 200.000 Menschen von der Trinkwasserversorgung abschnitt. Es wäre Aufgabe der Medien und der Verbraucher – im Falle Greenpeace also der zahlenden Mitglieder und Spender – hier die Perspektive geradezurücken.

    Ökowatch: Nicht nur mit Greenpeace, auch mit der Tierschutzorganisation PETA gehen Sie hart ins Gericht. Was ist der Kern Ihrer Kritik an PETA?

David Harnasch: Während viele NGOs sehr konkrete Ziele verfolgen, ist PETA praktisch eine NGO 2.0: Politische Kampagnen dienen dazu, Geld reinzuholen, von dem dann wiederum politische Kampagnen veranstaltet werden. Daher bleibt leider kein Geld für Tierheime oder Tiervermittlung übrig. Statt dem einzelnen leidenden Lebewesen konkrete Hilfe angedeihen zu lassen, wird ein großes – und im Kern menschenfeindliches – Ziel verfolgt: Rechte für Tiere. Auch hier richtet sich meine Kritik gegen Medien und die Promis, die sich massenhaft für diesen Laden zur Verfügung stellen: PETA istkeine Tierschutzorganisation, sondern eine Tierrechtsorganisation. Wie krude das hier gepflegte Gedankengut ist, lässt sich in fünf Minuten ergooglen. Von flachwurzelnden Schauspielschlauscheln darf man diese intellektuelle Leistung nicht erwarten, von Journalisten hingegen muss man sie einfordern.

    Ökowatch: Sind Umweltschutz und freie Marktwirtschaft in Ihren Augen Gegensätze oder Verbündete?

David Harnasch: Umweltschutz und freie Marktwirtschaft sind nur dann automatisch Verbündete, wenn eine freie Gesellschaft hinzukommt. Ohne freie Presse, NGOs und Politiker, die sich vor ihren Wählern verantworten müssen, bringt die Marktwirtschaft alleine der Umwelt wenig – siehe China. Der durch Marktwirtschaft ermöglichte Wohlstand ist notwendige, aber nicht hinreichende Bedingung für eine saubere Umwelt.

    Ökowatch: Was würde sich ändern, wenn NGOs im Umwelt- und Entwicklungshilfebereich stärker auf die Entfaltung eines freien Marktes – auch in der Dritten Welt – setzen würden?

David Harnasch: Einige würden ganz fix pleitegehen, denn derzeit leben viele nicht davon, Probleme zu lösen, sondern sie zu bewirtschaften. Der Begriff NGO trifft gerade bei der Entwicklungshilfe oft nicht zu, denn die meisten Vereine hängen hier direkt am Tropf des europäischen Steuerzahlers. Das größte Verbrechen der Ersten an der Dritten Welt sind Importzölle und andere Handelsschranken. Kaum ein anderer einzelner Akteur handelt so segensreich wie die WTO.

Das Interview führte Fabian Heinzel von Oekowatch

Mehr Infos zum Greenpeace Konzern finden Sie bei NOVO Stichwort "Greenpeace und die Gemeinnützigkeit" mit Dank an Leser Erik




Arktische Sommereisschmelze – Ein Menetekel für eine bevorstehende anthropogene Klimaerwärmung?

Dennoch macht vielen unserer Mitmenschen das nachfolgende Bild Sorgen, oder es wird versucht, damit Sorgen auszulösen.

Die Abbildung 1 zeigt die arktische Seeeisentwicklung zum 15.07.2010 im Vergleich der Jahre 2002 – 2009. Es ist unschwer zu erkennen, dass in 2010 in den vergangenen Wochen, die dortige Eisschmelze noch größere Ausmaße eingenommen hat, als im Rekordschmelzjahr 2007 im (kurzen) Vergleichszeitraumes 2002 – 2010. Quelle: (http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic)

 

Die Verfechter des anthropogenen Klimawandels machen für diese Eisschmelze anthropogen ausgebrachte THG´s (Treibhausgase) verantwortlich. Allen voran, Kohlenstoffdioxid (CO2), insbesondere, weil der Faktor, der von den Klimarealisten als einzig entscheidender Faktor für das Klimasystem Erde angeführt wird, die Sonne, derzeit eine „Pause“ einlegt, und eine vergleichsweise geringe Aktivität zeigt, CO2 aber nach wie vor ansteigend ist. EIKE wird Ihnen aufzeigen, dass zum einen, das Klimageschehen etwas komplexer ist und auf deutlich mehr Faktoren beruht, als uns das IPCC und deren Verfechter weismachen wollen und zum anderen, die Sommereisschmelze, auch die (scheinbar) beschleunigte Sommereisschmelze in 2010, die obiges Bild zeigt, allein auf natürlichen Ursachen beruht und dass es mit einem (vermeintlichen, auf kurzen Zeitspannen) Eisrückgang in der arktischen Seeeisbedeckung bald vorbei sein wird.

 

Die Abbildung 2 zeigt die solare Aktivitätskurve anhand des TSI (Total Solar Irradiance) im Zeitraum von 1980 – Juli 2010, Quelle: (ftp://ftp.pmodwrc.ch/pub/data/irradiance/composite/DataPlots/comp06_ext_d41_62_1005.pdf). Derzeit ist die Sonne in einer sog. ruhigen Phase.

 

Die Abbildung oben zeigt, dass der aktuelle 24. Sonnenzyklus nicht recht beginnen will und bis jetzt sehr schwach ausgefallen ist, was als Erklärung für die in 2010 beobachtete verstärkte Eisschmelze in Abbildung 1 gegenüber den Vorjahren nicht herangezogen werden kann.

 

Nun ist bekannt, dass die Sonne bis zum Jahr 2003 ihr langjähriges Maximum im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus hatte. 2003 war denn auch das Jahr, in dem in Mitteleuropa Rekordtemperaturen in einem „Jahrhundertsommer“ zu verzeichnen waren, der fälschlicherweise seinerzeit von großen Teilen der Medien dem anthropogenen Klimawandel zugeschrieben wurde (Abbildung 3).

 

Die Abbildung 3 zeigt die Temperaturanomalien im “Hitzesommer“ in Europa vom August 2003, Quelle: Hadley Center. Die Temperaturanomalien beziehen sich dabei im Vergleich auf das späte 19. Jahrhundert.

 

Die Abbildung 4 zeigt, wie sich die magnetische Aktivität der Sonne mit dem Hauptsonnenzyklus, bei dem es sich vorwiegend um einen magnetischen Zyklus handelt, im 20. Jahrhundert änderte. Obwohl der bekannte Sonnenzyklus, der im Mittel 11-jährige Schwabe-Zyklus in 2003 bereits abgefallen war, befand sich die magnetische Aktivität und damit die Aktivität der Sonne in ihrem Maximum. So waren beispielsweise im Oktober 2003 in Deutschland Polarlichter zu sehen, was den Sonnenforscher der Uni Göttingen, Dr. Volker Bothmer, zu der Aussage veranlasste, dies sei normalerweise nicht möglich, dann müsse auf der Sonne Sturm herrschen. Die ESA bezifferte die Schäden an Satelliten, die durch die hohe solare Aktivität entstanden, auf nahezu 400 Mio. €. Noch in 2005 titelte der Sonnenforscher der NASA, David Hathaway: “Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“ (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html). Mit dem solaren Minimum ist das solare Minimum im Schwabe-Zyklus gemeint.

 

 

Die Abbildung 4 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Wie passt dies nun zusammen, der TSI zeigt eine zurückgehende (2003), bzw. schwache solare Aktivität (2005) und die magnetische Aktivität, die exorbitante Energiemengen zur Erde schleudert, hat ihr Maximum. Die Antwort ist gänzlich einfach. Das Messgerät auf den Satelliten, die den TSI aufnehmen, hat lediglich ein energetisches Sichtfenster von 200 nm (UVB) – 2.000 nm (IR). Also die Bereiche, die bis zur Erdoberfläche gelangen. Weite Teile des solaren Energiespektrums, vor allen die Bereiche, die extrem variabel sind, werden gar nicht erfasst. Unser Wetter wird aber nicht auf der Erdoberfläche „gemacht“, sondern in der Tropos- und Stratosphäre, bzw. durch den Svensmark-Effekt (EIKE berichtete mehrfach darüber) und hier wirkt das gesamte solare Energiespektrum. Insofern handelt es sich beim TSI um eine Mogelpackung, da von „total“ keine Rede sein kann.

 

Der berühmte Meeres- und Klimaforscher Prof. Mörner (1999-2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung) hat untersucht, wie sich die arktische Seeeisbedeckung in den vergangenen 600 Jahren änderte (Abbildung 5).

 

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 5, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde von mir um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus).

 

Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus (Abbildung 6). Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung 5 zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Die Abbildung 6 zeigt die 30-jährig gleitende Temperaturkurve von 1701 – 2000. In der Temperaturkurve ist der 208- jährige de Vries/Suess – Zyklus abgebildet. Der de Vries/Suess – Zyklus hatte in 2003 sein Maximum, als die Temperaturen ihren Höchststand erreichten. Das letzte Temperaturmaximum war in den 90er-Jahren des 18. Jahrhunderts, genau im Maximum des de Vries/Suess – Zyklus. Anmerkung: Nach dem Maximum in der solaren Aktivität zu Beginn des Jahrtausends fallen die Temperaturen deutlich (kleines Bild).

 

Obwohl die Untersuchungen von Prof. Mörner zeigen, dass die arktische Seeeisbedeckung zyklisch ist und damit auf natürliche Ursachen zurückzuführen ist und mit dem Hauptsonnenzyklus korreliert, erklärt auch die magnetische Aktivität der Sonne (noch) nicht den diesjährigen Eisrückgang, bzw. den, der letzten Jahre, da die magnetische Aktivität der Sonne seit 2005 vergleichsweise schwach ist. Das Wetter/Klima ist eben nicht so einfach zu verstehen, wie z.B. ein Prof. Schellnhuber und einige Politiker uns Glauben machen wollen: CO2 hoch – Temperatur hoch (Eisbedeckung runter), CO2 runter – Temperatur runter (Eisbedeckung hoch), zumal die globalen Temperaturen seit 10 Jahren deutlich fallen und das CO2 weiter ansteigt. Es also keine Korrelation zwischen CO2 und der Temperatur gibt.

 

Unsere Erde, deren Oberfläche ist zu über 70% mit Wasser bedeckt. Wasser ist bekanntlich ein hervorragender Wärmespeicher und wird nicht umsonst im Heizungen zum Wärmetransport und Wärmespeicherung benutzt. So liegt es nahe, dass das Klimasystem, auf Grund der in den Ozeanen gespeicherten Energie, einen Nachlauf gegenüber der solaren Aktivität aufweist. Dies konnten verschiedene Forschergruppen beweisen, von denen ich Ihnen zwei Charts vorstellen möchte (Abbildung 7 und 8).

 

Die Abbildung 7 zeigt die zeitliche Reaktion der Temperatur zur Sonnenaktivität (Trägheit des Klimasystems), Quelle: SPPI – Science & Public Policy Institute nach Scafetta und West, Duke University. Die Temperatur fällt zeitversetzt mit der Sonnenaktivität, was vor allem auf die gespeicherte thermische Energie in den Ozeanen zurückzuführen ist.

  

Der geniale Sonnen- und Klimaforscher Prof. Solanki (“Solar activity over the last 1150 years: does it correlate with climate”) untersuchte den Zusammenhang der solaren Aktivität mit der der Temperatur über die letzten 1150 Jahre. Seine Untersuchungen zeigten, dass die Sonnenflecken in der Langzeitbetrachtung dem Klima im Mittel um 10 Jahre vorauslaufen (Abbildung 8), also das Klima den Sonnenflecken hinterher.

 

 

Es darf als gesichert angesehen werden, dass Herr Prof. Solanki mit seinen Untersuchungen der Realität sehr nahe kommt. Aber warum kommt es gerade in 2010 zu einem stärkeren Eisrückgang als in den letzten 10 Jahren, zumindest Stand 07.07.2010. Die Antwort liefert die Abbildung 9.

 

Die Abbildung 9 zeigt die zyklische AMO*) im Zeitraum von 1981 – Juli 2010 im Nordatlantik (0° – 70°N).

 

*)   AMO (Atlantic MultiDecadal Oscillation) ist eine zyklische Temperaturschwankung der Oberflächentemperaturen im Nordatlantik. Dabei wechseln sich in einem Rhythmus von ca. 35 Jahren Warm- und Kaltphasen, ohne Beeinflussung durch den Menschen ab. Die AMO steht in starker Korrelation mit den arktischen Temperaturen, wie die Abbildungen 10 und 11 zeigen.

 

Die Abbildung 10 zeigt die arktischen Temperaturschwankungen im Zeitraum von 1880 – 2000. Deutlich ist ein Schwingverhalten zu erkennen, welches mit der AMO (Abbildung 11) übereinstimmt.

 

Abbildung 11 zeigt die AMO von 1856 – 2007. Während der Phasen einer positiven AMO liegen die arktischen Temperaturen deutlich über dem Mittelwert (Abbildung 10).

 

Doch nicht nur mit den arktischen Temperaturen und der arktischen Seeeisbedeckung (wie noch gezeigt wird), sondern auch mit der Gletscherentwicklung in den Alpen steht die AMO in direktem Zusammenhang, wie die Abbildung 12 zeigt.

 

Die Abbildung 12 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005, Quelle: Slupetzky, 2005, Uni Salzburg. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

 

Die Abbildung 12 zeigt, dass während einer positiven AMO-Phase, ein deutlicher Gletscherrückgang zu verzeichnen ist. Nun lässt sich auch die Abbildung 9 „lesen“. Der bis Juli 2010 deutliche Eisrückgang ist auf die starke AMO in 2010 zurückzuführen, die 2009, als die Eisschmelze im Sommer „schwächelte“, negativ war.

 

Da es sich bei der arktischen Seeeisbedeckung nicht um akkumulierte Schneefälle, sondern um gefrorenes Wasser handelt, kann es niemanden verwundern, dass die Eisschmelze in wärmerem Wasser (positive AMO = Warmphase) verstärkt auftritt und dies umso mehr, je positiver die AMO ist. 2010 ist die Spitze der AMO zwar etwa gleich hoch wie 2007, dennoch ist davon auszugehen, dass die diesjährige Eisschmelze nicht die Ausmaße von 2007 annehmen wird, da 2007 nach einer kumulierten Phase von mehreren Maxima der AMO liegt und 2010 nicht.

 

Dass vorrangig die zyklische AMO für die verstärkte Eisschmelze in der Arktis verantwortlich ist, möchte ich Ihnen weiter anhand der nachfolgenden Abbildungen zeigen.

 

 

Die Abbildung 13 zeigt die Temperaturabweichungen in der Arktis (rot) und der Antarktis (blau) im Zeitraum von 1979 – 2009 (Quelle: http://www.appinsys.com/GlobalWarming/GW_4CE_ PolarIceCaps.htm). Während die Temperaturschwankungen bis in die 1990-Jahre synchron verlaufen, beginnt sich ab 1994 das Temperaturverhalten in der Arktis von dm der Antarktis abzukoppeln. Die Arktis beginnt sich zu erwärmen. Wird diese Erkenntnis mit der AMO und den Abbildungen 10 und 11 verglichen, so wird ersichtlich, warum die Abbildung stattfand. Ab 1995 beginnt die positive Phase der zyklischen AMO. Mit dem Abkoppeln der Temperaturwerte und der positiven AMO beginnt denn auch synchron die beobachtete Eisschmelze in der Arktis, weil es dort wärmer wird.

 

 Die Abbildung 14 links zeigt die Abweichungen der arktischen Eisbedeckung (schwarz) und der antarktischen Eisbedeckung (grün). Mit einer zeitlichen Zerzögerung von ca. 2 Jahren zur positiven AMO, berinnt 1997 in der Arktis die verstärkte Eisschmelze und beide Datenreihen beginnen, sich voneinander abzukoppeln. Die verstärkte arktische Eisschmelze wird denn auch noch wenige Jahre andauern, bis die positive AMO wieder in ihre zyklische negative Phase (Kaltphase) eintritt.

 

Wie unmittelbar die arktische Eisentwicklung von den Oberflächentemperaturen (und damit von der zyklischen AMO) abhängt, geht aus den beiden nächsten Abbildungen hervor.

 

Die Abbildung 15 links zeigt die SST-Anomalien im arktischen Ozean, also die Abweichungen der dortigen Oberflächentemperaturen im Zeitraum von 1980 – 2009 und die Abbildung rechts die arktische Eisentwicklung (schwarz) und dazu invertiert, die SST-Anomalien. Es kann nicht verwundern, dass das arktische Eis, welches überwiegend aus schwimmendem Eis besteht, direkt von den SST-Anomalien abhängt.

 

Über diese Erkenntnisse hinaus, welche die arktische Eisschmelze prinzipiell erklären, gibt es nach Angaben von Prof. Dr. Heinrich Miller (stellv. Direktor des Alfred-Wegner-Instituts) zwischen der Arktis und der Antarktis auf längeren Zeitskalen eine Kippschaukel, d.h. zeigt die Antarktis Eiszunahme so liegt in der Arktis eine Eisschmelze und umgekehrt vor. Globale Meeresströme transportieren dabei gewaltige Wärmemengen von Pol zu Pol und treiben diese Klimaschaukel an. Ihre Erkenntnisse wurden im Rahmen des europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica) gewonnen und im November 2006 veröffentlicht. Die Daten der Arktis und Antarktis konnten dabei über im Eis eingeschlossene Luftbläschen und den darin enthaltenen Spurengasen abgeglichen werden.

 

Zur starken AMO kommt weiter, dass in 2009 und Anfang 2010 ein starker El Niño vorlag, wie die Abbildung 16 zeigt.

 

Die Abbildung 16 zeigt die ENSO (El Niño 3.4-Sektor) und einen starken El Niño zwischen Oktober 2009 und März 2010.

 

Zu den El Niño-Auswirkungen auf die Gebiete Europas, Asiens und der Arktis hat Prof. Brönnimann (ETH Zürich) anhand von Untersuchungen nachgewiesen, dass es in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung gab, die auf El Niño-Effekten beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen. Die Ergebnisse sind in Abbildung 17 festgehalten.

 

Die Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und der Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist (Quelle: Spektrum der Wissenschaft 03/05, S. 20). Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und Teilen des arktischen Gebietes (den Flächen, für die Daten vorliegen – vor Grönland) und frostige Kälte im Nordpazifik. Dies erinnert uns doch sehr an den vergangenen Winter (siehe auch Untersuchungen von Hansen, zu den Auswirkungen der AO, weiter unten im Text)! Vergleicht man weiter mit der Abbildung 10 und 11, so ist festzuhalten, dass seinerzeit auch die AMO eine deutliche positive Spitze aufweist und die arktischen Temperaturen hoch sind.

 

Bleibt denn noch eine Frage offen, warum die Eisschmelze gerade an den Orten in der Arktis stattfindet, an denen sie stattfindet.

 

Bisher wurde lediglich ein physikalisch/chemischer Faktor betrachtet, der für Schmelzvorgänge von Wasser verantwortlich ist, die Wärme. Wie jeder von uns aus eigener Erfahrung weiß, bestimmt aber nicht nur die Temperatur des Eises oder des Wassers den Schmelzpunkt, bzw. Gefrierpunkt, sondern auch dessen chemische Zusammensetzung. So ist jedem bekannt, dass im Winter die Straßen mit Salz gestreut werden, weil Salz den Gefrierpunkt herabsetzt. Meerwasser ist bekanntlich salzhaltig. Sein Salzgehalt ist nicht konstant, sondern er variiert (Abbildung 18).

 

Die Abbildung 18 zeigt den Salzgehalt der Meere. Das Mittelmeer hat z.B. einen Salzgehalt von 38 ppt (parts per thousend). Dies entspricht einem Salzgehalt von 3,8%. Der niedrigste Salzgehalt findet sich mit 32 ppt vor Alaska und der höchste im roten Meer mit 40 ppt. Das Tote Meer hat sogar einen Salzgehalt von 24%. Für den arktischen Ozean liegen in dieser Abbildung keine Daten vor.

 

Der Salzgehalt variiert aber nicht nur über die Meere, sondern auch über die Zeit. Zu den eingehend geschilderten zyklischen Schwankungen des Wärmeeintrages in den arktischen Ozean hat ein Forscherteam von NASA und Hochschulwissenschaftlern der Universität von Washington eine Dekadenschwingung ermittelt (http://www.nasa.gov/vision/earth/lookingatearth/ipy-20071113.html), die durch die atmosphärische Zirkulation AO (Arktische Oszillation)  ausgelöst wird und das arktische Klima massiv beeinflusst.

 

AO: Entgegen der AMO, die für Schwankungen in der Meeresoberflächentemperatur steht, ist die AO, wie übrigens auch die bekanntere NAO (Nord-Atlantik-Oszillation), ein normierter Druckunterschied zwischen zwei oder mehr ausgesuchten Orten, die weit auseinander liegen und daher eine großräumige Schwingung darstellen. So bewirkt z.B. eine positive AO, auf Grund der damit verbundenen Luftströmungen, ein Aufstauen von kalter Luft über der Arktis, was nach Prof. Hansen für den kalten Winter 2009/2010 verantwortlich ist (http://www.columbia.edu/~jeh1/mailings/2010/20100127_TemperatureFinal.pdf).

 

Die Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) geben an, dass diese Schwingung und die damit verbundenen Klimaschwankungen nichts mit einer anthropogenen globalen Erwärmung zu tun haben. Sie stellen weiter fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum."

 

Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt des arktischen Ozeans seit 2002 deutlich geändert hat (Abbildung 19).

 

Die Abbildung 19 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung 19 rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

 

Neben dem natürlichen Salzgehalt des arktischen Ozeans, gibt es noch einen weiteren Faktor, der den Schmelzpunkt von Wasser beeinflusst. Es ist die Schadstoffeinbringung in den arktischen Ozean, insbesondere durch die großen sibirischen Flüsse. Zu der Problematik der Schadstoffeinbringung wird im ACIA-Report 2008 (Impacts of a warming Arctic) auf S. 106 eingegangen. Da durch die Verteilung der Landmassen, im arktischen Meer nur ein vergleichsweise geringer Wasseraustausch mit dem Atlantik und dem Pazifik stattfindet, kommt es zu Schadstoffkumulationen. Darüber hinaus werden chemische Verbindungen in kaltem Wasser (da chemische Reaktionen im Allgemeinen bei Kälte langsamer ablaufen) deutlich langsamer abgebaut, was jeder am Beispiel von Tankerunfällen weiß.

 

Über die großen sibirischen Flüsse fließt jährlich die gewaltige Menge von ca. 4.000 km3 Wasser in den arktischen Ozean. Wie bereits in Abbildung 19 rechts gesehen, befindet sich die in der Fläche größte Eisveränderung vor den russischen Küstengebieten, die mit einem vergleichweise hohen Salzgehalt korrelieren. Gut ist dies in den beiden nächsten Abbildungen zu sehen.

 

Die Abbildung 20 links zeigt die arktische Eisausdehnung im September 1979, kurz nach der Kaltperiode der 1960 -1970 Jahre, als das Schreckgespenst der drohenden Eiszeit durch Politik und Medien ging und die Abbildung rechts die arktische Eisausdehnung im September 2005. Beide Abbildungen werden gerne von den Verfechtern des anthropogenen Klimawandel benutzt, um einen dramatischen Eisrückgang aufzuzeigen, aus dessen Grund, politische Entscheidungen zur Reduzierung von THG´s unabdingbar seien, was, wie geschildert, Unfug ist.

 

Die globale Erwärmung soll danach für den deutlichen Rückgang der Eismassen und Eisflächen in den letzten 30 Jahren verantwortlich sein. Schauen wir uns daher die beiden o.g. Abbildungen genauer an. In Abbildung 21 sind die Eisrückgangsflächen unterteilt und als Orientierung zu den Küstenbereichen (zum Vergleichen) markiert.

 

In der Abbildung 21 links ist zu sehen, dass bereits 1979, nach einer Kälteperiode! das Eis vor dem Mündungsgebiet der Lena zu schmelzen beginnt, die für ihre Verschmutzung bekannt ist. In der rechten Abbildung der Eisentwicklung in 2005 ist gegenüber der Lena eine deutliche Einbuchtung in die Eisfläche zu sehen.

 

Zur Rolle der Wasser- und Seeeismassen schreiben die Verfechter des anthropogenen Klimawandels, Prof. William Collins, Robert Coman, James Haywood, Martin R. Manning und Philip Mote in S.d.W 10/07, S. 72 – 81 (“Die Wissenschaft hinter dem Klimawandel“): “Im Meer zeigen sich deutliche Erwärmungstrends, die sich erwartungsgemäß mit der Tiefe abschwächen“ und weiter “Das Meer erwärmt sich wegen seiner großen thermischen Trägheit langsamer“.

 

Analysiert man das Meeresprofil, die Tiefen (Abbildung 22) und das damit verbundene Wasservolumen und setzt beides in Korrelation zur obigen Aussage, so ist festzustellen, dass die Eisrückgangsflächen A1, A3 und A4 alle im Flachwasserbereich liegen und somit die These stützen, dass diese durch Erwärmung verschwanden, da sich das Flachwasser entsprechend seiner geringeren Pufferkapazität (Volumen) erwärmt. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eismasse ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe. Aufgrund der thermischen Trägheit und der Wärmekapazität müsste sich eigentlich die Wärme im größeren Volumen verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall, was mit einer reinen Erwärmung nicht vereinbar ist.

 

Die Abbildung 22 zeigt das Tiefenprofil des arktischen Meeres. Genau unterhalb der am weitesten vorgeschobenen Auftaufläche liegt ein Tiefseegraben mit 4.000 m Tiefe, dessen großes Wasservolumen sich eigentlich dämpfend auf die Eisschmelze auswirken müsste, da sich die Wärmemenge in einem größeren Volumen verteilen kann.

 

Fazit:

Abschließend ist festzuhalten, dass die arktische Eisschmelze natürlichen Zyklen unterliegt, die durch die Sonne gesteuert sind, wobei auf Grund der thermischen Speicherung des Wassers, das Klimasystem der Erde der solaren Aktivität um mehrere Jahre nachläuft. Der derzeitige Eisrückgang ist nichts Außergewöhnliches und fügt sich in die natürliche Variabilität ein und ist auf die derzeit starke AMO und den vergangenen starken El Niño zurückzuführen. Mit der zyklischen Änderung der AMO in ihre negative Phase (Kaltphase) werden sowohl die arktischen Temperaturen fallen (wie wir es übrigens derzeit am Beispiel der PDO für Alaska sehen*)), als auch die arktische Eisbedeckung wieder deutlich zunehmen. Weiter wird die sommerliche Eisausdehnung durch den Schmelzpunkt des Wassers bestimmt, der in erster Linie von natürlichen Schwankungen des Meerwassersalzgehalts beeinflusst wird. CO2 oder sonstige THG´s haben bei alledem nicht den geringsten Einfluss.

 

*)  Pacific Decadal Oscillation (PDO)

Seit Beginn der negativen Phase der PDO in 2008, fallen in Alaska die Temperaturen deutlich (Abbildung 23).

 

Die Abbildung 23 zeigt den zeitlichen Verlauf der PDO von 1900 – September 2009, Quelle: (http://jisao.washington.edu/pdo/). Das kleine Bild zeigt die landesweiten Temperaturabweichungen in Alaska von 1918 – 2009 (Quelle: NOAA). PDO und Landtemperaturen in Alaska sind deckungsgleich. In Alaska fallen die Temperaturen mit der PDO. Seit 2005 um ca. 2°C.

  

Raimund Leistenschneider – EIKE