„Weinzierls Nachfolger im BUND sind eiskalte Technokraten“ Interview mit Enoch zu Guttenberg, Mitbegründer des BUND

Peter Schmidt: Sie waren Mitbegründer des BUND. Sie sind 2012 ausgetreten wegen der billigenden Haltung des BUND zur Umweltzerstörung durch Windkraft. Meine Heimat Rheinhessen ist inzwischen fast unbewohnbar gemacht durch Wind“parks“, man fühlt sich in einer Mondlandschaft gestrandet. Hatten Sie den Eindruck, dass Teile der Mitgliedschaft Ihre Ablehnung nachvollziehen konnte?
Enoch zu Guttenberg: Seit meinem Austritt – Mai 2012 – aus dem BUND, dem ich vor allem in den ersten politisch schweren Jahren nach dessen Gründung als Vorstandsmitglied und als Sprecher seines wissenschaftlichen Beirats dienen durfte, bekomme ich ununterbro-chen zustimmende Briefe von verzweifelten und frustrierten BUND-Mitgliedern. Es lassen sich aus diesen Korrespondenzen im Wesentlichen drei Gruppen herausfiltern:
Etwa 60% der genannten Personen, oft Kreisvorsitzende oder andere Verantwortungsträger auf mittlerer Ebene des Verbandes, sind zutiefst erschüttert und enttäuscht von der derzeitigen zerstörerischen und destruktiven Politik ihrer Führung. Dennoch versuchen diese aber innerhalb des Verbandes und innerhalb Ihrer direkten Verantwortungsbereiche so viel wie möglich vor Ort zu verhindern und nach der alten Natur- und Umweltphilosophie zu handeln, wie diese von Männern wie Hubert Weinzierl oder Bernhard Grzimek und von Konrad Lorenz vertreten und vorgelebt wurde. Diese BUND-Mitglieder hoffen dezidiert auf eine baldige personelle Veränderung in der Vorstandschaft des Verbandes, und damit auf ein Zurück im BUND zu einem dringend notwendigen klassischen Natur- und Umweltschutz.
Eine zweite Gruppe versucht, sich deutschlandweit neu zu formieren und ist zurzeit noch in den verschiedensten Bürgerinitiativen engagiert, vor allem dort, wo durch Wind- und Photovoltaik“parks“ Landschafts- und Naturschutzgebiete sowie Naturparks für immer zerstört werden. Es ist nur noch eine Frage der Zeit, wann neben dem äußerst verdienstvoll agierenden Dachverband der Windkraft-Gegner „VERNUNFTKRAFT“ auf Bundesebene ein neuer Natur- und Umweltschutzverband gegründet wird, der das Zeug dazu hat, die verantwortungslosen und korrumpierten Technokraten des BUND zu entlarven und deren verlogenes Handwerk zu legen.
Die dritte Gruppe schließlich hat den BUND bereits verlassen und fürs Erste den Glauben an einen redlichen Natur-, Umwelt- und Tierschutz in Deutschland verloren. Diese Menschen müssen dringend aufgefangen und für ein neues Engagement um unser aller Heimat willen gewonnen werden.
Peter Schmidt: In der Öffentlichkeit wird den Gegnern der Windkraft gerne verunglimpfend unterstellt, Opfer einer „Lobby“ zu sein. Diese „Haltet den Dieb“-Methode funktioniert erstklassig, obwohl die Umweltbewegung selbst einer der mächtigsten Lobbyisten weltweit ist und Billionen an Subventionen und Spenden eintreibt. Können Sie diese Lobby-Arbeit am Beispiel des BUND anschaulich beschreiben?
Enoch zu Guttenberg: Erst einmal ist es richtig, dass WIR, die Gegner der Windkraft-Großindustrialisierung unserer Kulturlandschaften, uns gleich mehreren Lobbys verpflichtet fühlen und uns denen sogar gerne als „Opfer“ erlegen, beziehungsweise verpflichtet fühlen.
Unsere erste Lobby sind unsere Kinder und Enkel! Sie haben ein Recht darauf, Ihre jeweilige Heimat noch an einem identifikationsstiftenden Landschaftsbild und nicht an der Menge der Windparks in ehemaligen Wäldern und verwüsteten Kulturlandschaften zu erkennen. Unsere Sorge in diesem Zusammenhang gilt auch der Landbevölkerung, die einfach diesen Riesenmonstern ausgesetzt wird, ohne dass sich einer der Verantwortungsträger um deren Gesundheit und den damit verbundenen Stressfaktoren schert. Ganz abgesehen davon, dass auch die Stadtbevölkerung um unzählige Naherholungsgebiete zur unanständigen Bereicherung einiger Weniger kalt enteignet wird.
Unsere zweite Lobby sind die von ihren offiziell bestellten Schützern zum Tod verurteilten höchstgefährdeten Arten, sind die von ihren offiziell bestellten Schützern verkauften deutschen Kulturlandschaften, ist die von ihren offiziell bestellten Schützern verratene Natur.
Unsere dritte Lobby sind die unzähligen gutwilligen Menschen, die immer noch glauben, der Natur, der Umwelt, der Zukunft und vor allem ihrem Geldbeutel etwas Gutes zu tun, wenn sie in Wind-, beziehungsweise Bürgerräder investieren. Die Diskussion um die katastrophalen und irreversiblen Schäden, die eine Großindustrialisierung durch Windräder in unseren Wäldern und ländlichen Räumen anrichtet, ist langsam in der Öffentlichkeit angelangt.
Dass aber gut 70 % aller deutschen Windräder unwirtschaftlich sind und die meisten investierenden Bürger kaltblütig betrogen und über die Tische gezogen werden, ist jetzt erstmalig den Medien zu entnehmen gewesen. Im Übrigen konnten diese Zahlen von den Windrad-Bauern und -Betreibern bis jetzt nicht dementiert werden, da dies das Zahlenmaterial des eigenen Dachverbandes ist und ungewollt an die Öffentlichkeit gelangte.
Schließlich, wie von Ihnen angedeutet, wird den Windrad-Gegnern pauschal vorgeworfen, von der Atomlobby angeheuert worden zu sein. Das ist die infamste Unterstellung, die uns ehemaligen Mitstreitern des BUND UMWELT UND NATURSCHUTZ DEUTSCHLAND noch dazu von den einmal mit uns verbundenen Verantwortungsträgern des BUND zugemutet wird.
Auf die Frage nach der Lobbyarbeit der großen Umweltverbände kann ich nur feststellen: Jeder Cent, jeder Euro, jede Million, die von den Verbänden für die genannten Lobbys, also für den Natur- und Artenschutz, für den Landschaftserhalt und damit für das Wohl der Menschen eingetrieben wird, ist dringend notwendiges und richtig eingesetztes Geld. Alles Geld aber, das von den Verbänden angenommen wird, um stillzuhalten im Angesicht der größten Naturverheerungen der Nachkriegszeit und alles Geld, was von den Verbänden so-gar selbst in großem Stil in die Hand genommen wird, um am großen Windrad-Kuchen teil-zuhaben, sind schmutzigste Judassilberlinge.
Peter Schmidt: Die Tierschutzlobby entwickelt sich immer weiter in Richtung einer fanati-schen Religionsgemeinschaft, der jeder Bezug zur Wirklichkeit abhanden gekommen ist. Inzwischen wird die Frage des Bürgerrechts für Tiere diskutiert, andererseits schaut man skrupellos zu, wie hundertausende Tiere von Windmühlen geschreddert werden. Haben Sie ein Erklärungsmuster für dieses Verhalten?
Enoch zu Guttenberg: Tierschutz ist, wie Natur- und Umweltschutz auch, einer der wichtigsten Einrichtungen und Gegengewichte zu den unbestreitbaren Gefahren, die mit einer Industrie- und Wachstumsgesellschaft einhergehen. So wie vor kurzem Wachstumswahn und spätkapitalistische Marktwirtschaft ohne funktionierende Kontrollmechanismen die zivilisierte Welt um das Haar zum Kollabieren brachten, so schadet fanatisierter Tierschutz in der Regel gerade den Tieren und ideologisierter Natur-und Umweltschutz gerade der Natur. Ein furchtbarer Circulus vitiosus, dessen Wurzeln immer noch fest in unserer jüngeren Ver-gangenheit verankert sind.
Peter Schmidt: Offensichtlich ist, dass der religiöse Tierschützer große Unterschiede macht. Katze, Hund, Pferd, Kuh und das süße Bambi rufen feuchte Augen hervor, Fledermäuse und Käfer haben zwar ein Lebensrecht, wenn es um die Verhinderung von Baumaßnahmen geht, aber kein Lebensrecht mehr, wenn der Windpark kommt. Ganz abgesehen von den Milliarden und Abermilliarden Tieren, Ratten, Nager, Insekten, die im Zuge des Getreideanbaus ihr Leben lassen. Wie fanatisiert muss man sein, um all dies nicht mehr zur Kenntnis zu nehmen?
Enoch zu Guttenberg: Diese Frage sollten erfahrene Psychologen den Führern der genannten Verbände stellen.
Peter Schmidt: Gab es ein Schlüsselerlebnis, bei dem Ihnen bewusst wurde, dass der von Ihnen mitgegründete Naturschutzverband sich von einer integren Schutzgemeinschaft in eine ideologisierte Sekte verwandelt hat? Ist es als schleichender Prozess zu sehen, oder gab es ein prägendes Ereignis, das diese Wende bewirkte?
Enoch zu Guttenberg: Ich würde nicht so weit gehen, den BUND oder dessen bayrischen Bruder, den BN, oder einen anderen großen Umweltverband als eine Sekte zu bezeichnen. Dafür sind in all diesen Schutzgemeinschaften noch viel zu viel hochanständige und hochmotivierte Mitglieder, die auf den diversesten Gebieten Fabelhaftes leisten und die unser aller hohen Respekt verdienen.
Hinzu kommt, dass viele Naturschützer sich einfach noch nicht eingestehen wollen oder vielleicht tatsächlich noch nicht erkennen können, dass die von uns allen fast hergebetete Energiewende sich in eine furchtbare Natur und Leben fressende Hydra verwandelt hat. Die eigentliche Katastrophe für den BN, wie den BUND waren das Ausscheiden des Nestors und Doyens des deutschen und europäischen Naturschutzes – Hubert Weinzierl – und der damit verbundene Führungswechsel in beiden genannten Verbänden.
Weinzierl war und ist ein ebenso sensibler, künstlerischer, wie leidenschaftlicher Naturschützer und Umweltpolitiker, der immer die Zeichen der Zeit früh genug erkannte und auch jetzt wieder vor der zerstörerischen Gewalt der gerufenen und nicht mehr zu bändigenden Geister dieser Energiewende warnt. Goethes Hexenmeister lässt grüssen! Weinzierls Nachfolger sind eiskalte Technokraten, gleichzeitig aber verblendete und machtbesessene Ideologen. Diese sind verantwortlich für den schleichenden Wandlungsprozess des BUND von einem der renommiertesten Umweltschutzverbände der Welt zu einem unser Land endgültig industrialisierenden Weltverbesserungsverein.
Peter Schmidt: Was wäre das Leben ohne Hoffnung, wie Hölderlin meinte. Gibt es aus Ihrer Sicht optimistische Ausblicke?
Enoch zu Guttenberg: Legte man der Frage nach optimistischen Ausblicken nur die ge-schichtlichen Erfahrungen gerade der letzten 100 Jahre zugrunde, müsste man mit einem klaren Nein antworten. Gäbe es aber im tiefsten unserer Seelen nicht wenigstens den heißen Wunsch von Hoffnung auf Hoffnung, hätten zum Beispiel Hubert Weinzierl und Bernhard Grzimek nicht mit – und in – unserem Bund gekämpft. Ich persönlich halte es mit der hinrei-ßenden Martin Luther-Überlieferung:
Ein Schüler Martin Luthers begegnet dem Reformator, wäh-rend dieser ein Apfelbäumchen pflanzt. Der Schüler fragt den Meister, was dieser wohl tue, wenn er wüsste, dass morgen die Welt untergehe. Martin Luther antwortet gelassen: „Ap-felbäumchen weiter pflanzen….“
Zuerst erschienen im Blog des Deutschen Arbeitgeber-Verbandes hier




Über die schwer fassbare Absolute Globale Mittlere Temperatur – ein Vergleich von Daten mit Modellen

Selten werden Modelle und Vergleiche zwischen Modellen und Daten in absoluten Termen gezeigt. Dies wird mit diesem Beitrag nachgeholt, und zwar nach einer Diskussion der absoluten mittleren Oberflächen-Temperatur der Erde von den Datensammlern: GISS, NCDC und BEST. Danach wenden wir uns wieder den Anomalien zu.
Die folgenden Abbildungen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung umformuliert. Diese Präsentation zeigt eine total andere Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen Werten der globalen mittleren Temperatur. Ich glaube, dass es Ihnen gefallen wird… anderen aber vielleicht nicht.
Vorab aus meinem demnächst erscheinenden Buch:
Die schwer fassbare absolute globale mittlere Temperatur und die Diskussion darüber beim GISS
Einige werden bereits den Ursprung dieser Kapitelüberschrift kennen. Sie stammt von der Surface Temperature Analysis Q&A-Website The Elusive Absolute Surface Air Temperature (SAT). Der einführende Text zu dieser Website lautet:
Die GISTEMP-Analyse betrifft ausschließlich Temperaturanomalien, nicht die absolute Temperatur. Temperaturanomalien sind berechnet relativ zur Referenzperiode 1951 bis 1980. Der Grund, eher Anomalien denn die absolute Temperatur zu betrachten ist, dass sich die absolute Temperatur auf kurze Distanzen markant ändert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu räumlichen Distanzen von 1000 km stark korrelieren.
Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in der Studie Global trends of measured surface air temperature hat GISS einen Datensatz erzeugt, der Temperaturanomalien auf dem Festland an Stelle der Wassertemperatur setzte. Das heißt, GISS hat einfach die Festlands-Temperaturdaten auf die Ozeane ausgedehnt. Dann hat GISS jenen älteren Temperatur-Datensatz mit dem Land-Ozean-Temperaturindex ausgetauscht, welcher die Wassertemperatur für die meisten Ozeangebiete nutzt und als ihr primäres Produkt dient. Sie benutzen immer noch die 1200 km-Extrapolation, um Landgebiete und mit Meereis bedeckte Ozeangebiete, von wo keine Messdaten vorliegen, mit Daten zu füllen.
Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):
Frage: Was mache ich, wenn ich absolute Temperaturwerte brauche und nicht Anomalien?
Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturwerte. In den übrigen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien hinzufügen (mit Rücksicht auf die geeignete Referenzperiode). Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von etwa 14°C, aber er kann leicht auch zwischen etwa 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlechter.
Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders auf die „vertrauenswürdigsten Modelle“. Und sie sagen auf der Grundlage dieser „vertrauenswürdigsten“ Klimamodelle, dass die mittlere globale Temperatur während ihrer Referenzperiode von 1951 bis 1980 (deren Klimatologie) etwa 14°C +/- 0,6°C beträgt.
Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) gelistet ist. Die Werte dieser Website basieren auf Hansen und Lebedeff 1987. Unten auf der Website schreiben sie:
Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine absolute Skala benutzen möchte (diese Anmerkung bezieht sich ausschließlich auf globale jährliche Mittelwerte, J-D und D-N!)
Das ist die gleiche Adjustierung der absoluten globalen Temperatur, die GISS für seinen Land-Ozean-Temperaturindex fordert. Siehe hier auf der Website unten.
ANMERKUNG: Mancher könnte es seltsam finden, wenn GISS den gleichen Korrekturfaktor für beide Datensätze verwendet. Einer der GISS-Datensätze erstreckt sich über Lufttemperaturen entlang von Küsten und auf Inseln mit einem Umkreis von 1200 km, während der andere GISS-Datensatz (GISS LOTI) für die meisten globalen Ozeangebiete die Wassertemperatur verwendet. (Bei den LOTI-Daten ersetzt GISS die Daten der Wassertemperatur durch Daten der Temperatur auf dem Festland nur in den polaren Ozeanen, wo jemals Meereis lag). Falls wir annehmen, dass küstennahe Temperaturen und solche auf Inseln ähnlich der Lufttemperatur über marinen Gebieten sind, dann beträgt die Verzerrung höchstens 0,2°C, vielleicht etwas mehr. Die mittlere globale absolute ICOADS-Wassertemperatur der letzten 30 Jahre (1984 bis 2013) beträgt 19,5°C, während die absolute globale mittlere Lufttemperatur über Ozeanen 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Messungen der Wassertemperatur von Schiffen aus ebenfalls durch den „Wärmeinseleffekt“ beeinflusst sein können, und die ICOADS-Daten sind um diesen Wärmeinseleffekt nicht korrigiert worden. (Ende der Anmerkung).
Die NCDC-Schätzung ist ähnlich, obwohl sie anders hergeleitet worden ist
NCDC bietet ebenfalls eine Schätzung der absoluten globalen mittleren Temperatur. Siehe hier. Dort schreiben sie unter der Überschrift „globale Höhepunkte“ (Fettdruck von mir):
Das Jahr 2013 zieht mit 2003 als dem global wärmsten Jahr gleich seit Beginn von Aufzeichnungen im Jahre 1880. Die jährliche kombinierte Land- und Wassertemperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von 13,9°C.
Und nicht rein zufällig stimmen diese 13,9°C von NCDC (aus Daten abgeleitet, wie wir gleich sehen werden) mit dem GISS-Wert von 14,0°C überein. Dies könnte zeigen, dass die „vertrauenswürdigsten Modelle“ nach GISS mit dem datenbasierten Wert getunt worden sind.
Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf den NOAA-Websites zu globalen Temperaturanomalien (hier) identifiziert, besonders unter der Überschrift von globalen langfristigen mittleren Land- und Wassertemperaturen (hier). Sie wurden im Jahre 2000 geschrieben, sind also 14 Jahre alt. Auch kann man auf der Website bemerken, dass die absoluten Temperatur-Mittelwerte für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwendet. Das ist kein Problem, das ist Haarspalterei. Es gibt nur einen Unterschied von 0,03°C in den mittleren Anomalien dieser beiden Zeiträume.
Genau wie GISS beschreibt auch die NOAA Probleme bei der Abschätzung einer absoluten globalen Mitteltemperatur:
Absolute Schätzungen der globalen mittleren Temperatur sind aus einer Reihe von Gründen schwierig zu erstellen. Da es in einigen Gebieten der Welt nur sehr wenige Temperatur-Messstationen gibt (z. B. in der Sahara), muss über riesige, kaum mit Daten besetzte Gebiete interpoliert werden. Im Gebirge stammen die meisten Messungen aus Tälern, wo die Menschen leben, so dass man die Auswirkungen der Höhenlage auf das Mittel der Region berücksichtigen muss ebenso wie andere Faktoren, die die Oberflächen-Temperatur beeinflussen. Die Konsequenz ist, dass die unten stehenden Schätzungen immer noch Approximationen sind, die die inhärenten Hypothesen hinsichtlich Interpolation und Datenverarbeitung enthalten, obwohl sie als die besten derzeit verfügbaren Werte angesehen werden. Zeitreihen monatlicher Temperaturaufzeichnungen werden viel öfter als Abweichungen von einer Referenzperiode ausgedrückt (z. B. 1961 bis 1990, 1880 bis 2000), da diese Aufzeichnungen einfacher interpretiert werden können und man einige Probleme umgeht, die bei der Schätzung der absoluten Temperatur in großen Gebieten auftreten.
Es scheint, dass der NCDC-Wert auf Messdaten beruht, wenngleich es auch alte Daten sind, während der GISS-Wert für einen anderen Zeitraum und basierend auf Klimamodellen ähnlich ist. Das wollen wir jetzt mal in absoluten Zahlen vergleichen.
Vergleich von GISS- und NCDC-Daten in absoluter Form
Die globalen Land- und Wassertemperaturen von NCDC sind verfügbar, indem man auf den Link „Anomalies and Index Data“ klickt, der sich oben auf der NCDC-Website der Global Surface Temperature Anomalies befindet. Und die GISS LOTI-Daten sind hier verfügbar.
Verwendet man die oben beschriebenen Faktoren, zeigt Abbildung 2 die jährlichen mittleren globalen Temperaturen in absoluter Form von GISS und NCDC seit Beginn im Jahre 1880 bis zum jüngsten vollständigen Jahr 2013. Die GISS-Daten sind ein wenig wärmer als die NCDC-Daten, im Mittel etwa 0,065°C, aber alles in allem passen sie zusammen. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v3b der NOAA), und auch die meisten Daten der Festlandstemperatur sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen einfach Datenlücken unterschiedlich (das gilt vor allem für die Arktis und die Südlichen Ozeane), und GISS verwendet ein paar Datensätze mehr in Gebieten, wo GHCN nur sehr wenige Daten enthält.

Abbildung 2
Hinzu kommt der globale Land- und Wassertemperatur-Datensatz von BEST mit einem unterschiedlichen Faktor
Und das ist der BEST-Datensatz (Berkeley Earth Surface Temperature), also das Produkt von Berkeley Earth. Die ihren Festlands-Temperaturdaten zugrunde liegende Studie stammt von Rhode et al. (2013) mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin findet man, dass man die BEST-Festlandstemperaturen in absoluter Form illustriert hat.
Ihre Klimatologie (Referenztemperaturen für Anomalien) wurde in der Studie von Rhode et al. (2013) Berkeley Earth Temperature Process über Verfahren gezeigt. Sie enthielt auch diesen Anhang. Zum Thema Klimatologie schreiben Rhode et al. in dieser Studie:
Das globale Festlands-Mittel von 1900 bis 2000 beträgt 9,35°C ± 1.45°C, was im Ganzen konsistent ist mit der Schätzung von Peterson von 8,5°C. Diese große Unsicherheit bei der Normalisierung ist in den schattierten Bändern nicht enthalten, die wir in unsere Tavg-Plots gelegt haben, da sie nur die absolute Skala beeinflussen und nicht relative Vergleiche. Außerdem stammt vieles dieser Unsicherheit aus der Existenz von nur drei GHCN-Messpunkten im Inneren der Antarktis. Dies bringt den Algorithmus dazu, die absolute Normalisierung für große Gebiete der Antarktis als erzwungen zu betrachten. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und von anderswoher zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheiten um Größenordnungen reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Analyseprozess von Berkeley Average ist irgendwie einmalig dahingehend, dass eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen erzeugt wird.
Interessant, dass der Mittelungsprozess der Berkeley-Temperatur sie mit einer Schätzung der globalen mittleren Festlandstemperatur in absoluter Form ausstattet, während es GISS und NCDC schwierig finden, hierzu eine Schätzung zu finden.
Der Bezug auf Peterson in obigem Zitat von Rhode et al. geht zurück auf die Studie Observed Changes in Surface Atmospheric Energy over Land von Peterson et al. (2011). Der Wert von 8,5°C von Peterson et al. als absolute Lufttemperatur auf dem Festland ist der gleiche Wert, der in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den Websites von NOAA Global Surface Temperature Anomalies gelistet ist.
Berkeley Earth hat auch Daten veröffentlicht für zwei globale Festlands- + Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund für zwei. Lufttemperatur-Produkte für das Festland enthalten keine mit Meereis bedeckten Ozeanflächen, und Wassertemperaturen enthalten keine Lufttemperaturen über polarem Meereis, falls und wo es existiert. Von den 361,9 Millionen km² Gesamtfläche der globalen Ozeane bedeckt polares Meereis im Mittel nur 18,1 Millionen km² jährlich im Zeitraum von 2000 bis 2013. Während polares Meereis nur etwa 5% der Oberfläche der globalen Ozeane und nur etwa 3,5% der gesamten Erdoberfläche überdeckt, bemüht sich die klimawissenschaftliche Gemeinschaft, dort die Lufttemperatur zu bestimmen. Das gilt vor allem für die Arktis, wo der natürlich auftretende Prozess polarer Verstärkung dafür sorgt, dass die Arktis mit verstärkten Erwärmungsraten aufwartet, wenn sich die Nordhemisphäre erwärmt (und sich entsprechend mit erhöhten Raten abkühlt in Perioden einer nordhemisphärischen Abkühlung).
(Siehe auch die Beiträge Notes On Polar Amplification und Polar Amplification: Observations versus IPCC Climate Models.)
Während ich dies schreibe, ist keine stützende Studie für die BEST Land + Ozean-Temperaturdaten von der Website der Berkeley Earth Papers verfügbar, ebensowenig wie auf ihrer Poster-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datensite für ihr kombiniertes Produkt. Die BEST Land- + Ozeandaten sind ihre Lufttemperaturen, die mit einer modifizierten Version der HadSST3-Wassertemperaturen zusammengeführt werden. Eingefügt haben sie das mit einer als Kriging bezeichneten Methode. (Siehe Kriging, geschrieben von Geoff Bohling vom Kansas Geological Survey.)
Die jährlichen Berkeley Land + Ozeantemperatur-Anomalien finden sich hier und ihre monatlichen Daten hier. Die Begründung für die Präsentation der beiden Land + Ozeanprodukte stützt meine Ausführungen oben. Berkeley Earth schreibt:
Zwei Versionen dieses Mittelwertes sind im Umlauf. Sie unterscheiden sich darin, wie sie mit mit Meereis bedeckten Stellen umgehen. In der ersten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Lufttemperatur-Anomalien über dem Festland. In der zweiten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen in Gebieten mit offenem Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich sind der Lufttemperatur unmittelbar darüber; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittelwertes zeigt größere Änderungen in jüngster Zeit, teils weil Änderungen der Wassertemperatur begrenzt sind durch den Gefrierpunkt von Meerwasser. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis eine natürlichere Beschreibung der Änderungen der Temperatur auf der Erde bietet.
Die Verwendung von Lufttemperaturen über Meereis kann eine realistischere Repräsentation der arktischen Temperaturen im Winter bieten, wenn das Meereis die Landmassen erreicht und wenn diese Landmassen schneebedeckt sind, so dass sie die gleichen Albedo-Werte aufweisen. Während der Sommermonate jedoch kann die Albedo von Meereis verglichen mit den Landmassen unterschiedlich sein (Schneeschmelze legt die Temperatursensoren der Umgebung frei und die Albedo von Landflächen unterscheidet sich von der über Meereis). Offenes Wasser separiert auch das Festland von Meereis an vielen Stellen, was das Problem noch komplizierter macht. Da gibt es keine einfachen Verfahren.
Berkeley Earth listet auch die geschätzten absoluten Lufttemperaturen während der Referenzperiode für beide Produkte:
Geschätzte globale Mittlere Temperatur I von Januar 1951 bis Dezember 1980:
* Unter Verwendung der Lufttemperatur über Meereis: 14,774 +/- 0,046
* Unter Verwendung der Wassertemperatur unter dem Meereis: 15,313 +/- 0,046
Die geschätzte absolute globale mittlere Temperatur unter Verwendung der Lufttemperatur über Meereis liegt um 0,5°C unter den Daten, für die sie die Wassertemperatur unter dem Meereis verwendeten. Die Modelle, die weiter unten in diesem Beitrag gezeigt werden, repräsentieren Lufttemperaturen, und darum werden wir die Berkeley-Daten nutzen, bei denen die Lufttemperatur über dem Meereis eingeht. Dies stimmt auch mit den Verfahren bei den GISS LOTI-Daten überein.
Der Wassertemperatur-Datensatz wird bei Berkeley Earth) HadSST3) nur in Form der Anomalien angeboten. Und ohne eine stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earth diese Anomaliewerte in absolute Werte konvertiert hat. Die Datenquellen ICOADS sowie die Daten von HadISST und ERSST.v3b werden in absoluter Form gezeigt, so dass einer davon wahrscheinlich als Referenz gedient hat.
Vergleich von BEST, GISS und NCDC-Daten in absoluter Form
Die Daten der jährlichen mittleren globalen Temperatur in absoluter Form seit dem Startjahr 1880 bis zum letzten vollständigen Jahr 2013 von BEST, GISS und NCDC zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber wie zu erwarten war, verlaufen die Kurven ähnlich.

Abbildung 3
In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem geglättet mit einem gleitenden 10-Jahres-Filter (rote Kurve). Die meiste Zeit liegen die BEST-Daten in absoluter Form um etwa 0,8°C über der NCDC-Schätzung. Die Spitzenabweichung, die etwa 1940 beginnt und um 1950 ihren Höhepunkt erreicht, sollte verursacht sein durch die Adjustierungen, die das UK Met.-Office an den HadSST3-Daten vorgenommen hat, die an die Daten von NOAA ERSST.v3b nicht angebracht worden sind (die sowohl von GISS als auch von NCDC verwendet werden). Über diese Adjustierungen werde ich später etwas schreiben. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch damit zusammenhängt, wie die Wassertemperaturdaten behandelt worden sind, aber es gibt keine Möglichkeit, dazu sicher etwas zu sagen, solange man keinen Zugang zu den von BEST modifizierten HadSST3-Daten hat. Der jüngste Anstieg sollte verursacht sein durch die Differenz, wie die beiden Anbieter (BEST und NCDC) mit den Daten des Arktischen Ozeans umgehen. Berkeley Earth weitet die Lufttemperatur-Daten über dem Festland bis über die Ozeane aus, während NCDC Wassertemperaturen im Arktischen Ozean ausklammert, wenn dort Meereis schwimmt, und man dabei nicht landbasierte Daten auf die Gebiete über dem Eis ausweitet.

Abbildung 4
Und nun zu den Modellen.
CMIP5-Modellsimulationen der absoluten Lufttemperatur der Erde, beginnend im Jahre 1880
Wie wir schon oft besprochen haben, werden die Ergebnisse der im 5. IPCC-Zustandsbericht verwendeten Modelle im Climate Model Intercomparison Project Phase 5 archive gespeichert, und jene Ergebnisse sind öffentlich zugänglich und können in leicht handhabbaren Formaten durch den KNMI Climate Explorer heruntergeladen werden. Die Ergebnisse bzgl. der Lufttemperatur im KNMI Climate Explorer können eingesehen werden auf der Website der Monthly CMIP5 scenario runs und werden als „TAS“ bezeichnet.
Die Modellergebnisse beim KNMI Climate Explorer sind verfügbar für die historischen Antriebe mit Übergängen zu den unterschiedlichen zukünftigen RCP-Szenarien (Siehe das Kapitel Emissions-Szenarien). Für dieses Kapitel präsentieren wir das historische und das Worst-Case-Zukunftsszenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz dafür, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Treibhausgas-Emissionen so weitergehen wie für dieses Szenario projiziert. Die Verwendung des Worst-Case-Szenarios hat wenig Auswirkung auf die Vergleiche zwischen Modell und Daten von 1880 bis 2013. Man erinnere sich, die Zukunfts-Szenarien beginnen in den meisten Modellen nach 2005, bei anderen noch später, so dass es nur sehr kleine Unterschiede gibt zwischen den Modellergebnissen der verschiedenen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich für dieses Kapitel die Ergebnisse separat für alle individuellen Modelle und ihre Ensemble-Mitglieder heruntergeladen. Es gibt insgesamt 81 Ensemble-Mitglieder aus 39 Klimamodellen.
Anmerkung: Die Modellergebnisse liegen in absoluter Form in Grad Celsius vor (auch in K), so dass ich sie in keiner Weise adjustiert habe.
Damit im Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die von CMIP5 archivierten Ergebnisse der Klimamodellsimulationen der globalen Lufttemperatur von 1880 bis 2100 zeigen, mit historischen und RCP8.5-Antrieben. Eine größere Version der Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5
Wie auch immer der Wert der globalen mittleren Temperatur derzeit aussieht oder in Zukunft oder in der Vergangenheit – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit überholt.
Einige Leute könnten jetzt argumentieren wollen, dass absolute Temperaturwerte unwichtig sind – und dass wir uns wegen der Erwärmungsraten in Vergangenheit und Zukunft Sorgen machen. Wir können diesem Argument auf zwei Wegen begegnen: Erstens haben wir in den Kapiteln CMC-1 und CMC-2 schon gesehen, dass Klimamodelle sich sehr schwer tun mit der Simulation der Temperaturen von 1880 bis 1980 und von 1980 bis heute. Später werde ich die Modellfehler noch sehr viel detaillierter beschreiben. Zweitens, absolute Temperaturen sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen von der Infrarotstrahlung ab, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum abgestrahlten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.
Wie oben in Abbildung 5 gezeigt, starten die Modelle bei einer absoluten globalen mittleren Temperatur, die zwischen fast 12,2°C bis etwa 14,0°C reichen. Aber mit den Ausreißern erweitert sich die Bandbreite auf Werte zwischen 12,0°C und 15,0°C. Die Bandbreite der modellierten absoluten globalen Mitteltemperatur ist einfacher zu erkennen, falls wir die Modellergebnisse mit 10-Jahres-Filtern glätten. Siehe Abbildung 6:

Abbildung 6
Wir könnten die Bandbreite durch die Entfernung der Ausreißer reduzieren, aber ein Problem beim Entfernen der Ausreißer ist, dass die warmen Ausreißer relativ dicht bei der jüngeren (besseren?) Berkeley-Earth-Schätzung der absoluten Temperatur der Erde liegen. Siehe Abbildung 7, in der ich zu den jährlichen, nicht den geglätteten, Ergebnissen zurückkehre.

Abbildung 7
Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische Institution ist, nicht eine wissenschaftliche. Als Ergebnis verwendet diese politische Institution auch Modelle von Agenturen rund um den Globus, selbst solche, die noch schlechtere Ergebnisse liefern als die (schlechte Leistung der) anderen, was die Gruppe als Ganzes noch weiter hinabzieht.
Mit Berücksichtigung dieser beiden Dinge werden wir alles von den Modellen in dieser Präsentation beibehalten, selbst die offensichtlichsten Ausreißer.
Schaut man noch einmal auf die große Bandbreite der Modellsimulationen der globalen mittleren Temperaturen in Abbildung 5, scheint es eine Spanne von mindestens 3°C zwischen den kältesten und den wärmsten zu geben. Das wollen wir mal festklopfen.
In Abbildung 8 habe ich die kältesten modellierten Temperaturen von den wärmsten modellierten Temperaturen in jedem Jahr subtrahiert, von 1800 bis 2100. Im größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spanne zwischen den kältesten und den wärmsten modellierten Temperaturen größer als 3°C.

Abbildung 8
Diese Spanne hilft, etwas hervorzuheben, dass wir schon ein paarmal angesprochen haben: Der Gebrauch von Modell-Mittelwerten aus den multimodellierten Ensemble-Mitgliedern, das Mittel aller Läufe aller Klimamodelle. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wo auch immer der Wert liegt. Gibt uns die Mittelung der Modellergebnisse eine gute Antwort? Nein.
Aber der Mittelwert, das Mittel aller Modelle, gibt uns tatsächlich etwas von Wert. Er zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturen und wie diese Temperaturen variieren würden, falls (großes falls) sie auf die Antriebe reagieren würden, die die Klimamodelle treiben. Und wie wir sehen werden, die gemessenen Temperaturen reagieren nicht auf die von den Modellen simulierten Antriebe.
Vergleich Modell mit Daten
Infolge der Unterschiede zwischen den neueren (BEST) und den älteren (GISS und NCDC) Schätzungen der absoluten globalen Mitteltemperatur, werden sie separat präsentiert. Und weil die GISS- und NCDC-Daten so ähnlich sind, verwenden wir deren Mittelwert. Außerdem werden wir für die Vergleiche nicht alle der Ensemble-Mitglieder als Spaghetti-Graphik präsentieren. Wir zeigen das Maximum, den Mittelwert und das Minimum.
Mit diesen Festlegungen werden in Abbildung 9 das Mittel der Schätzungen der absoluten globalen Mitteltemperatur aus GISS und NCDC mit den Maxima, Minima und Mittelwerten der modellierten Temperaturen verglichen. Der Modellmittelwert liegt ausreichend nahe bei den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modell im Mittel etwa 0,37°C niedriger liegt als die Daten im Zeitraum von 1880 bis 2013.

Abbildung 9
Abbildung 10 zeigt die BEST-Schätzung (neuer = besser?) der absoluten globalen Mitteltemperaturen von 1880 bis 2013 im Vergleich zu Maximum, Minimum und Mittelwert der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher am Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel liegt etwa 1,14°C niedriger als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung10
Differenz zwischen Modell und Daten
In den nächsten beiden Graphiken werden wir die datenbasierten Schätzungen der absoluten globalen Mitteltemperaturen der Erde vom Mittelwert der CMIP5-Modellsimulationen subtrahieren. Man beachte dies bei der Betrachtung der folgenden beiden Graphiken: Falls das Modellmittel die dekadischen und multidekadischen Variationen der Temperatur auf der Erde angemessen simuliert und einfach nur die Marke des absoluten Wertes verfehlt worden ist, wäre der Unterschied zwischen den Modellen und den Daten eine gerade horizontale Linie, bestimmt durch die Differenz.
Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Temperatursimulationen und das Mittel der Schätzungen von GISS und NCDC, wobei die Daten von den Modellwerten subtrahiert worden sind. Bei der folgenden Diskussion dreht es sich um das 10-Jahres-Mittel, das in rot ebenfalls eingezeichnet ist.

Abbildung 11
Der größte Unterschied zwischen Modellen und Daten tritt in den achtziger Jahren des 19. Jahrhunderts auf. Der Unterschied verringert sich drastisch während der folgenden rund 30 Jahre. Grund: Die Modelle simulieren nicht angemessen die zu jener Zeit stattgefunden habende Abkühlung. Die Differenz zwischen Modell und Daten nimmt dann von 1910 bis 1940 wieder zu. Dies zeigt, dass die Modelle nicht nur die Abkühlung zuvor, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Der Unterschied durchläuft einen Zyklus bis zu den neunziger Jahren, wobei der Unterschied graduell wieder zunimmt. Und von den neunziger Jahren bis heute hat der Unterschied wegen des Stillstands zum geringsten Wert seit 1880 abgenommen.
Abbildung 12 zeigt den Unterschied zwischen der BEST-Schätzung der Temperatur und das Modellmittel der Simulationen. Die Kurve verläuft ähnlich der in Abbildung 11 bzgl. der GISS- und NCDC-Daten. Die BEST-Daten der globalen Temperatur zeigen weniger Abkühlung von 1880 bis 1910, und als Folge ist der Unterschied nicht so groß zwischen Modellen und Daten. Aber es gibt immer noch eine starke Zunahme der Differenz von 1910 bis etwa 1940 mit dem Scheitern der Modelle bei der angemessenen Simulation der damals eingetretenen Erwärmung. Und natürlich hat auch hier der jüngste Stillstand zu einer weiteren Abnahme der Temperaturdifferenz geführt.

Abbildung 12
Zusammenfassung dieses Kapitels
Es gibt eine Spanne von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die wärmere Schätzung von der neueren Schätzung stammt auf der Grundlage einer aktuelleren Datenbasis der globalen Temperatur. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die GISS- und NCDC-Werte.
Die Klimamodellsimulationen der absoluten globalen Temperaturen zeigen eine viel größere Spanne, die von 1880 bis 2013 im Mittel bei etwa 3,15°C liegt. Um das in die richtige Perspektive zu rücken, haben Politiker vorgeschlagen, dass wir die Erwärmung der globalen Temperatur auf 2,0°C begrenzen. Ein anderer Weg, jene 3,15°C Modellspanne in die richtige Perspektive zu setzen: Man betrachte, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet hat, dass die gesamte Erwärmung von 1975 bis 2005 anthropogenen Treibhausgasen geschuldet ist. Diese Behauptung basierte auf Klimamodellen, die die natürliche Variabilität nicht angemessen simulieren können. Also war die Behauptung bedeutungslos. Unabhängig davon, die globalen Temperaturen sind zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, basierend auf dem Mittel der linearen Trends in den Daten von BEST, GISS und NCDC.
Und der Unterschied zwischen der modellierten und der gemessenen absoluten globalen mittleren Temperatur war nur ein anderer Weg zu zeigen, wie schlecht die globalen Temperaturen von den jüngsten und größten Klimamodellen simuliert werden können, die das IPCC in seinem 5. Zustandsbericht herangezogen hat.
ABER
Manchmal können wir etwas anderes erkennen, wenn wir Daten als Anomalien zeigen. In den Abbildungen 13 und 14 habe ich die Differenzen zwischen Modellen und Daten ersetzt durch ihre jeweiligen Mittelwerte von 1880 bis 2013. Das konvertiert die absoluten Differenzen in Anomalien. Wir verwenden die Gesamtmenge der Daten als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht verzerren durch die Wahl des Zeitraumes. Mit anderen Worten, niemand kann sich darüber beschweren, dass wir hinsichtlich der Referenzjahre Rosinenpickerei betrieben haben. Die Konzentration auf 10-Jahres-Mittel (rote Kurven) hilft, die Auswirkungen des gegenwärtigen Stillstands in die richtige Perspektive zu setzen.
Man behalte im Hinterkopf: Falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen der Erde angemessen simulieren würden, wäre die Differenz eine flache Linie, und in den folgenden beiden Fällen würde jene flache Linie bei der Null-Anomalie liegen.
Für die Mittelwerte der GISS und NCDC-Daten: Abbildung 13 zeigt, dass die Divergenz zwischen Modellen und Daten heute wegen des derzeitigen Stillstands die größte (und schlimmste) ist seit etwa 1890 ist.

Abbildung 13
Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und der BEST-Daten, ist das Modellverhalten wegen des Stillstands das schlechteste jemals während der jüngsten 10-Jahres-Periode, seit man globale Temperaturen simuliert, wie Abbildung 14 zeigt.

Abbildung 14
Falls man al zu Abbildung 7 zurückgeht, erkennt man, dass es eine kleine Untermenge von Modellläufen gibt, die der Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur zugrunde liegt. Sie liegen so dicht beieinander, dass es sehr wahrscheinlich so aussieht, als wären jene Modelle am jene Temperaturen angepasst worden.
Nun dachte ich mir, dass man daran interessiert sein könnte zu wissen, um welche Modelle es sich handelt. Siehe Abbildung 15. Sie sind 3 Ensemble-Mitglieder des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Mitglieder des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15
Das heißt nicht, dass die Modelle MIROC5 und GISS-E2-R besser sind als irgendwelche anderen Modelle. So weit ich weiß, können auch diese Modelle wie alle anderen immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die dazu führen können, dass sich die globalen Temperaturen über multidekadische Zeiträume erwärmen oder diese Erwärmung zum Stillstand bringen können wie die AMO und ENSO. Wie oben schon erwähnt, dass sie näher an der aktualisierten Schätzung der absoluten Temperatur der Erde liegen, zeigt einfach, dass jene Modelle dahingehend getunt worden sind. Vielleicht sollte man beim GISS in Betracht ziehen, ihre Schätzung von 14,0°C als absolute globale Temperatur für ihre Basisperiode zu aktualisieren.
Wir haben die vielfältigen Fehlleistungen der Modelle während der letzten Jahre gezeigt. Unter den besprochenen Themen waren:
* Global Precipitation
* Satellite-Era Sea Surface Temperatures
* Global Surface Temperatures (Land+Ocean) Since 1880
* Global Land Precipitation & Global Ocean Precipitation
Alle Beiträge waren auch bei WattsUpWithThat gepostet.
Link: http://wattsupwiththat.com/2014/11/10/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/
Übersetzt von Chris Frey EIKE




Die Milch, das Mädchen und Deutschlands Klimaziele – Über den politisch korrekten Umgangs mit Statistiken

Das Interessante an der deutschen Klimapolitik ist die Tatsache, dass man hier besonders schön die altbekannte Tatsache vorgeführt bekommt, dass man keiner Statistik trauen sollte, die man nicht selbst gefälscht hat. Statt von Fälschung spricht man in maßgeblichen Kreisen heute allerdings lieber vornehm von „kreativem Umgang“.
Betrachtet man die Auftragung der CO2-Emissionen für Deutschland im Zeitraum ab 1990, so zeigt sich ein erkennbar nach unten verlaufender Trend, Bild 1. Besonders hilfreich war vor allem in den Anfangsjahren, dass man die weltweit einmalige Gelegenheit hatte, die geradezu grotesk energieineffiziente Infrastruktur der ehemaligen DDR abzuwickeln. Die DDR hatte pro Kopf der Bevölkerung einen erheblich höheren Energieverbrauch als der Westen. Es gibt u.a. Berichte über Wohnhäuser, wo man die Temperatur im Winter dadurch regelte, indem man die Fenster mal mehr und mal weniger öffnete, weil die Heizung kein Ventil hatte. So war es leicht, spektakuläre Einsparungen zu erzielen. Allerdings gibt es auch Jahre, in denen es zu einem erneuten Anstieg kam.
Bild 1. Für die letzten 24 Jahre weisen die jährlichen CO2-Emissionen in Deutschland eine erkennbar rückläufige Tendenz auf (Daten: [STAT, UMBA])

Das hehre 40-%-Ziel der Bundesregierung…

Erklärtes Ziel der aktuellen Bundesregierung ist eine Reduktion dieser „Treibhausgas“-Emissionen um 40 % bis zum Jahre 2020 [HEND]. Die Frage ist allerdings, wieweit dieses Ziel realistisch erreichbar sein dürfte. Üblicherweise untersucht man dazu den bisherigen Verlauf mithilfe statistischer Verfahren. Dazu analysiert man die Messwerte daraufhin, ob ihr Verlauf durch eine mathematische Funktion beschrieben werden kann. Mit der dann gefundenen Gleichung rechnet man dann die in der Zukunft zu erwartenden Werte aus, um festzustellen, ob sich die gewünschte Abnahme bis zum entsprechenden Zeitpunkt einstellen dürfte. Falls ja, wäre alles im grünen Bereich. Anderenfalls wird man seitens der Politik entsprechende Zwänge (Pardon, gemeint sind natürlich Anreize) einsetzen müssen.
Allerdings gibt es zahlreiche unterschiedliche statistische Auswerteverfahren, so dass man bei ihrer Auswahl und ihrem Einsatz, wie bereits erwähnt, eine gewisse „Kreativität“ ausleben kann. Versuchen wir also zunächst herauszufinden, welcher dieser Methoden sich die Politik vermutlich bedient hat, um zur Festlegung des 40-%-Ziels bis zum Jahre 2020 zu kommen. Folgt man der Logik der allseits bekannten Zunft der Milchmädchen, die deutschen Politikern bei allem, was höhere Mathematik angeht, häufig als Vorbild zu dienen scheinen, so vermeidet man am besten allzu aufwendige Rechenverfahren. Am einfachsten ist es, zwei geeignet erscheinende Messdaten herauszugreifen: Einmal als Ausgangspunkt das Jahr 1990 und einmal einen Wert so ungefähr gegen Ende der Messreihe hin, der so liegt, dass eine durch beide Punkte gezogene gerade Linie im Jahre 2020 beim gewünschten Zahlenwert endet. Und siehe da, es geht: Die Erreichung des heute gültigen 40-%-Ziels erscheint zwanglos möglich, wenn man lediglich die Werte der Jahre 1990 und 2009 durch eine gerade Linie verbindet und diese anschließend bis 2020 verlängert, Bild 2.

Bild 2. Eine Trendlinie auf der alleinigen Grundlage der Werte von 1990 und 2009 lässt das 40-%-Ziel durchaus realistisch erscheinen
Soweit, so gut. Allerdings stimmt dieser Trend aufgrund der dummerweise äußerst unflexiblen Gesetze der Mathematik nur, solange man die übrigen Werte der Reihe aus der Betrachtung herauslässt. Eine saubere Trendauswertung sollte jedoch alle in einer solchen Zeitreihe enthaltenen Werte berücksichtigen, Bild 3.

Bild 3. Lineare Trendermittlung für die CO2-Emissionen 1990-2013 mit Projektion bis 2030. Für das Jahr 2020 wird das 40-%-Ziel jetzt deutlich verfehlt

und die böse Realität

Berücksichtigt man also für die Berechnung eines linearen Trends alle Werte der Jahre von 1990 bis 2013, so erhält man eine Abnahmerate von 0,81 %/ Jahr. Bis 2020 erhielte man so eine Verringerung der Emissionen um 24,3 %, während der Wert für 2030 bei 32,4 % läge. Für eine politische Führung, die gerne als weltweites Vorbild in Sachen Klimaschutz wahrgenommen werden möchte, ist das keinesfalls ausreichend.
Zudem zeigt sich bei genauer Betrachtung der Werte in Bild 3 eine ärgerliche Unstimmigkeit: Im Verlauf der letzten fünf Jahre stiegen die CO2-Emissionen recht deutlich wieder an. Dies könnte auf einen Bruch bzw. eine Umkehr des bisherigen Trendverlaufs hindeuten. Um dies genauer zu erkennen, kann man für den gesamten Datenpark den gleitenden Durchschnitt ermitteln und als Kurve darstellen. Dies ist eine leicht zu handhabende Methode, mit deren Hilfe sich schnell erkennen lässt, ob im Verlauf einer Wertereihe Trendänderungen auftreten. Eine entsprechende Darstellung zeigt Bild 4.

Bild 4. Der gleitende Durchschnitt macht Trendwechsel besser erkennbar
Tatsächlich erkennt man bei Anwendung dieser Methode deutlich einen Trendwechsel im Zeitraum ab 2009. Für die Analyse der Zeitreihe sollte man daher besser eine Polynomfunktion wählen. Als sinnvollster Ansatz wurde ein Polynom zweiter Ordnung (Bild 5) gewählt, weil dieses von verschiedenen vertretbaren Ansätzen das beste Bestimmtheitsmaß aufweist.

Bild 5. Verwendet man für die Analyse der Zeitreihe ein Polynomansatz zweiter Ordnung, so sinkt der CO2-Ausstoß nicht unter 800 Mio. t/ Jahr und es kommt ab etwa 2025 sogar zu einem erneuten Anstieg
Als Fazit ergibt sich, dass der bisherige Verlauf der Reduktion des deutschen CO2-Ausstoßes im Zeitraum seit 1990 bei korrekter Handhabung der üblichen statistischen Verfahren die Regierungsziele nicht bestätigt. Den deutschen Umwelt- und Klimapolitikern bleiben daher nur zwei gleichermaßen unangenehme Alternativen: Entweder sie geben zu, dass die angestrebten „Klimaschutzziele“ unrealistisch und daher nicht zu erreichen sind, oder sie ergreifen einschneidende Maßnahmen für eine verstärkte Einschränkung des Energieverbrauchs. Letzteres dürfte jedoch mit an Sicherheit grenzender Wahrscheinlichkeit negative Auswirkungen auf die wirtschaftliche Entwicklung des Landes haben.

Die Haltung „Deutschland gegen den Rest der Welt“…

Wenn man sich von der deutschen „heilen Klimaschutz-Welt“ abwendet und die weltweite Entwicklung der letzten 24 Jahre in Sachen CO2-Ausstoß und Klimapolitik genauer ansieht, bekommt man den Eindruck, dass sich Deutschland diesbezüglich in eine ähnlich fatale Situation manövriert hat wie 1914 und 1939, als man es zuwege gebracht hatte, sich so viele Feinde zu schaffen, dass der Ausgang der dann ausbrechenden Kriege eigentlich von vornherein klar war. Deutschland hat in den letzten 24 Jahren weit mehr als eine halbe Billion € in das Bemühen investiert, seinen CO2-Ausstoß um etwa 200 – 220 Mio. t/ Jahr zu senken. Doch was bedeutet das im Vergleich mit der Wirklichkeit auf dem Rest des Planeten?
Bild 6 zeigt, wie sich der weltweite menschengemachte CO2-Ausstoß seit Beginn der Industrialisierung im 18./19. Jahrhundert verstärkt hat. Die Kurve lässt erkennen, wie sehr die Entwicklung unserer heutigen technischen Zivilisation mit der Möglichkeit der Nutzung von zusätzlichen, nicht-natürlichen Energieressourcen verknüpft ist. Mitte des 18. Jahrhunderts war der Mensch noch auf Holz, eigene Muskelkraft, Zugtiere und ein wenig Wind- und Wassermühlentechnik angewiesen. Ohne Motoren, Heizöl und Elektrizität könnte unser Planet schwerlich mehr als eine Milliarde Menschen ernähren, und selbst deren Lebensstandard wäre kümmerlich: Kalte Wohnungen, harte körperliche Arbeit, Mangelernährung, Seuchen, früher Tod im Kindbett, Zähne ziehen ohne Betäubung etc. etc.

Bild 6. Die Entwicklung unserer heutigen technischen Zivilisation war nur durch Nutzbarmachung zusätzlicher Energieressourcen möglich (Daten: [USDE])
Grundlage der Selbstverpflichtung Deutschlands und auch der EU ist das als Kyoto-Protokoll bezeichnete Abkommen, das mit diversen Nachbesserungen eine Reduktion der Treibhausgasemissionen bis 2020 um bis zu 40 % vorsieht. Seit seiner Verabschiedung hat die Welt allerdings nicht stillgestanden. Der rote Teil der Grafik in Bild 6 zeigt, dass der mit der Industrialisierung begonnene Trend zu verstärkter Nutzung fossiler Ressourcen auch nach 1990 völlig ungebrochen anhielt. Von 1990 bis 2012 stieg der weltweite CO2-Ausstoß um rund 13 Mrd. t/ Jahr auf inzwischen knapp 35,5 Mrd. t/ Jahr an [USDE]. Das entspricht einer Zunahme von fast 58 %. Die von Deutschland erzielten Einsparungen machen lediglich etwa 0,5 % dessen aus, was die gesamte Menschheit inzwischen an CO2 produziert.

kommt das Land teuer zu stehen

Für die Utopie, quasi im Alleingang gegen alle anderen die Welt vor dem „Klimawandel“ retten zu müssen, zahlt Deutschland einen hohen und immer weiter steigenden Preis. Dieser drückt sich nicht nur in den Hunderten von Milliarden Euro aus, die hierzulande in untaugliche Systeme zu Erzeugung „erneuerbarer“ Energie investiert werden, sondern auch darin, dass das Land in der Rangliste moderner Industrienationen stetig immer weiter nach unten rutscht. Besonders deutlich wird das am Beispiel von Grundstoffindustrien wie beispielsweise der Stahlerzeugung, Bild 7.

Bild 7. Während Deutschlands Stahlproduktion mit ca. 44-45 Mio. t/Jahr seit 1990 praktisch stagniert, ist sie weltweit um 109 % auf inzwischen 1607 Mio. t/ Jahr angestiegen (Grafik: Wirtschaftsvereinigung Stahl)
Damit hat sich der Anteil Deutschlands an der Welt-Stahlproduktion innerhalb der letzten 24 Jahre mehr als halbiert. Mit nur noch knapp 3 % rutscht das Land industriepolitisch inzwischen selbst in der zweiten Liga schon in Richtung der Abstiegsränge. Ähnliche Entwicklungen sind auch in anderen wichtigen Industriesektoren wie Aluminium, Zement sowie der Chemie zu beobachten. Einer kürzlichen Meldung zufolge hat die chemische Industrie– und das ist Deutschlands drittgrößter Industriesektor nach Auto- und Maschinenbau – seit 2011 ihre Produktion bzw. ihre Investitionen in Deutschland nicht erhöht [EIKE]. Und der gleichen Quelle zufolge erwägt laut einer Umfrage der deutschen Industrie- und Handelskammer zufolge fast ein Viertel aller Unternehmen der Schwerindustrie, ihre Produktion in Deutschland zu verringern. Was viele Mitbürger zudem nicht wissen: Deutschland kauft heute energieintensiv erzeugte Metalle und Chemikalien in viel größerem Umfang ein als früher. Auf gut Deutsch gesagt: Wir lassen andere Länder die CO2-intensiven Produkte erzeugen, die wir selbst nicht mehr herstellen wollen, kaufen diese dann ein und brüsten uns vor der Öffentlichkeit dann als die ganz tollen CO2-Einsparer.
Aus Angst vor einem angeblichen Klimawandel, an dessen Existenz neben immer mehr Wissenschaftlern auch wachsende Anteile der Bevölkerung deutliche Zweifel anmelden, hat sich das Land einer ruinösen „Klimarettungspolitik“ verschrieben. An die Erreichbarkeit der lauthals verkündeten „Klimaziele“ durch Reduktion unseres CO2-Ausstoßes können höchstens noch Milchmädchen glauben. Der Rest der Welt sieht Deutschland bei seinem Kurs ins industriepolitische Abseits mit einem mokanten Lächeln auf den Lippen zu und wahrt zugleich seine wirtschaftlichen Interessen. Getreu dem Spruch Sigmar Gabriels: „Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte“ [GABR].

Weitere unsinnige Belastungen für die Industrie

Natürlich ist auch der Politik klar, dass Deutschland seine vollmundig proklamierten Ziele wohl kaum erreichen wird. Doch statt die Ziele zu ändern, übt man lieber in bewährter Manier Druck auf die Industrie aus. Einer Mitteilung im Spiegel Online zufolge [SPIE] hat das Kabinett in der vergangenen Woche beschlossen, dass gut 50.000 Firmen in der Bundesrepublik alle vier Jahre sogenannte Energie-Audits durchführen sollen, eine Art Buchprüfung für Energieeffizienz. Interessierte Kreise aus „der Wissenschaft“, die sich offensichtlich lukrative Aufträge seitens der unter Druck gesetzten Unternehmen erhoffen, bemängeln der gleichen Meldung zufolge, dass die Massnahmen zu unverbindlich seien, und hoffen auf ein weiteres Bündel von Maßnahmen „für einen effizienteren Energieeinsatz“, das das Bundeskabinett am 3. Dezember beschließen will. Der „Nationale Aktionsplan für Energieeffizienz“, kurz Nape, und soll ebenfalls helfen, das „Klimaziel“ zu erreichen. Dabei geht es um ganze 23 Mio. t CO2 im Jahr, wofür die Firmen 15 Mrd. € investieren sollen.
Abgesehen von dem bürokratischen Aufwand, wenn 50.000 Firmen gezwungen werden, jeweils etliche Mitarbeiterstunden auf das Studium dieser neuen bürokratischen Monstrosität zu verschwenden, ist schon die Tatsache entlarvend, dass man seitens des beteiligten Fraunhofer Instituts für System- und Innovationsforschung glaubt den Unternehmen vorrechnen zu müssen, wie lohnend die entsprechenden Investitionen doch seien. Diese Bürokraten-„Wissenschaftler“ in ihren Elfenbeintürmen haben anscheinend nicht die geringste Vorstellung davon, in welchem Umfang sich jeder Gewerbebetrieb tagein, tagaus mit der Möglichkeit beschäftigt, Kosten zu senken, wo immer es nur geht. Diesen Leuten braucht man ihren Job nicht zu erklären, sie wissen selbst ganz genau, wann sich eine Investition rechnet und wann eben nicht. Denn diejenigen, die es nicht können, werden vom Wettbewerb eher früher als später aussortiert.
Fred F. Mueller
Quellen
[EIKE] http://www.eike-klima-energie.eu/news-cache/europas-gruener-selbstmord-schwerindustrie-verlegt-investitionen-ins-ausland/
[GABR] http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende
[HEND] http://www.heute.de/bundesumweltministerin-barbara-hendricks-will-mehr-kohlekraftwerke-vom-netz-nehmen-35722120.html
[SPIE] http://www.spiegel.de/wirtschaft/soziales/energiewende-firmen-koennten-23-millionen-tonnen-co2-sparen-a-1001488.html
[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/
[UMBA] http://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/dateien/2_abb_thg-emissionen_2014-03-07_0.pdf
[USDE] http://cdiac.ornl.gov/ftp/ndp030/global.1751_2010.ems




Macht endlich Schluss mit der Theorie des atmosphärischen Treibhauseffekts!

Richtigstellung nach der Konfusion durch die tendenziöse und irrige Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss der Schwerkraft

Der Treibhauseffekt gilt inzwischen als „wissenschaftliche Tatsache“, weil ihm Millionen von Menschen und insbesondere die selbsternannten Klimaspezialisten des IPCC, viele politisierte NGOs und besonders in Europa viele Umwelt- und Energieminister anhängen.
Die Hypothese der Klimaerwärmung stützt sich auf zwei Dogmen: den Treibhauseffekt und die Beteiligung des CO2 daran. Ich finde es überraschend und beunruhigend, dass diese „wissenschaftliche Tatsache“ sich mit keinem der allgemein anerkannten Grundprinzipien der Physik wie der Thermodynamik oder dem Gravitationsgleichgewicht der Atmosphäre erklären lässt. Ich möchte mich mit dem zuletzt genannten Prinzip beschäftigen, denn eine irrige Interpretation des Gravitationsgleichgewichts der Atmosphäre hat zur Formulierung der Theorie vom Treibhaus Atmosphäre und der schädlichen Rolle des CO2.
Ich möchte also nicht das thermische und radiative Gleichgewicht der von der Sonne beschienenen Erde behandeln, die durch die Gleichungen von Planck und Stefan-Boltzmann über schwarze Körper erklärt werden, sondern nur die Verwirrung, die durch eine tendenziöse Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss des Gravitationsfeldes der Erde entstanden ist.
Nur wer den Einfluss der Schwerkraft leugnet und die Beobachtungen von Newton und Galilei zurückweist, kann die folgenden Fakten übersehen: Die Atmosphäre wiegt im Durchschnitt auf Meereshöhe etwa zehn Tonnen je Quadratmeter. Mit minimalen Abweichungen von diesem Mittelwert beschäftigen sich die Meteorologen, denn es handelt sich dabei um Hoch- und Tiefdruckgebiete und die mit Luftdruckunterschieden verbundenen Wetterphänomene. Es geht dabei um Schwankungen in der Größenordnung von höchstens 3 Prozent. Das mag vernachlässigbar erscheinen. Da aber riesige Luftmassen im Spiel sind, fällt das doch ins Gewicht. Die Dichte und die Temperatur der Luft nehmen bekanntlich nach oben hin ab. Jeder Bergwanderer spürt das am eigenen Leib. Die Kompression der Atmosphäre durch die Schwerkraft ist also verantwortlich für die Verteilung der Temperaturen in der ganzen Troposphäre, die am Äquator bis in 17 Kilometer Höhe reicht. Oberhalb von dieser Grenze sorgt die Ionisierung der immer spärlicher werdenden Gasmoleküle durch den Sonnenwind und die kosmische Strahlung dafür, dass die bekannten physikalischen Gesetze über das Verhalten idealer Gase nicht mehr gelten.
Die einfache Beziehung zwischen der Höhe, der Dichte und der Temperatur der Luft wird in der Physik durch den adiabatischen Gradienten ausgedrückt. Dieser drückt aus, dass die trockene Luft sich auf 1.000 Meter Höhe um 9,8 und die feuchte Luft aufgrund der großen thermischen Trägheit des Wasserdampfes lediglich um 6,5 Grad Celsius abkühlt.
Ich erinnere daran, dass die Erde sich thermodynamisch wie ein schwarzer Körper mit einer Temperatur von minus 18 Grad Celsius verhält. Diese Temperatur finden wir auf einer mittleren Höhe von 5.000 Metern. Wenn wir den adiabatischen Gradienten anwenden, finden wir auf Meereshöhe eine Durchschnittstemperatur von 14,5 Grad Celsius. Das wird durch Beobachtungen bestätigt. Wenn wir uns den Polen nähern, nimmt die Durchschnittstemperatur selbstverständlich wegen der geringeren mittleren Sonneneinstrahlung ab. Aber der adiabatische Gradient gilt auch dort. In den Wüsten liegt die Temperatur wegen der geringen Luftfeuchtigkeit am Tag über, bei Nacht aber unter dem Mittelwert.
Die Verfechter der Treibhaustheorie verweisen nun auf die Beobachtung unseres Nachbarplaneten Venus. Aus mehreren Gründen ist aber der Vergleich von Erde und Venus irreführend.
Die Umlaufbahn der Venus liegt näher zur Sonne. Venus erhält also mehr Strahlungsenergie als die Erde. Da sie aber gleichzeitig wegen ihrer dichten Wolkendecke eine größere Albedo hat, also mehr Sonnenstrahlen reflektiert als die Erde, spielt ihre größere Nähe zur Sonne keine so große Rolle. Was aber ins Gewicht fällt, ist die sehr viel größere Dichte ihrer Atmosphäre, die größtenteils aus dem schweren Gas CO2 besteht. Diese ist ungefähr 92mal so hoch wie die der Erde. Der atmosphärische Druck beträgt dort 920 Tonnen je Quadratmeter (wie auf der Erde in 1.000 Meter Meerestiefe). Aber der adiabatische Gradient gilt auch auf der Venus. Die Temperatur nimmt auch dort um etwa 9 Grad Celsius je 1.000 Höhenmeter ab.
Da die Dichte der Venus-Atmosphäre jedoch am Boden etwa 95 Kilo je Kubikmeter beträgt, ergibt sich bei der Anwendung des gleichen Gesetzes der adiabatischen Kompression eine Temperatur von 465 Grad. Temperaturen um Null Grad finden sich auf der Venus erst in 50 Kilometer Höhe. Schließlich darf man nicht vergessen, dass ein Tag auf der Venus so lange dauert wie 243 Tage auf der Erde. Starke Konvektionsströme und Stürme sorgen aber für einen  guten Temperaturausgleich zwischen Tag- und Nachseite des Planeten. Deshalb ist es nicht gerechtfertigt, von einem Treibhauseffekt auf der Venus zu sprechen. Der Planet befindet sich vielmehr in einem Strahlungsgleichgewicht mit dem Weltraum. Nur sind dessen Parameter andere als die der Erde. Gäbe es auf der Venus einen durch CO2 verursachten Treibhauseffekt, hätte der Planet längst schmelzen und verdampfen müssen. Stattdessen gibt es darauf der Berge und Ebenen und sogar Vulkane wie auf der Erde – und vielleicht sogar Seen aus überkritischem CO2.
Von daher lässt sich begreifen, warum der vor allem vom NASA-Forscher James Hansen für die Erklärung des Treibhauseffektes bemühte Vergleich zwischen Erde und Venus hinkt. Die Atmosphäre der Venus besteht zu 95 Prozent aus CO2, der Rest aus Stickstoff und Spuren von Schwefeldioxid. Zu Unrecht haben James Hansen oder Al Gore Kritikern entgegnet: „Schauen Sie doch, was auf der Venus los ist!“ Denn nicht wegen des CO2 herrscht auf der Venusoberfläche eine Temperatur von 465 Grad. Diese ergibt sich allein aus der Anwendung fundamentaler Gesetze der Thermodynamik und der Physik idealer Gase. Die Treibhaustheorie widerspricht hingegen den fundamentalen Prinzipien der Physik.
Ich frage mich daher, warum es niemand wagt, den Vertretern der Treibhaustheorie die Stirn zu bieten. Stattdessen folgen die Regierungen blind den vom IPCC und von grünen NGOs vorgerechneten Extrapolationen. Sie schämen sich nicht, offen malthusianistisch zu argumentieren und drohen damit, etliche Länder in die ökonomische und soziale Katastrophe zu führen. 
Für Neugierige bringe ich hier die Gleichung des adiabatischen Gleichgewichts. Der thermodynamische Zustand einer Luftsäule lässt sich vereinfacht folgendermaßen umschreiben:

Dabei ist U die Gesamtenergie, Cp die thermische Kapazität der Atmosphäre (1004 joules/kg/Grad K für trockene Luft, 1012 für feuchte Luft mit durchschnittlich 0,25 % Wasserdampf), T die Temperatur des Abschnitts der Luftsäule (in Grad Kelvin), g die Erdbeschleunigung und h die Höhe in km. Leitet man diese Gleichung ab, erhält man:


(ausgedrückt in K/km). Hier taucht der Term g/Cp, genannt « Adiabatischer Gradient », auf. Dieser beschreibt das Gleichgewicht zwischen dem Druck und der Temperatur der Atmosphäre. Wir können diese Differentialgleichung folgendermaßen umformen:

Da g und Cp positive physikalische Größen sind, sieht man sofort, dass die Verteilung der Temperaturen im Schwerefeld der Erde, wie auch im Schwerefeld beliebiger Planten mit einer Gashülle, mit der Höhe abnimmt.
Die letztgenannte Gleichung kann aufgelöst werden, indem man für h0 die Meereshöhe und für T0 die entsprechende Temperatur einsetzt:

Man findet dann leicht die Bodentemperatur (h0 = 0), indem man in die Gleichung die Höhe von 5 Kilometern für die Isotherme von -18 °C einsetzt, die dem Strahlungsgleichgewicht des Systems Erde-Atmosphäre (nach den Gesetzen von Stefan-Boltzmann) entspricht:
t = – 6,5 (h – 5) – 18 = 32,5 – 18 = 14,5 Grad Celsius. Der Faktor 6,5 entspricht der thermischen Kapazität der mit Wasserdampf beladenen Luft. Der mittlere Wasserdampfgehalt der Atmosphäre liegt ungefähr bei 0,25 Prozent.
Gäbe es in unserer Atmosphäre einen Treibhauseffekt, dann müsste an erster Stelle der Wasserdampf dafür verantwortlich sein. Es gibt in der Atmosphäre 600mal mehr Wasserdampf als Kohlenstoffdioxid. Diesen Faktor 600 muss man noch einmal mit 5 multiplizieren, denn die thermische Kapazität des Wassers liegt bei 4.180 joule/kg/°K gegenüber nur 840 joule/kg/°K für CO2. Wasserdampf besäße also ein 3.000mal so starkes „Treibhauspotenzial“ wie CO2. Wäre unsere Atmosphäre tatsächlich ein Treibhaus, wären die Ozeane längst verdampft.      (Übersetzung: Edgar L. Gärtner) 
*) Original erschienen im französischen Magazin Contrepoints am 5. November 2014
Über den Autor

Jacques Henry ist Biologe. Er arbeitete lange Jahre als Forscher beim CNRS (Centre National de Recherche ScientifiqueI, dem franz. Partner der Max-Planck-Gesellschaft, Henry hat danach als Berater für die Nuklearsparte von Electricité de France (EdF) gearbeitet und befindet sich jetzt im Ruhestand.




EIKE 8. Internationale Klima- und Energiekonferenz in Frankfurt Main : Info-Kurz-Video


Kurzvideo mit einer Auswahl verschiedener Themen die auf der Konferenz am 17.10.14 in Frankfurt/Main behandelt wurden