Eine Weihnachtswettergeschichte über das Winterwetter in der Geschichte

„Zunächst einmal, warum soll Weihnachten eigentlich immer weiß sein? Sieh mal, als unser Herr Jesus geboren wurde, war es sicher nicht kalt. Wie sonst hätten die Hirten ihre Herden auf den Feldern hüten können?“

„- – -“

„In diesem Jahr hat es zum ersten Mal seit sehr langer Zeit wieder geschneit – und zwar dort, wo Jesus geboren wurde. Es kommt halt immer wieder mal vor“.

„Schön, aber in der Schule sagen sie, dass es bei uns immer wärmer wird und irgendwann gar kein Schnee mehr kommt. Nie mehr Weiße Weihnacht?“

„Du solltest so einen Unsinn nicht glauben! Weiße Weihnacht kommt nur alle paar Jahre vor bei uns, das war schon immer so. Außerdem war es früher; viel, viel früher schon mal ganz erheblich wärmer als heute“.

„So richtig wie im Sommer?“ Das klang jetzt fast begeistert. Ich wusste, wie gerne mein kleiner Schatz draußen spielte.

„Na, wie im Sommer wohl nicht. Aber früher, als es noch keine Radios und Tonbänder und Videos und alles gab, haben einige Leute aufgeschrieben, wenn etwas Ungewöhnliches vorgefallen war“.

„Wie warm war es denn da?“

„Pass auf, ich lese einfach mal vor, was ich gefunden habe:

Im Januar 1807 wurden frische Erdbeeren geerntet

„Der warme Winter von dem Jahr 1806 auf das Jahr 1807 hat viel Verwunderung erregt und den armen Leuten wohlgetan; und der und jener, der jetzt noch fröhlich in den Knabenschuhen herumspringt, wird in sechzig Jahren einmal als alter Mann auf der Ofenbank sitzen und seinen Enkeln erzählen, dass er auch einmal gewesen sei wie sie und dass man Anno 6 [=1806], als der Franzos´ in Polen war, zwischen Weihnacht und Neujahr Erdbeeren gegessen und Veigelein (Veilchen) gebrochen habe. Solche Zeiten sind selten, aber nicht unerhört, und man zählt in den alten Chroniken seit 700 Jahren 28 dergleichen Jahrgänge“.

„Erdbeeren zu Weihnachten – die gibt es doch heute auch!“

„Aber nur im Supermarkt von weiß ich woher. Glaubst du wirklich, dass man vor 200 Jahren auch schon Supermärkte hatte?“

„Nein, Opa“, kicherte sie. „Aber Frühling zu Weihnachten – das wär doch was!“

„Na, ich weiß nicht. Aber sieh mal, innerhalb von 700 Jahren 28 mal Frühling zu Weihnachten. Du siehst, wenn einer sagt, dass es früher viel kälter war, ist das Quatsch!“

„Lies mal weiter, Opa! Steht da noch mehr?“

„Aber sicher doch! Hör zu:

Zu Weihnachten 1289 pflückten sie Kornblumen und Veilchen

Im Jahr 1289, wo man von uns noch nichts wusste, war es so warm, dass die Jungfrauen um Weihnachten und am Dreikönigstag Kränze von Veilchen, Kornblumen und andern trugen. Im Jahr 1420 war der Winter und das Frühjahr so gelind, dass im März die Bäume schon verblüheten. Im April hatte man schon zeitige Kirschen, und der Weinstock blühte. Im Mai gab es schon ziemliche Traubenbeerlein. Davon konnten wir im Frühjahr 1807 nichts rühmen.

Im Winter 1538 konnten sich auch die Mädchen und Knaben im Grünen küssen, wenn’s nur mit Ehren geschehen ist; denn die Wärme war so außerordentlich, dass um Weihnacht alle Bäume blühten.

1572 brüteten die Vögel schon im Februar

Im ersten Monat des Jahres 1572 schlugen die Bäume aus, und im Februar brüteten die Vögel. Im Jahr 1585 stand am Ostertag das Korn in den Ähren. Im Jahr 1617 und 1659 waren schon im Jänner (Januar) die Lerchen und die Drosseln lustig.

Im Jahr 1722 hörte man im Jänner schon wieder auf, die Stuben zu einzuheizen. Der letzte ungewöhnlich warme Winter war im Jahr 1748. Summa ist es besser, wenn am St. Stephanstag (26. Dezember) die Bäume treiben, als wenn am St. Johannistag (24. Juni) Eiszapfen daran hängen.“

Jetzt war meine Kleine nachdenklich geworden. „Aber das heißt doch, wenn es mal so warm war… später war es doch dann auch wieder kalt, oder?“

„Oh ja, und das ist gar nicht so lange her! Im Jahr 1962 war es Weihnachten so kalt, wie seit hundert Jahren nicht mehr! Immer zwischen -15 und -20 Grad – aber ich weiß noch, wie ich damals als kleiner Junge viel Spaß mit der Kälte hatte! Alle anderen haben geschimpft!“

„Gibt es das bei uns auch wieder?“

„Ganz sicher, mein Kind! Vielleicht schon im nächsten Jahr?“

© Chris Frey. Der Autor bedankt sich bei Herrn Joachim Barkow für die Zusammenstellung der historischen Fakten.

Nachtrag von Dipl.-Met. Hans-Dieter Schmidt:

Nicht der Mensch macht das Klima, sondern die Sonne. Und das war natürlich schon immer so. Seriöse Klima-Wissenschaftler sprechen von „Scharlatanen, Geldmachern und sogar von Voll-Idioten“, wenn die politische Forderung erhoben wird, dass die Temperatur auf der Erde von den Menschen allein um 2 Grad gesenkt werden kann. Politiker, die Gott spielen möchten. Das ist das eine. Das andere: Es gab in der Geschichte der Menschheit immer wechselnde Kälte- und Wärmeperioden. Die Kälteperioden bedeuteten Tod, keine Ernten, Völkerwanderung, Verhungern. Die Wärmeperioden brachten immer Hochkulturen und ein besseres Leben mit sich. Erderwärmung? Die haben wir den ganzen März 2013 über „genossen“.

Leider ist die Geschichte meines Freundes Chris Frey nur fiktiv. Aber es wäre wirklich zu wünschen, dass es auch in Wirklichkeit viel mehr Menschen gibt, die den Kindern auf so anrührende Art nahe bringen, was wirklich ist und was die Daten sagen.




Die Energiezukunft liegt unter Meereis

Man nennt sie Methanhydrate, manchmal auch „brennbares Eis“. Wenn der Abbau der Methanhydrate erst einmal möglich ist, würde sich die geopolitische Weltkarte erneut drastisch verändern. Nationen wie Indien und Japan, die kaum über eigene Öl- und Gasvorräte verfügen, könnten plötzlich zu mächtigen Energieriesen werden.

Im US-Department of Energy heißt es: „Methanhydrate könnten den Energiegehalt aller anderen fossilen Treibstoffe zusammen in den Schatten stellen” und „sie könnten Jahrzehnte lang die Versorgung mit billigem Erdgas sicherstellen und Amerikas Abhängigkeit vom Öl beseitigen“.

Aber die Möglichkeit, dass fossile Treibstoffe unbegrenzt die Weltwirtschaft mit Energie versorgen kann – selbst die konservativsten Vorhersagen beschreiben Methanhydrate als eine Größenordnung höher als alle anderen Erdgasquellen zusammen – missfällt vielen, die seit Jahrzehnten gehofft haben, dass die Verknappung den Globus von seiner Abhängigkeit von Treibhausgase erzeugenden Technologien befreien könnte.

„Da erhebt sich die Frage: werden wir an fossilen Treibstoffen kleben, bis wir die Atmosphäre vollständig gebraten haben?” sagt Richard Carter, leitendes Mitglied der Umweltgruppe The Ocean Foundation und auch Mitglied des Beratungskomitees bzgl. Methanhydrate im Energieministerium.

Die International Energy Agency EIA schrieb in einem Bericht im November, dass die Wirtschaftlichkeit von Methanhydraten als Treibstoffquelle von technologischen Fortschritten ebenso wie von politischen Maßnahmen zur Klimaänderung abhängt. Um die Ziele der Reduktion von Kohlenstoff-Emissionen zu erreichen, ist die Beschneidung des Verbrauchs aller fossilen Treibstoffe erforderlich, selbst derjenigen aus dem Eis. Außerdem ist Methan ein potentes Treibhausgas, wenn es in die Atmosphäre freigesetzt wird, und man muss bei der Ausbeutung sehr vorsichtig sein.

Das sind gewaltige Herausforderungen bei der Gewinnung von Erdgas aus Methanhydraten. Aber Japan hofft, Wege zu finden, an die unberührte Ressource während der nächsten 5 bis 10 Jahre heranzukommen. Auch andere Nationen treiben entsprechende Forschungen voran, einschließlich der USA, die über große Vorräte dieses Zeugs unter dem Permafrost in Alaska und in den Tiefen des Golfes von Mexiko verfügt.

Methanhydrate bilden sich unter extrem hohem Druck bei niedrigen Temperaturen, also Bedingungen, wie sie am Grund des ansonsten warmen Golfes von Mexiko zu finden sind. Die Eiskristalle führten zu Problemen, als BP im Jahre 2010 versucht hat, die Ölpest der Plattform Deepwater Horizon einzudämmen. Ölgesellschaften ist ihr Potential als Energiequelle sehr wohl bewusst, doch haben sie es bislang vermieden, sich bei Bohrungen mit diesem Stoff zu befassen.

Der Direktor des National Technology Laboratory Anthony Cugini sagte auf der diesjährigen Energiekonferenz in Deloitte: „Wer auch immer es während der kommenden Jahrzehnte schafft, wirtschaftliche Wege der Ausbeutung zu finden, könnte danach von einer Hydrat-Energie-Revolution sprechen. Diese Methanhydrate bieten wirklich eine Gelegenheit, die Schiefergas auf die untersten Plätze verweisen könnte. Die Ressource ist so gewaltig“.

Amerika verfügt bereits über eine Menge Schiefergas und sieht daher keine sofortige Notwendigkeit, sich mit Methanhydraten zu befassen. Andere Nationen jedoch haben einen ganz anderen Energiebedarf und treiben die Entwicklung der Ausbeutung von Methanhydraten immer stärker voran.

„Die Japaner bezahlen so viel für importiertes Erdgas, dass die Kosten für Methanhydrate für sie eine echte Alternative sein könnten“, sagte Tim Collette vom Team Energieressourcen des Geological Survey. Einige Kostenschätzungen für Methanhydrate sind zehnmal so hoch oder noch höher als die Kosten konventionellen Schiefergases. Die Japaner hoffen, diese Produktionskosten zu verringern und größere Wettbewerbsfähigkeit mit anderen Energiequellen zu erreichen.

Japan sucht auch dringend nach neuen Energiequellen, solange es sich von Kernkraft nach dem Fukushima-Desaster entfernt.

Der Energieberatungsfirma HIS Cera zufolge kann man erwarten, dass Japan Methanhydrate innerhalb der nächsten 15 Jahre wirtschaftlich nutzt.

Südkorea könnte als Nächstes folgen. Wie Japan ist das eine entwickelte und wohlhabende Nation ohne eigenes Öl und Gas.

Asien könnte die Wiege der Methanhydrate sein, da „Notwendigkeit oftmals die Mutter der Invention ist“, heißt es in einem jüngst erschienenen Bericht von IHS-Analysten.

Im vorigen Jahr kam es zu einigen Durchbrüchen bzgl. Methanhydrate. Forscher an der Nordküste Alaskas gewannen Erdgas aus Eiskristallen im Permafrost, indem sie sie mit Stickstoff und Kohlendioxid injiziert hatten. Die Hydrate nahmen das Kohlendioxid auf und setzten das Methan frei, wobei im Wesentlichen die Moleküle ausgetauscht wurden, während das Forscherteam den Druck erniedrigte, um das Gas zum Austreten zu bringen.

Dann hat Japan einen Ausfluss aus Tiefwasser-Ablagerungen vor seinen Küsten erzeugt, und zwar durch eine Druckverminderungs-Technik. Dazu gehört das Bohren eines Loches in die Formation und das Abpumpen des Wassers. Das setzt das Gas frei, und zwar als Folge des Druckunterschieds zwischen der Hydrat-Ablagerung im Untergrund und dem Bohrloch.

Charter von der Ocean Foundation sprach die Risiken der Entwicklung von Methanhydraten an. Dazu gehören unkontrollierte Gasaustritte und die Auslösung untermeerischer Erdrutsche, die den Planeten erwärmendes Methan in die Atmosphäre freisetzen.

„Ich würde sagen, dass wir derzeit in einer ähnlichen Phase sind wie in der Frühphase der Edison’schen Glühbirnen, bei denen die Hälfte in die Luft flog“, sagte er.

Link: http://www.santafenewmexican.com/news/energy-s-future-lies-waiting-in-sea-ice/article_855487f4-d414-5f17-8480-65ab0e696945.html

Übersetzt von Chris Frey EIKE




Licht wärmt, im Schatten wird es kühl, doch was ist „Temperatur“?

Das Temperament führte die Ärzte zur Temperatur

Auch die Ärzte des Altertums wussten dies nicht, aber sie waren wohl die ersten, die bemerkten, dass die Gesundheit des Menschen irgendwie mit der Körperwärme zusammenhing. Den Arzneien wurde je nach Befund eine kühlende oder wärmende Wirkung zugeschrieben. Die Stärke dieser Wirkung wurde mit Graden bestimmt. Grad leitet sich vom lateinischen Wort ‚gradus‘ gleich Stufe ab. Ein großer Arzt des Altertums, Galenos von Pergamon (121-199), er war auch Sportarzt bei den Olympischen Spielen, teilte die Wirkung der Arzneien mit einer Achtgradskala ein, je vier Grade für Wärme und für Kälte. Das Menschentemperament käme durch eine Vermischung von vier Flüssigkeiten zustande. Deren Vermischung in einem ganz bestimmten Verhältnis wird im Lateinischen „Temperatur“ genannt. Erst im 17. Jahrhundert begann man, das Wort Temperatur auf die uns heute geläufige Weise zu benutzen, nachdem man gelernt hatte, die Erwärmung eines Körpers ihrer Stärke nach zu messen.

Doch selbst noch Galileo Galilei (1564-1641), der 1597 das erste Thermometer konstruierte, wusste nicht, was er eigentlich maß. Immer, wenn er die Kugel mit der Hand berührte, stieg das Wasserniveau in der Glasröhre. Es hob und senkte sich aber auch ohne Berührung. Erst seinem Schüler Evangelista Torricelli (1608-1647) gelang es, den Zusammenhang zwischen der Höhe der Quecksilbersäule und dem Luftdruck zu erkennen. Zur Zeit Galileis schien selbst die Idee, dass die Luft auf die Erde drücken konnte, unannehmbar. Sein Instrument bestätigte, dass sich Körper bei Erwärmung ausdehnen und bei Abkühlung zusammenziehen. Es bestätigte auch, dass Wärme immer von einem heißen Körper zu einem kalten übergeht. Ein heißer Teekessel kühlt sich im Zimmer von selbst ab, aber er kann sich nicht von selbst erwärmen. Es ist möglich, ein Zimmer mit einem Ofen zu heizen, aber es ist absolut unmöglich, nur auf Kosten einer Zimmerkühlung einen Ofen zu erwärmen.

Galileo Galilei war der „Vater der Experimentalphysik“. Von ihm stammt der weise Spruch: „Die Natur ist unerbittlich und unveränderlich, und es ist ihr gleichgültig, ob die verborgenen Gründe und Arten ihres Handelns dem Menschen verständlich sind oder nicht.“ Wer weiß das besser als ein in der Wetteranalyse und Wettervorhersage tätiger Meteorologe?

Die Vertreibung aus dem Paradies – ein doppelter Verlust an „Wärme“!

Im Paradies hatten Adam und Eva offensichtlich keine Probleme mit dem Wetter, auch keinen Mangel an Wärme, obgleich sie nackt waren. Das lässt den Schluss zu, dass der „Garten Eden“ sich in den feuchtwarmen Tropen mit Temperaturen kaum unter 28 °C befand. Selbst nach dem Sündenfall störte sie die Nacktheit nicht. Aber als Gott sie aus dem Paradies vertrieb, wäre die Nacktheit ein ernstes Überlebensproblem geworden. Gott wusste dies und daher heißt es in der Schöpfungsgeschichte (Gen 3,21), dass Gott Adam und Eva beim Rausschmiss aus dem Paradies „Röcke aus Fellen“ machte und sie damit bekleidete. Er garantierte damit ihr Überleben, denn ohne Kleidung hätten sie nackt kaum die starken Temperaturschwankungen mit glühender Hitze am Tage und empfindlicher Abkühlung in der Nacht, besonders bei klarem Himmel, überleben können.

Adam und Eva hatten zwar verbotenerweise vom „Baum der Erkenntnis“ gegessen, aber ihnen fehlte mangels Erfahrung jegliches Gefühl dafür, welche physiologischen Wirkungen Nacktheit auf sie haben könnte. Sie kannten zwar die Felle der Tiere und das Federkleid der Vögel, aber es war ihnen nicht bewusst, welche lebensnotwendige Funktion diese natürliche „Bekleidung“ hat. Das Geheimnis besteht darin, dass unter dem Federkleid und im Fell Luft ruhig gestellt wird. Trockene Luft hat in der Natur die geringste Wärmeleitfähigkeit. Sie beträgt 0,0262 W/m• K. Luft hat von allen Stoffen die höchste Isolierfähigkeit, doch nur unter der Bedingung, dass sie absolut ruhig gestellt und jedwede Konvektion unterbunden wird. Zudem dürfen die Daunen unter dem Federkleid nicht nass werden. Wasser hat mit 0,56 W/m• K eine 21 Mal höhere Wärmeleitfähigkeit als Luft. Daher sind Enten ständig beschäftigt, ihr Federkleid einzufetten, damit kein Wasser durch das Gefieder dringt und die Daunen durchnässt.

Da ein Stillstellen von Luft unter freiem Himmel völlig unmöglich ist, nutzen Tiere ihr Feder- oder Fellkleid, um sich vor lebensgefährlicher Ab- und Unterkühlung zu schützen. Dasselbe macht der Mensch mit seiner Kleidung, die er stets den Außentemperaturen anpasst. Je größer die Differenz von Körper- und Umgebungstemperatur ist, desto dichter muss die Kleidung sein. Sie schützt uns vor Hitze und Kälte, vor Regen, Sonne und Wind. Die Herstellung von Kleidung war der erste eigenständige Kulturakt des Menschen. Die Natur war dabei Lehrmeisterin. Man muss sie nur genauestens beobachten. Eine Beobachtung war, dass beim Rupfen der Gänse unter dem Gefieder flauschige Daunen zum Vorschein kamen. Enten- und Gänsedaunen nutzt der Mensch zur Herstellung von Kopfkissen und Bettdecken. Zwischen den winzigen Daunen ist Luft eingeschlossen und kann sich nicht bewegen. Begibt sich der Mensch zur Nachtruhe ins kalte Bett, dann wärmt er mit seiner Körperwärme die Bettdecke auf und erzeugt ein dem Schlaf bekömmliches Bettklima. Die Bettdecke wärmt nicht, ebenso wenig wie ein Mantel.

Das Bekleiden von Adam und Eva mit „Fellen“ war ein lebensnotwendiger Gnadenakt, der es dem Menschen ermöglichte, die ganze Welt zu besiedeln und sich dem jeweiligen Temperatur-Milieu anzupassen. Besonders in den polaren Klimazonen waren „Felle“ unverzichtbar. Pelze, vor allem die aus Winterfellen, sind wegen des hohen Wärmeschutzes beliebt. Die Inuit aus Grönland nutzen Robben- und Seehundfelle, in Lappland sind es Rentierfelle, in Sibirien Felle von Polarfuchs, Schneehase. Sibirische Tiger sind vor Kälte bis -45 °C geschützt. Eisiger Kälte angepasst haben sich auch die Hanuman-Languren, eine in Nepal lebende Affenspezies.

Der Mensch ist ein Kraftwerk, eine Verbrennungsmaschine

Der Mensch ist wie alle Säugetiere vergleichbar mit einem „Ofen“, der allerdings immer beheizt werden muss, allein um die Betriebstemperatur zu wahren und den ständigen Wärmeverlust durch Strahlung, Leitung wie Konvektion auszugleichen. Hört mit dem Tode die Verbrennung auf, dann kühlt der Körper ab, bis auf die jeweilige Umgebungstemperatur. Wird in einem Raum ein toter gefunden, dann berechnet man den Todeszeitpunkt mit Hilfe des Newton’schen Abkühlungsgesetzes.  

Beheizt wird der „Ofen“ mit Sonnenenergie, die über die grünen Pflanzen bei der Fotosynthese in die Nahrungskette eingespeist wird. Die Pflanzen liefern auch gleichzeitig den Sauerstoff, ohne den wir die Nahrung nicht im Körper verbrennen könnten. Eine Energieeinsparung ist unmöglich, weil jeder Körper in Abhängigkeit von seiner Temperatur Wärme abstrahlt. Dies betrifft ausnahmslos alle festen und flüssigen Körper auf der Erde. Jeder Stein, jede Pflanze, alles sendet Wärmestrahlung aus und kühlt sich ab. Die Körper werden nicht abgekühlt durch das Weltall, nein sie selbst sind die Objekte, welche in die Umgebung Wärme ausstrahlen. Die Erde dreht sich vor der Sonne, damit „Licht“ immer wieder die Abkühlung unterbrechen, der Erde frische Energie zuführen und sie dadurch erwärmen kann. Ein davon unabhängiger Vorgang ist die Abkühlung oder Erwärmung über den Wind, durch die Advektion kalter oder warmer Luftmassen. Insbesondere die Schwankungen der Tagestemperaturen gehen auf Änderungen der Windrichtung zurück, wobei heute Tropikluft und morgen Polarluft herantransportiert werden kann.

Die von den Körpern je nach deren Temperatur ausgehende Wärmestrahlung ist in der Regel unsichtbar. Sichtbar werden Wärmestrahlen erst, wenn die Herdplatte beginnt rot zu glühen. Strahlen größerer Wellenlänge sind für das menschliche Auge unsichtbar; sie liegen jenseits des roten Lichts. Deswegen spricht man auch von infraroter Strahlung. Hat man entsprechende Infrarot-Kameras, so kann man diese unsichtbare Wärmestrahlung erfassen und somit selbst bei tiefster Finsternis jeden Körper fotografieren und sichtbar machen. Dies kann ein Mensch, ein Wild, ein Baum, ein Haus oder ein getarnter Panzer sein. Die Wärmestrahlung verrät alles! Die Wärmestrahlung erniedrigt die Temperatur des strahlenden Objektes und erhöht die Temperatur des empfangenden Objektes, wenn dieses mehr Wärme empfängt als es selbst ausstrahlt.

Die Erdoberfläche empfängt extrem unterschiedliche Wärmemengen von der Sonne, weil sie eine rotierende „Kugel“ ist und keine senkrecht zur Sonne stehende „Scheibe“. Da die Erdachse nicht senkrecht auf der Sonnenumlaufbahn steht, sondern um 23,5 Grad geneigt ist, haben wie die vier Jahreszeiten Frühling, Sommer, Herbst und Winter. Hat die Sonne bei 23,5 °S den südlichen Wendekreis am 21. Dezember erreicht, dann beginnt der Winter. Dann haben wir in 50 °N die längste Nacht (16 h) und den kürzesten Tag (8 h), bei einer Sonnenhöhe von 16,5 Grad über dem Horizont. Wir sehen es an der Länge unserer Schatten. Die Beleuchtungsstärke der Sonnenstrahlen und ihre Wärmewirkung auf der Haut sind spürbar geringer als am 21. Juni zur Sommersonnenwende am 21. Juni. An diesem Tag steht die Sonne 63,5 Grad über dem Horizont, sind die Tage 16 Stunden lang und die Nächte 8 Stunden kurz. Die höheren Temperaturen im Sommer sind einzig Folge der höheren Beleuchtungsstärke und der längeren Beleuchtungszeiten, der Sonnenscheindauer.

Seit Nikolaus Kopernikus (1473-1543) das heliozentrische Weltbild schuf und Johannes Keppler (1571-1630) die Planetengesetze formuliert hatte, gibt es eine völlig natürliche Begründung sowohl für den Tagesgang der Temperaturen wie deren Jahresgang. Dieser natürlichen Rhythmik hat sich alles Leben auf der Erde angepasst. Es ist einzig und allein die Kraft der Sonne, die das Leben in seiner Vielfalt bestimmt. Die Sonne versorgt im Frühjahr die Natur mit der notwendigen Lebensenergie und entzieht ihr diese Energie im Herbst wieder. Dies zeigt sich an der Vegetationsperiode, vom zarten Grün der Bäume im Frühling bis zum Laubabwurf im Herbst. Bei aller wetterbedingten Veränderlichkeit der täglichen Temperaturen, die jährliche Temperaturkurve folgt eindeutig dem Stand der Sonne wie der Länge von Tag und Nacht. Das Spurengas CO2 mit einem Luftanteil von 0,04 Prozent hat keinen messbaren Einfluss auf die Körpertemperaturen wie die Lufttemperaturen. CO2 dient den Pflanzen als Nahrung zum Aufbau von Nahrung für Mensch und Tier.

Was nun ist Temperatur?

Wärme ist immer an stoffliche Masse gebunden. Je mehr Masse man hat, desto mehr Wärme kann man speichern. Mit 5000 Litern heißem Wasser kann man mehr heizen als mit fünf Litern gleicher Temperatur. Es war ein sehr langwieriger Prozess, die Begriffe „Temperatur“ und „Wärme“, zumal man Wärme und Kälte für verschiedene Substanzen und die Luft für eine unsichtbare Flüssigkeit hielt. Der Begriff Kalorie weist noch auf die Vorstellung von  Wärme als „Kalorikum“ hin. Bei der Wettervorhersage werden immer die Luftströmungen mit Hilfe von hydrodynamischen Bewegungsgleichungen berechnet. 

Im 17. Jahrhundert begannen Naturforscher wie Robert Boyle (1627-1691), Robert Hooke (1635-1703) und Isaac Newton (1642-1726) die Meinung zu vertreten, dass Wärme mit mechanischen Bewegungen zusammenhänge. Vor ihnen hatten schon Philosophen wie Francis Bacon (1561-1626), Thomas Hobbes (1588-1679) und John Locke (1623-1704) diese Ansicht vertreten. Erste quantitative Formulierungen gehen auf Leonhard Euler (1707-1783) und Daniel Bernoulli (1700-1782) zurück. Euler schätzte die Geschwindigkeit der Gasteilchen auf 477 m/s. Bei O °C liegt die mittlere Geschwindigkeit der Luftmoleküle bei 400 m/s (1440 km/h), bei 20 °C sind es 500 m/s (1800 km/h). Die Schallgeschwindigkeit bei 15 °C beträgt nur 340 m/s (1224 km/h).  Also lange vor James Maxwell (1831-1879) wurde der Grundstein für die kinetische Gastheorie gelegt. Als Geburtsjahr für die Theorie der „Bewegung durch Wärme“ gilt 1824, in dem Sadi Carnot (1796-1832) seine „Gedanken über die bewegende Kraft des Feuers und über Maschinen, die diese Kraft ausnutzen können“ vorlegte. Er begründete damit zwar einen neuen Zweig der Physik, die Thermodynamik, fand aber Zeit Lebens keinen Widerhall. 1834 arbeitete Benoit Clapeyron (1799-1864) die Arbeit von Carnot um und verschaffte der Thermodynamik zum Durchbruch. Robert Julius Mayer (1814-1878) bestimmte den Wert des mechanischen Wärmeäquivalents. Er wies auch nach, dass sich Bewegungsenergie vollständig in Wärme umwandeln lässt und verkündete 1845 den Energieerhaltungssatz. Aber Mayer wurde die Anerkennung verweigert, er sah sich gehässigen Angriffen ausgesetzt und verbrachte zehn Jahre im Irrenhaus. Er wurde auch verlacht ob der Erklärung seiner Beobachtung, dass sich bei einem Sturm das Wasser erwärmt.

Es war damals schwierig zu verstehen, dass Energie nicht verschwinden kann. Das Paradoxon wurde erst aufgelöst, als man verstand, dass Wärme mit der ungeordneten Bewegung von Molekülen verbunden ist und dass sich die „verschwundene Energie“ in der Energie dieser Molekülbewegungen wiederfindet. Es war auch sehr schwierig zu verstehen, dass man aus dem Endzustand eines Systems auf keine Weise schließen kann, woher das System seine Energie bekam: auf Kosten von Wärme oder von Arbeit. Arbeit und Wärme sind Prozessgrößen, keine Zustandsgrößen wie Druck, Temperatur, Volumen, innere Energie. Es wuchs auch die Erkenntnis, dass, wenn zwei Körper die gleiche Temperatur hatten, nicht daraus folgte, dass sie dieselbe Energie besaßen. Wärme ist nicht gleich Temperatur, auch wenn gesagt wird, dass es 20 Grad warm ist!

Es war dann William Thomson (1824-1907) oder „Lord Kelvin“, der die thermodynamische Temperaturskala entdeckte. Wurden früher zwei Punkte – der Schmelzpunkt des Eises und der Siedepunkt des Wassers –  gewählt, und deren Abstand wie bei der Celsius-Skala in 100 Teile geteilt, so geht man heute vom Tripelpunkt des Wassers aus, wo die drei Phasen Dampf, Wasser und Eis miteinander koexistieren. Seine Temperatur in Kelvin beträgt exakt 273,16 K oder exakt 0,01 °C. Der Übergang zur neuen Skala mit dem Tripelpunkt des Wassers als einzigem Fixpunkt geschah fast unbemerkt. Diese Übereinkunft wurde im Jahre 1954 getroffen. Dass beide Temperaturskalen, ob in Celsius-Grad oder Kelvin, exakt übereinstimmen wurde 1990 international festgelegt.

Über die Beantwortung der Frage, wie die Molekülgeschwindigkeiten den Gasdruck und wie die Molekülenergien die Temperatur bestimmen und die Gleichung m/2 v2 = 3/2 kT ergibt sich, dass die Temperatur ein Maß für die kinetische Energie der Moleküle ist. Falls man irgendein Molekül lange genug verfolgen könnte, würde man sehen, dass es mal schneller, mal langsamer fliegt, wobei aber das Quadrat der Geschwindigkeit im Mittel gleichbleibt. Wenn sich ein Teekessel in einem Zimmer abkühlt und die Luft erwärmt, kann man später nicht feststellen, warum sich die Luft erwärmt hat. In Gasen herrscht hat „Chaos“. Anders ist es mit elektromagnetischen Feldern. Licht transportiert Informationen von der Fläche! Einen Teekessel oder ein Haus kann man als Foto mit Hilfe einer Infrarotkamera „sehen“. Die Infrarotstrahlung besteht aus gerichteten elektromagnetischen Wellen, die sich nicht im „thermischen Gleichgewicht mit der Luft“ befinden. Sie werden von den Atomen nicht gestreut, „behalten“ darum die Gestalt des Teekessels und können sie übertragen. Die chaotische Molekularbewegung kann keine „Bilder“ übertragen und abbilden!

Der Prozess des Temperaturausgleichs ist irreversibel, unumkehrbar. Er ist immer mit einer Zunahme von Entropie verbunden. Die Entropie wurde von Rudolf Clausius (1822-1888) theoretisch entdeckt. Sie ist eine zur Temperatur zusammenhängende Größe, deren Zunahme, multipliziert mit der Temperatur, die von einem Körper reversibel aufgenommene Wärme-energie bestimmt. Die Gasentropie lässt sich in Tabellen finden, aber es gibt kein Gerät, ähnlich einem Barometer oder Thermometer, das den Entropiewert anzeigt. Konsequenz ist: Es gibt keinen Prozess, dessen einziges Ergebnis die Kühlung eines Körpers und das Verrichten von mechanischer Arbeit wäre. Diffusion, Reibung, Wärmeleitung, Zähigkeit, joulsche Wärme, das sind einige der Hauptmechanismen, die die Entropie erhöhen. Das Prinzip des Entropiezuwachses ist eine Eigenschaft unserer Welt, in der alle makroskopischen Systeme aus unvorstellbar vielen Teilchen (1023 = 100 Trilliarden) bestehen. Die Entropiezunahme definiert die Zeitrichtung, bestimmt den „Zeitpfeil“.

Die Temperatur ist noch viel, sehr viel komplizierter!

Die Wärmelehre entwickelte sich zu einem Teilgebiet der Physik, als klar war, dass die Wärme eine Form von Energie und die Temperatur ein Maß für die Energie der Wärmebewegung ist. Es ist die von Ludwig Boltzmann (1844-1906) entwickelte Boltzmann-Konstante k, die den tiefen Zusammenhang zwischen Mechanik und Wärmelehre als „Energie-Temperatur-Äquivalent“ widerspiegelt. Hat ein Körper die Temperatur T, dann ist kT ein Maß für die mittlere Energie jedes seiner mikroskopischen Freiheitsgrade.

Der ungefähre Wert des Energie-Temperatur-Umrechnungsfaktors ist k ≈ 1,4 • 10-23 J/K. Damit ist bei 1 J ≈ 6,2 • 10^18 eV äquivalent k ≈ 8,5 • 10^-5 eV/K. 1 J entspricht also etwa 0,72 • 10^23 K und 1 eV entspricht etwa 1,2 • 10^4 K. Kurz als Merkregel: 1 eV entspricht etwa 10.000 K! Das bedeutet, dass man die Angabe der Temperatur eines gesunden Menschen als 36,6 °C auch ausdrücken kann mit 309,8 K oder 4,28 • 10^-21 J oder 27 meV. Diese Angaben sind zwar äquivalent und korrekt, aber unüblich und zu abstrakt. Ich denke, wir werden noch lange an den Celsius-Graden festhalten oder in den USA den Fahrenheit-Graden. 36,6 °C entsprechen 97,9 °F!

Eine Temperatur ist ein Maß für die mittlere kinetische Energie der Luftmoleküle, aber was ist eine Mitteltemperatur? Die Temperatur ist eine Qualitätsgröße wohingegen die Wärme eine Quantitätsgröße ist. Je mehr Masse vorhanden ist, desto mehr Wärme kann man speichern. Flüssige Massen kann man vermischen und aus heißem und kaltem Wasser wohl temperiertes Badewasser herstellen. Dies geht auch mit kalter und warmer Luft. Dabei entstehen Tiefdruck-gebiete, in denen dann durch Vermischung ein Temperaturausgleich erzeugt wird.

Aber was passiert, wenn man Temperaturen mittelt? Nichts! Dies ist ein ganz einfacher Rechenvorgang, der nichts bewirkt. Wenn man Temperaturen von London, Berlin, Madrid und Athen mittelt, dann erhält man eine „Mitteltemperatur“, die ein „Spielwert“ darstellt und im Grunde nichts aussagt. Noch viel schlimmer verhält es sich mit der „Weltmitteltemperatur“, gerne „Globaltemperatur“ genannt. Das ist eine fiktive Temperatur ebenso wie das davon abgeleitete „Globalklima“! Mit Mitteltemperaturen kann man nichts anfangen. Dies beginnt bereits bei der Berechnung der Tagesmitteltemperatur, die nicht einmal einheitlich nach den „Mannheimer Stunden“ erfolgt. Die Tagesmitteltemperatur ist eine einfache Rechengröße, kein physikalischer Wert. Wir spüren und fühlen keine Mitteltemperatur, sondern nur den Gang der realen Temperatur.

Deswegen werden in allen Wetterberichten und bei allen Wettervorhersagen immer zwei Temperaturen angegeben, das morgendliche Minimum wie das mittägliche Maximum. Beide Angaben geben ein Gefühl für den Verlauf des Tagesganges der Temperatur. Die „Natur“ richtet sich, wie auch der Mensch bei der Wahl der Bekleidung, immer nach den wirklichen Temperaturen! 

Wenn Sie sich und ihren Freunden etwas Gutes tun wollen, dann gehört auf den Gabentisch das Buch „Propheten im Kampf um den Klimathron – Wie mit Ängsten um Geld und Macht gekämpft wird“. In diesem Sinne Ihnen allen ein fröhliches und gesegnetes Weihnachtsfest und alles Gute im kommenden Jahr!

 Dipl.-Met. Dr. phil. Wolfgang Thüne




Antwort auf Fragen zum 5. Zustandsbericht AR 5

Die Erhebung des Energy and Climate Change Committee bzgl. AR 5

Schriftliche Eingabe von Marcel Crok

Laufbahn und Begründung meines Interesses

Ich bin ein niederländischer, in Amsterdam ansässiger selbständiger Wissenschaftsautor. Seit 2005 habe ich mich auf die Debatte um die globale Erwärmung konzentriert. Als Herausgeber der niederländischen Monatszeitschrift Natuurwetenschap & Techniek (jüngst wurde daraus die holländische Ausgabe des New Scientist) habe ich im Jahr 2005 einen langen und kritischen Artikel über den infamen Hockeyschläger geschrieben, wobei ich mich maßgeblich auf die Kritik von Stephen McIntyre und Ross McKitrick bezogen habe. Vieles in diesem Artikel Beschriebene tauchte in den Klimagate-E-Mails wieder auf.

Im Jahre 2010 habe ich ein kritisches Buch veröffentlicht, das sich mit dem dritten und vierten Zustandsbericht des IPCC (TAR und AR 4) befasste. Das holländische Ministerium für Infrastruktur und Umwelt hat mir dann Mittel zukommen lassen für eine kritische Begutachtung des AR 5 als Experten-Begutachter.

Seit Klimagate bin ich sehr für eine konstruktivere Wechselwirkung zwischen Klimawissenschaftlern mit entgegen gesetzten Ansichten. Ende 2012 hat dieses holländische Ministerium eine internationale Diskussions-Plattform finanziert, nämlich www.ClimateDialog.org, die konstruktive Dialoge zwischen Klimawissenschaftlern mit anderen Standpunkten organisiert. Dies wurde von den führenden holländischen Klimainstituten KNMI und PBL sowie von mir selbst mit Leben erfüllt [1]. Wir decken kontroverse Themen ab und laden Wissenschaftler ein, die eine ganze Bandbreite von Ansichten repräsentieren.

Im Jahre 2013 war ich Ko-Autor meiner ersten wissenschaftlich begutachteten Studie, in der eine europäische Temperaturverschiebung im Jahre 1988 beschrieben wird.

Wie belastbar sind die Ergebnisse im AR 5-Bericht hinsichtlich der physikalischen wissenschaftlichen Grundlagen?

Die Antwort auf diese Frage ist m. E. nicht Gegenstand dieser Erhebung. Allerdings bietet Ihre eigene Introduction eine gute Gelegenheit, sich damit zu befassen. Sie schrieben: „Laut Bericht ist es ‚extrem wahrscheinlich, dass der menschliche Einfluss der dominante Grund für die seit Mitte des 20. Jahrhunderts beobachtete Erwärmung ist‘. Aber die untere Grenze der wahrscheinlichen Klimasensitivität wurde reduziert, und zum ersten Mal wurde auch keine beste Schätzung davon veröffentlicht, weil es dazu keine Übereinstimmung gab“.

Es ist gut, dass Sie auf dieses offensichtliche Paradoxon hingewiesen haben. Der AR 5 selbst konzentrierte sich auf die 95%-Sicherheit, dass die Menschen den Hauptteil (>50%) an der Erwärmung seit 1950 haben. Die meisten Medien machten dies zu einer wichtigen Nachricht über den AR 5 und schrieben ‚wie viel zusätzliche Sicherheit braucht man denn noch, bevor Maßnahmen ergriffen werden?‘.

Allerdings ist diese Interpretation der 95%-Behauptung irreführend. In gewisser Hinsicht ist die 95%-Behauptung des AR 5 (der selbst auch das Ergebnis einer Experten-Beurteilung ist und keine Art mathematischer Berechnung enthält) ein Kinderkram.

Um dies zu verstehen, konzentrieren wir uns auf diesen anderen wichtigen Parameter, die Klimasensitivität. Vor kurzem wurden viele Studien veröffentlicht, in denen die Klimasensitivität aus gemessenen Daten seit 1850 abgeleitet worden ist. Diese Studien legen nahe, dass nahezu die gesamte Erwärmung seit 1850 aufgrund von Treibhausgasen erfolgt ist. Danach kommen diese Studien zu einer besten Schätzung der Klimasensitivität von 1,5 bis 2,0°C, was deutlich unter dem Wert von 3,0°C des IPCC in allen seinen bisherigen Zustandsberichten liegt.

Daher ist die Behauptung, dass mindestens 50% der Erwärmung seit 1950 auf den Menschen zurückzuführen ist, bedeutungslos. Die viel wichtigere Frage lautet, ob der Beitrag der Treibhausgase zur Erwärmung groß oder klein ist. AR 5 hat alle Zutaten für die Einschätzung, dass der Beitrag viel geringer ist, als wir während der letzten drei Jahrzehnte gedacht haben. Indem jedoch kein Wert der besten Schätzung der Klimasensitivität genannt worden ist, fehlt jeder Hintergrund für diese wichtige Nachricht. Also hat das IPCC dabei versagt, den Politikern die wichtigste Schlussfolgerung zu vermitteln. Und das IPCC selbst behandelte diesen wichtigen Vorgang nur in einer Fußnote in der Summary for Policymakers SPM.

Die 95%-Behauptung sagt auch nichts darüber aus, wie ernst die Klimaproblematik ist. Diese 95% können vollständig auch dazu passen, dass es überhaupt kein Klimaproblem gibt. Das IPCC hat dies nicht eindeutig erklärt, und die Journalisten haben nicht nachgefragt.

Fazit: Die 95%-Behauptung des IPCC ist von den meisten Menschen als letzter Beweis dafür, dass wir ein gewaltiges anthropogenes Klimaproblem haben, fehlinterpretiert worden, einschließlich Politiker und Medien. Die Behauptung selbst beweist nichts dergleichen und ist in Wirklichkeit ziemlich bedeutungslos.

Obwohl es widersprüchlich klingt, gibt es aus sich heraus keinen Konflikt zwischen der zunehmenden Gewissheit (die 95%-Behauptung) und keiner Angabe einer besten Schätzung der Klimasensitivität (weniger Sicherheit). Die 95%-Behauptung ist nur sehr konservativ und sagt wenig über den Ernst des Klimathemas.

Hat das IPCC in  geeigneter Weise auf Kritik an den früheren Berichten reagiert?

In dieser Hinsicht gibt es einige ermutigende Fortschritte. Zum Beispiel hat das IPCC im AR 4 noch behauptet, dass Treibhausgase schon jetzt Hurrikane beeinflussen. Dies basierte auf einer sehr verzerrten Auswahl der Literatur. Sowohl im IPCC SREX-Bericht 2011 als auch im AR 5 ist das besser, wurde doch in beiden eingeräumt, dass es (noch) keine Verbindung zwischen allen Arten von Extremwetter (Hurrikane, Überschwemmungen, Dürren) und der zunehmenden Konzentration von Treibhausgasen gibt. [2]

Allerdings gibt es viele andere Bereiche, bei denen das IPCC vollkommen unwillig scheint, auf Kritik einzugehen. Ein notorisches Beispiel hierfür ist der Fall langzeitlicher Persistenz (LTP). Die meisten Menschen werden zustimmen, dass das Wetter in dieser Stunde mit dem Wetter der nächsten Stunde in Beziehung steht. Das Gleiche kann man auch über das Klima sagen. Wenn wir in diesem Jahr in einer Eiszeit stecken, werden wir logischerweise auch das nächste Jahr in einer Eiszeit stecken. Das nennt man Persistenz. LTP wird relevant, wenn man behaupten will, dass der jüngste Anstieg der globalen Temperatur um 0,8°C statistisch signifikant ist. Das ist wichtig für das, was das IPCC ‚Erkenntnis‘ [detection] nennt. Als Erstes muss man eine ‚signifikante‘ Zunahme der globalen Temperatur erkennen, bevor man diesen irgendeinem Grund ‚zuordnen‘ kann.

Um diese Berechnung durchzuführen, muss man überlegen, welches statistische Modell am besten zu den Daten passt. Das IPCC und die gesamte Klimabranche hat aus irgendwelchen Gründen die Ansicht übernommen, dass man Klima-Zeitreihen am besten mit dem sog. AR 1-Modell beschreiben kann. Dieses Modell nimmt an, dass das Klima dieses Jahres das Klima des nächsten, nicht aber des übernächsten Jahres beeinflusst. Dieses AR 1-Modell nennt man auch Kurzfrist-Persistenz. Allerdings gibt es viele Studien, in denen kritisiert wird, dass diese Angelegenheit weder im AR 4 noch jetzt im AR 5 auf befriedigende Weise angesprochen wird.

In meiner Begutachtung des AR 5 schrieb ich:

Es ist lobenswert, dass die Autoren Cohn und Lins 2005 erwähnen [3]. Unglücklicherweise ist dies die einzige Stelle in dem gesamten Bericht, an der diese wichtige Studie erwähnt wird. Hinsichtlich ihrer Ergebnisse schreiben Cohn und Lins: „Hinsichtlich der Temperaturdaten gibt es überwältigende Beweise, dass sich der Planet während des vorigen Jahrhunderts erwärmt hat. Aber könnte diese Erwärmung nicht auch auf eine natürliche Dynamik zurückgehen? Angesichts dessen, was wir über Komplexität, langzeitliche Persistenz und Nichtlinearität des Klimasystems wissen, scheint es so, al sei die Antwort ja … natürliche Klimaveränderungen könnten viel größer sein als wir uns vorstellen“. AR 4 hat dieses Thema nur sehr unzurecihend aufgegriffen, wie McKitrick in seinem Beitrag an das IAC erklärt:

 http://www.rossmckitrick.com/uploads/4/8/0/8/4808045/iac.ross_mckitrick.pdf (Seite 7-9)

Er erwähnt eine (Klimagate-)E-Mail von David Parker an Phil Jones, die für die Behandlung der Studie von Cohn und Lins verantwortlich waren. Parker schrieb: „das vielleicht größte Problem sind die Bemerkungen von Ross McKitrick und David Stephenson zu Trends; wir haben dafür lediglich das AR 1-Modell verwendet, und sie könnten recht haben, wenn sie sagen, dass man ein komplexeres Modell entwickeln sollte. Unsere Software für eine begrenzte Maximum-Wahrscheinlichkeit passt nicht zu ARMA (1,1) [?], und es könnte erforderlich sein, John Kennedy hinzuzuziehen bei der Untersuchung neuer Software. Das könnte sehr viel Arbeit sein, könnte aber erledigt werden nach dem LA3-Treffen, wenn wir dort beschließen, was zu tun ist. Alternativ könnten wir nichtlineare Trends in Betracht ziehen, was wir auch schon getan haben, lediglich Gesamtänderungen des Niveaus aus den geglätteten Kurven. Das würde Platz sparen“. Am Ende haben Parker und Jones wirklich lineare Trends in Kapitel 3 zitiert und behauptet, die Erwärmung sei hoch signifikant. In der zweiten Version des AR 4 schrieb das IPCC: „Die Berechnung der statistischen Signifikanz einer Trendlinie aus geophysikalischen Daten ist schwierig, und viele zu stark vereinfachende Methoden tendieren dazu, die Signifikanz zu hoch anzusetzen. Zheng und Basher (1999), Cohn und Lins (2005) und Andere haben Zeitreihen-Methoden benutzt, um zu zeigen, dass die unzureichende Behandlung der allgegenwärtigen Formen langzeitlicher Persistenz und Autokorrelationen in Trend-Residuen zu irrigen Trends als ein typisches Ergebnis bei der Analyse klimatischer Daten führt“.

Dies ist ein fairer Kommentar zu Cohn und Lins. Allerdings wurde in der zweiten Version dieser Text entfernt und stattdessen in Anhang 3.a.a ein viel strittigerer Text eingeführt: „Nichtsdestotrotz hängen die Ergebnisse vom verwendeten statistischen Modell ab, und komplexere Modelle sind nicht so transparent, und ihnen fehlt oft physikalischer Realismus. Tatsächlich konnten Cohn und Lins nicht zeigen, dass komplexere Modelle besser zu den Daten passen als einfachere Modelle. „Das war komplett eine Ad-Hoc-Bemerkung ohne jeden Bezug zur Literatur. Eine angemessene Behandlung dieses Themas im AR 5 wird dringend gebraucht. Ich denke, dass es in dieser Diskussion auch um die Kapitel 2 und 10 gehen sollte“.

Ross McKitrick sprach auch noch einmal das Thema LTP in seiner AR 5-Begutachtung an. Hat sich der AR 5 mit diesem Thema befasst? Nein. Doug Keenan, ein britischer Mathematiker, der an diesem Thema Interesse bekundet hat, erklärte detailliert, dass LTP im AR 5 nicht angemessen behandelt worden ist [4]. Keenans Forschung hat kürzlich zu zahlreichen parlamentarischen Anfragen von Lord Donoughue geführt [5].

Viele Leute haben also diesen wichtigen Aspekt im Begutachtungsprozess sowohl zum AR 4 als auch zum AR 5 angesprochen. Privat haben Parker und Jones eingeräumt, dass die Kommentare von McKitrick richtig waren. Allerdings hat das IPCC im Endeffekt dieses Thema sowohl im AR 4 als auch im AR 5 mehr oder weniger ignoriert. Es hat noch nicht einmal angefangen, dieses Thema ernst zu nehmen.

Im Mai diesen Jahres 2013 haben wir einen Klimadialog über LTP organisiert und als Teilnehmer Armin Bunde, Demetris Koutsoyiannis and Rasmus Benestad eingeladen [6]. Sowohl Bunde als auch Koutsoyiannis haben viele Studien zu LTP veröffentlicht, und beide sind überzeugt, dass man bei Verwendung eines AR 1-Modells die statistische Signifikanz der 0,8°C viel zu hoch geschätzt ist. Aber genau das macht das IPCC.

Wieviel Spielraum gibt es, die Ergebnisse des Berichtes in Frage zu stellen?

Nicht genug. Im Allgemeinen sind Kritiker des IPCC-Standpunktes (Skeptiker, wenn man so will) am Schreiben der Berichte nicht als kordinierende Leitautoren, Leitautoren oder selbst beitragende Autoren beteiligt worden. Also können sie nur als Experten-Begutachter tätig werden. In der Praxis hat ein Experten-Begutachter nur sehr wenig Einfluss. Man betrachte dazu einfach noch einmal das Beispiel LTP oben. Viele Begutachter haben sowohl zum AR 4 als auch zum AR 5 dieses wichtige Thema angesprochen. Am Ende jedoch wurde dies ignoriert. Das gleiche kann man sagen von dem wichtigen begutachtenden Kommentar von Nic Lewis, der zwei Bandbreiten der Klimasensitivität präsentiert hatte, eine basierend auf den Klimamodellen und die andere basierend auf Messungen.

Kann man irgendeinen Bereich der Wissenschaft nach dem AR 5 als settled betrachten, und wenn ja, welcher?

Unglücklicherweise sind nur sehr wenige Dinge in der Klimadebatte settled. Es gibt nur eine solide Tatsache: Die Treibhausgas-Konzentrationen steigen, und die Menschen sind für diese Zunahme verantwortlich [So? A. d. Übers.]. Eine zweite Tatsache ist, dass das Klima derzeit wärmer ist als vor einem Jahrhundert. Wie viel wärmer ist immer noch Gegenstand von Diskussionen. Und wie viel dieser Erwärmung den Menschen geschuldet ist, ist alles andere als settled.

Spricht der AR 5 die Zuverlässigkeit der Klimamodelle an?

Viele Kapitel behandeln die Zuverlässigkeit der Modelle, und ein Kapitel (9) ganz besonders. Klimamodelle spielen eine erhebliche Rolle in dem Bericht. Alle Zukunfts-Projektionen des Klimas bis zum Jahr 2100 basieren auf diesen Modellen. Deren Zuverlässigkeit ist daher ein Schlüsselaspekt.

Unglücklicherweise lautet die einzige implizite Schlussfolgerung im AR 5, dass die Klimamodelle alles in allem nur in der Hinsicht zuverlässig sind, dass die von ihnen projizierte globale Erwärmung nicht durch Beweise gestützt wird.

Es wird immer klarer, dass die Modelle immer schlechter zu den Messungen passen, selbst wenn man auf die globale Mitteltemperatur schaut. Stephen McIntyre hat in einem Blogbeitrag [7] gezeigt, dass die Modelle im Mittel während der letzten 35 Jahre 50% mehr Erwärmung zeigen als das wirkliche Klima:

Vergleich des modellierten und des gemessenen dekadischen Trends der globalen Temperatur von 1979 bis 2013

Instead of showing this insightful graph IPCC presented this (Figure 1 from Box 9.2):

Die Temperaturtrends sind dargestellt in Grad Celsius pro Dekade. Nahezu alle Modellklimata erwärmten sich viel schneller als das wirkliche Klima während der letzten 35 Jahre. Quelle: http://climateaudit.org/2013/09/24/two-minutes-to-midnight/. Modelle mit multiplen Läufen haben separate Plotkästen; Modelle mit nur einem einzigen Lauf sind zusammen gruppiert im Plotkasten mit der Bezeichnung ‚singleton‘. Der orangene Plotkasten rechts kombiniert alle Modellläufe zusammen. Die rot gepunktete Linie zeigt die tatsächliche Zunahme der globalen Temperatur während des gleichen Zeitraumes wie der HadCRUT4-Datensatz.

Anstatt dieser aufschlussreichen Graphik zeigte das IPCC dies (Abbildung 1 aus Kasten 9.2):

Häufigkeitsverteilung der Trends der globalen Mitteltemperatur aus 114 CMIP5-Modellläufen.

Modellläufe sind graue Balken für die Perioden (a) 1998 bis 2012, (b) 1984 bis 1998, (c) 1951 bis 2012. Der Vergleich zeigt die Unsicherheits-Bandbreite für den gemessenen Trend pro HadCRUT4-Datensatz (rot, schraffiert) während der gleichen Zeiträume. Aus dem AR 5 des IPCC, Box 9.2, Abbildung 1.

Mit dieser Abbildung versucht das IPCC zu zeigen, dass der gegenwärtige Stillstand mehr damit zu tun hat, dass man das warme El Niño-Jahr 1998 als Startzeitpunkt gewählt hat. Paneel (a) zeigt, dass die CMIP5-Modelle den globalen Temperaturtrend nach HadCRUT4 seit 1998 überschätzen. Allerdings kann man in Paneel (b) erkennen, dass die Modelle dazu tendieren, die Beobachtungen im Zeitraum 1984 bis 1998 zu unterschätzen. Daher lautet das Fazit: Falls man auf die kurzen Perioden von 15 Jahren schaut, sind die Modelle manchmal zu warm und manchmal zu kalt. Paneel (c) zeigt dann, dass die Modelle über längere Zeiträume ganz gut liegen, in diesem Falle 60 Jahre. Das ist nicht überraschend, da die Modelle wahrscheinlich getrimmt worden sind, so dass sie zum Anstieg der globalen Temperatur während der historischen Simulations-Periode passen, der sich am stärksten nach 1950 zeigt. Die Diskrepanz zwischen Modellen und Beobachtungen während der letzten 35 Jahr wird bequemerweise nicht gezeigt. Dieser Zeitraum ist lang genug, um für Klima relevant zu sein.

Eine andere bedeutende Diskrepanz zwischen Modellen und Beobachtungen wurde von Nic Lewis in einem anderen Beitrag auf Climate Audit beschrieben [8]. Hier zeigt Lewis, dass die so genannte Transient Climate Response (TCR), ein mehr politisch relevanter Parameter der Klimasensitivität, in den Modellen deutlich höher ist als die auf den gemessenen Beweisen basierende TCR:

Verteilung der Transient Climate Response in CMIP5-Modellen im AR 5, Tabelle 9.5

Die Höhe der Balken zeigt, wie viele Modelle in Tabelle 9.5 jedes TCR-Niveau darstellen.

Und wieder findet sich im AR 5 keine entsprechende Graphik, sondern nur dieses Statement (Kasten 12.2):

Die Bandbreite der TCR, die aus der beobachteten Erwärmung geschätzt wurde, und die TCR-Bandbreite aus den Modellen passen gut zusammen. Das lässt unsere Sicherheit bei der Abschätzung der Unsicherheiten bei den Projektionen für das 21. Jahrhundert zunehmen“.

Wie kann das stimmen, wenn die mittlere Modell-TCR 40% höher ist als eine auf Messungen basierende beste Schätzung von 1,3°C, und wenn die Hälfte aller Modelle TCR-Werte zeigt, die 50% oder mehr zu hoch liegen? Das IPCC hat diese große Diskrepanz hiermit verschleiert ebenso wie mit einem irreführenden Statement im Langbericht.

Die Modelle überschätzen also die Erwärmung des wirklichen Klimas während der letzten 35 Jahre um 50%. Und die gleichen Modelle weisen ECS- und TCR-Werte auf, die deutlich höher liegen als Schätzungen, die auf Messungen basieren. Diese beiden wichtigen Beobachtungen wurden im AR 5 verschwiegen.

Hat der AR 5 ausreichend die Gründe für den weithin bekannten Stillstand der globalen Temperatur erklärt?

Stephen McIntyre hat detailliert in [9] erklärt, dass das IPCC den Stillstand nicht ernst genug genommen hat, bis es für den AR 5-Prozess zu spät war. Im ersten Entwurf haben sie das Thema ignoriert. In der zweiten Version haben sie ganz gut den Stillstand zur Sprache gebracht und gezeigt, dass die Modelle diesen nicht simulieren. In der Endfassung des AR 5 erschien dann eine ganz neue Graphik, die die Unstimmigkeiten zwischen Modellen und Beobachtungen verschleiert. Diese Graphik enthält fast mit Sicherheit einen Fehler [10]. Man beachte, dass diese Graphik in der Endfassnung niemals irgendwelchen Begutachtern vorgelegt worden ist. Wird das IPCC diesen Fehler einräumen und beseitigen?

Stärken oder schwächen die Schlussfolgerungen des Basisberichtes der physikalischen Wissenschaft, ökonomische Auswirkungen eventueller Maßnahmen zur Verhinderung einer gefährlichen Klimaänderung in Kauf zu nehmen?

Der Anlass, Maßnahmen zu ergreifen, wird definitiv geschwächt, obwohl das IPCC dies nirgendwo zugibt. Es gibt jetzt starke Beweise durch Messungen für eine substantiell geringere Klimasensitivität. Dies bedeutet, dass man in Zukunft deutlich weniger Erwärmung haben wird. Inzwischen hat sich auch herausgestellt, dass Extremwetterereignisse (Hurrikane, Überschwemmungen, Dürren) nicht schlimmer geworden sind. Dies wiederum bedeutet, dass man Geld am besten für Anpassungen an Wetterereignisse ausgibt, d. h. man hilft den Regionen, die anfällig für Extremwetter sind, damit sie in Zukunft besser auf das nächste Ereignis vorbereitet sind, dass früher oder später in jedem Falle auftreten wird.

Den Klimawandel abzuschwächen ist weniger dringend, und das bedeutet, dass wir uns als Gesellschaft darauf konzentrieren sollten, neue Technologien zu entwickeln, die die Dekarbonisierung mit niedrigeren Kosten ermöglicht, als sie die derzeit verfügbaren Optionen wie Wind und Solar bieten.

[1] http://www.pbl.nl/en/news/newsitems/2012/pbl-knmi-and-crok-launch-climate-discussion-platform-climatedialogueorg

[2] http://rogerpielkejr.blogspot.nl/2013/10/coverage-of-extreme-events-in-ipcc-ar5.html

[3] Cohn T.A., Lins H.F. (2005), “Nature’s style: naturally trendy”, Geophysical Research Letters, 32, L23402; doi:10.1029/2005GL024476

[4] http://www.informath.org/AR5stat.pdf

[5] http://www.publications.parliament.uk/pa/ld201314/ldhansrd/text/131203w0001.htm#13120366000164

[6] http://www.climatedialogue.org/long-term-persistence-and-trend-significance/

[7] http://climateaudit.org/2013/09/24/two-minutes-to-midnight/

[8] http://climateaudit.org/2013/12/09/does-the-observational-evidence-in-ar5-support-itsthe-cmip5-models-tcr-ranges/

[9] http://climateaudit.org/2013/09/24/two-minutes-to-midnight/ and

http://climateaudit.org/2013/09/30/ipcc-disappears-the-discrepancy/

[10] http://climateaudit.org/2013/09/30/ipcc-disappears-the-discrepancy/

Link: http://www.staatvanhetklimaat.nl/2013/12/13/submission-to-ar5-inquiry/

Übersetzt von Chris Frey EIKE




Der große Biotreibstoff-Skandal

Bild rechts: Eine Palmölplantage in Indonesien: Man schätzt, dass etwa 30 Millionen Menschen hungern als direkte Folge von Biotreibstoffen. Photo: EPA.

Das Thema Biotreibstoffe ist ein perfektes Beispiel für gute Absichten, die zu furchtbaren Ergebnisse führen. Mehr noch, es ist eine Lektion, wie mächtige pseudo-grüne Interessen eine schlechte Politik nachhaltig beeinflussen. Hoffentlich wird es jetzt auch zu einem Beispiel dafür, wie wieder Vernunft in die spaltende Klimadebatte einzieht.

Die Grünen haben Biotreibstoffe anfangs bevorzugt als Waffe gegen die globale Erwärmung, und zwar mit der Behauptung, dass sie viel weniger CO2 emittieren würden als fossile Alternativen. Während die Pflanzen bei ihrem Wachstum CO2 aufnehmen, entweicht bei der Verbrennung genauso viel CO2 wieder in die Luft, was zu Null Gesamtemissionen führt.

Aber der Traum wurde zum Alptraum, als Umweltaktivisten sich dagegen gewandt haben. Selbst Al Gore hat behauptet, dass die Biotreibstoffe ein „Fehler“ seien.

Studien zeigen, dass Land, das zum Anbau von Energiepflanzen genutzt wird, dazu führt, dass Land für Ackerbau anderswo erschlossen wird – oftmals in Wäldern – was zu substantiellen CO2-Emissionen führt. Und die Verarbeitung emittiert ebenfalls CO2, was die Vorteile drastisch reduziert.

In der EU haben auf Ernten basierende Biotreibstoffe etwa 5 Prozent des Treibstoffs im Transportwesen ersetzt. Falls die Biotreibstoffe wirklich emissionsfrei wären, würde das die Emissionen um 5% reduzieren – eine Gesamtmenge von etwa 59 Millionen Tonnen CO2 in jedem Jahr bis 2020.

Aber eine Studie des International Institute for Sustainable Development aus diesem Jahr 2013 zeigt, dass Entwaldung, Düngemittel und fossile Treibstoffe, die bei der Erzeugung von Biotreibstoffen gebraucht werden, etwa 54 Millionen Tonnen CO2 emittieren würden. Volle 92 Prozent des „eingesparten“ CO2 werden einfach anderswo emittiert. Für Biotreibstoffe alleine bedeutet dies im Endeffekt eine Zunahme der Emissionen.

Folglich würden sich die Einsparungen in der EU minimale 5 Millionen Tonnen sein oder etwa ein Zehntel von einem Prozent der europäischen Emissionen insgesamt. Selbst über ein Jahrhundert wären die Auswirkungen dieser Einsparung trivial. Lässt man das in ein Standard-Klimamodell eingehen, wird dieses den globalen Temperaturanstieg bis zum Jahr 2100 um gerade mal 58 Stunden verzögern.

Und die Kosten für die Steuerzahler belaufen sich auf etwa 6 Milliarden Pfund pro Jahr; jede Tonne eingesparten CO2 kostet etwa 1200 Pfund. Das Zertifikate-Handelssystem der EU ergibt geschätzt Kosten von weniger als 4 Pfund für jede vermiedene Tonne. Das heißt, wir zahlen 300 mal zu viel.

Mehr noch, die besten wirtschaftlichen Schätzungen zeigen, dass die Vermeidung von einer Tonne CO2 der Welt Einsparungen hinsichtlich von Umweltschäden von etwa 4 Pfund bringen würde. Für jedes für Biotreibstoffe ausgegebenes Pfund vermeiden wir für einen Viertelpenny Klimaschäden – ein extrem ineffizienter Weg, der Welt zu helfen.

Traurigerweise wird es noch schlimmer werden. Ursprünglich wollte die EU dass volle Zehn-Prozent-Ziel erneuerbarer Energie für das Transportwesen bis zum Jahr 2020 erreichen, eine Verdoppelung der heutigen Zahl. Wenn jetzt jedermann erneut darüber nachdenkt, lautet der Vorschlag, dies auf 7 Prozent zu reduzieren.

Aber das Scheitern des Ministerrates, selbst diese moderate Reduktion einzuführen, hinterlässt uns weiterhin die 10 Prozent, was die Kosten für den Steuerzahler in der EU verdoppeln  könnte auf etwa 13,8 Milliarden Euro pro Jahr. Verwendet man zehn Prozent des Treibstoffes für Transporte, würde dies die EU-Emissionen um winzige 9 Millionen Tonnen reduzieren und zu einer Kostensteigerung pro eingesparter Tonne von 1260 Pfund führen. Die Gesamtauswirkung auf die Temperatur bis zum Jahr 2100 würde lediglich 0,00025°C ausmachen.

Schlimmerweise sind die gewaltigen Kosten und winzigen Vorteile nur ein kleiner Teil dessen, was bei den Biotreibstoffen nicht stimmt. In fast jeder Hinsicht sind sie eine Katastrophe. Die gegenwärtigen EU-Anbauflächen für Biotreibstoff sind größer als Belgien, und eine ähnlich große Fläche wird für die Importe in die EU international benötigt. Der Biotreibstoff-Ackerbau verbraucht so viel Wasser wie die Flüsse Seine und Elbe zusammen mit sich führen.

Außerdem lassen die Landwirte schnell wachsende Bäume wie Pappeln, Weiden und Eukalyptusbäume wachsen. Unglücklicherweise emittieren diese drei eine Chemikalie namens Isopren, ein Luftverschmutzer, der die menschliche Gesundheit beeinträchtigen kann. Einer Studie der Lancaster University zufolge wird bei zunehmendem Ackerbau, um das EU-Ziel der 10 Prozent zu erreichen, die Luftverschmutzung zunehmen, was zu zusätzlich 1400 Todesopfern und Kosten in Höhe von 5,2 Milliarden jährlich führt.

Aber am wichtigsten ist der moralische Aspekt. Die Tatsache, dass man Land verbraucht, um Treibstoff anstatt Nahrungsmittel zu erzeugen, ist eine Scheußlichkeit in einer Welt, in der immer noch fast eine Milliarde Menschen hungern. Man schätzt, dass europäische Biotreibstoffe inzwischen ausreichend Landfläche verbrauchen, um 100 Millionen Menschen zu ernähren, und das Programm der USA verbraucht sogar noch mehr Land.

Obwohl Biotreibstoffe nicht der einzige Grund für steigende Nahrungsmittelpreise während der vergangenen Jahre waren, waren sie es zumindest zum größten Teil. Es ist für arme Leute schwierig, Nahrungsmittel zu kaufen, wenn westliche Gutmenschen die Preise mit stark subventionierten Biotreibstoffen in die Höhe treiben. Und wenn wir den Zug der Biotreibstoffe nicht anhalten, werden Modellrechnungen zufolge bis zum Jahr 2020 weitere 40 bis 135 Millionen Menschen hungern.

Warum gibt es immer noch Biotreibstoffe? Die einfache Antwort lautet: Big Green. Zehnermilliarden Pfund an Subventionen und Steuervorteilen kaufen eine furchtbare Menge begehrlicher Interessen. Al Gore sagte: „Es ist sehr schwierig, wenn ein solches Programm erst einmal eingeführt worden ist, mit den Lobbygruppen umzugehen, die dieses Programm am laufen halten“. Er räumt ein, dass sein Antreiben für zunehmenden Gebrauch von Biotreibstoffen hauptsächlich den Farmern in seinem Heimatstaat geschuldet war, denen dies sehr geholfen hat. Für einen Präsidentschaftsbewerber ist das unabdingbar.

Die Kosten der globalen Klimapolitik belaufen sich auf etwa 1 Milliarde Dollar jeden Tag. Windturbinen kosten zehnmal soviel wie die geschätzten Vorteile hinsichtlich Emissions-Reduktionen einbringen, und Solarpaneele kosten fast 100 mal so viel. Und doch gibt es mit den Ausgaben für diese Technologien in Höhe von 136 Milliarden Pfund pro Jahr viele Interessengruppen, die die Quelle weiter sprudeln lassen.

Aber Opposition gegen das zügellose Ausufern der Biotreibstoffe zeigt auch den Weg zu einer rationaleren Klimapolitik. Falls wir die weitere Ausbreitung von Biotreibstoffen verhindern können, können wir Menschenleben retten, Geld sparen und damit anfangen, bessere Wege der Abhilfe zu finden. Dieser könnte darin bestehen, die Landwirtschaft produktiver zu machen, so dass mehr Menschen preiswert ernährt werden können, während der Raum für wild lebende Spezies wieder wächst.

Für jetzt bleibt nur, nach einem Stopp der unmoralischen Biotreibstoff-Verrücktheit zu rufen. Nicht nur durch das zahme Reduzieren von Zielen, sondern durch das komplette Einstellen der Produktion dieser Treibstoffe.

Bjørn Lomborg ist Direktor des Copenhagen Consensus Centre. Sein neues Buch trägt den Titel ‚How Much Have Global Problems Cost the World? A Scorecard from 1900 to 2050’

Link: http://www.telegraph.co.uk/earth/energy/biofuels/10520736/The-great-biofuels-scandal.html

Übersetzt von Chris Frey EIKE