Es gibt keine „mittlere globale Temperatur“
Die uns umgebende Luft wird nicht von oben, von der Sonnenstrahlung erwärmt, sondern von unten, vom Boden aus. Denn diesen erreicht das Sonnenlicht fast ungehindert, um in Teilen absorbiert und als infrarote Wärmestrahlung wieder emittiert zu werden. Was man „Erderwärmung“ nennt, ist also lokal, je nach Beschaffenheit der Oberfläche, völlig unterschiedlich. Die Kugelgestalt der Erde, als deren Folge die einfallende Energiedichte pro Fläche in hohen Breiten im Mittel deutlich geringer als in äquatorialen Regionen ist, trägt das ihrige dazu bei. Zwei beliebige Thermometer an verschiedenen Orten auf diesem Planeten bzw. die sie umgebenden Luftreservoirs stehen daher nicht im thermischen Gleichgewicht miteinander (denn sie sind einem ständig differierenden Wärmezustrom ausgesetzt). Die Angabe eines mittleren Temperaturwertes zwischen diesen beiden Reservoirs ist also physikalisch sinnlos, sie entspricht keinem in der Realität feststellbaren Aspekt. Man kann es aber auch einfacher erläutern, angepaßt an die Möglichkeiten der Laien in der Politik und in den Medien.
Man betrachte zwei Menschen. Der eine habe eine Masse von 70 kg, der andere eine von 90 kg. Offensichtlich wiegen beide zusammen 160 kg. Eine Waage, auf die sich beide gleichzeitig stellen, würde das jedenfalls anzeigen. Und dieser Waage ist es nun gleich, ob sich diese beiden, oder zwei andere Personen mit jeweils einem Gewicht von 80 kg auf ihr tummeln. Es ist also sinnvoll, in diesem Beispiel von einer mittleren Masse von 80 kg zu sprechen. Nun habe der eine mit einer Körpertemperatur von 34° eine Unterkühlung. Der andere wiederum habe Fieber mit 40°. Haben beide zusammen eine Temperatur von 74°? Und welches Meßgerät könnte diesen Wert wiedergeben, welchen Effekt hätte dieser Wert also in der Realität? Wäre es zweitens nützlich, den Durchschnitt zu bilden? Sind ein Mensch mit einer Unterkühlung und einer mit Fieber äquivalent zu zwei anderen Menschen, die jeweils eine Körpertemperatur von 37° aufweisen und keiner Behandlung bedürfen?
Zwei Orte auf diesem Planeten mit Temperaturen von 10° und 20° entsprechen eben in ihrer Addition nicht einem Ort, an dem es kuschelige 30° hat. Und man kann sie auch nicht mit zwei anderen Orten mit jeweils 15° gleichsetzen. Aber genau dieser Unfug geschieht, wenn Klimaforscher Kurven der globalen Mittelwerte absoluter Temperaturen oder Temperaturanomalien berechnen. Natürlich, das mathematische Schema zur Berechnung eines Mittelwertes existiert. Ob seine Anwendung aber auch ein sinnvolles Resultat liefert, entscheidet die Physik, und nicht die Mathematik.
Und die Physik spricht hier ein klares Urteil: Die Temperatur ist eine innere Zustandsvariable eines Systems und sie darf nicht räumlich über mehrere getrennte Systeme hinweg gemittelt werden, die miteinander nicht im thermischen Gleichgewicht stehen. Es existiert daher weder ein globaler Mittelwert der Temperatur in bodennahen Schichten, noch ein solcher der Temperaturanomalie. Daß man ihn berechnen kann, ändert nichts an seiner Irrelevanz.
Es gibt kein qualitätsgesichertes und valides Meßverfahren
Aber seien wir gnädig und nehmen an, „globale Mittelwerte“ könnten zumindest ein valider Index für reale Vorgänge sein. Sie könnten es sein, gäbe es denn ein qualitätsgesichertes und standardisiertes Verfahren für die zugrundeliegenden Meßwerte. Und genau dieses existiert nicht. Vielmehr verfügt man über ein ungleich über die Landoberfläche verteiltes Sammelsurium von Thermometern unterschiedlichster Bauart. Die noch dazu von irgendwelchen Personen irgendwann und irgendwie abgelesen werden, ganz nach persönlicher Befindlichkeit. Gut, auf dem Land sind diese „Ableser“ in der Regel Meteorologen, von denen man Gewissenhaftigkeit und Seriosität bei der Erledigung ihrer Arbeit erwarten kann. Aber gemeinhin wurden ein Ortswechsel der Station selbst (und sei es nur um wenige hundert Meter wegen eines Bauvorhabens), eine Änderung der Instrumentierung, eine Änderung der Bodenbeschaffenheit und der Umfeldbebauung nicht ausreichend (wenn überhaupt) dokumentiert. Und die Bestimmung von Temperaturen auf den Meeren, die immerhin 2/3 der Erdoberfläche ausmachen, oblag und obliegt immer noch in großen Teilen meteorologischen Laien auf allerlei Schiffen und Booten, die mehr oder weniger zufallsgesteuert herumfahren und dabei kaum die gesamte Fläche der Ozeane gleichmäßig in Raum und Zeit erfassen. Natürlich, heute kann man Bojen verwenden, Satelliten und gar eine Roboterflotte, die im Meer treibt. Aber entscheidend zur Interpretation der Messungen sind nicht aktuelle Wert der vergangenen Jahre. Sondern die lange Zeitreihe der vergangenen 100-150 Jahre. Denn nur diese gestattet die Ableitung statistisch signifikanter Trends. Und die Ungenauigkeiten, denen man sich in der Vergangenheit schuldig gemacht hat, sind rückwirkend nicht mehr korrigierbar.
Obwohl genau dies versucht wird. All die vielen schönen Kurven stellen ja nicht wirklich gemessene Werte dar. Sondern Temperaturen, von denen die Forscher glauben, daß sie mit einem perfekten Netzwerk perfekter Stationen bei ordnungsgemäßer Ablesung gemessen worden wären. Die realen Werte gehen dazu in ein Computermodell ein, mit dem die verschiedenen Korrekturen angebracht werden. Nun wissen wir spätestens seit den Arbeiten von Anthony Watts, wie gering die Qualität der Messungen tatsächlich ist. Und wir wissen spätestens seit Climategate, wie wenig Sorgfalt auf die Rechenmodelle verwendet wurde. Nicht nur die Vernichtung von Rohdaten, auch die schlechte Programmierung und Dokumentierung der Analysesoftware, von der heute keiner mehr weiß, was sie eigentlich genau treibt, sind bemerkenswert.
Wir leben in einer Zeit, in der in industriellen Maßstäben Qualitätssicherung auf einem hohen Standard etabliert wurde.  Es gibt ein strukturiertes Umfeld von Zertifizierung, Validierung und Normung, in der jedes Produkt eine Vielzahl exakt dokumentierter und von Prüfbehörden ständig überwachter Tests und Messungen über sich ergehen lassen muß. Und in dieser Zeit glauben Politiker weitreichende Entscheidungen auf der Basis von Werten treffen zu können, die keinen solchen Standards unterliegen? Die in keiner Weise qualitätsgesichert und von unabhängigen Dritten überprüfbar sind?
Es gibt keine wissenschaftliche Grundlage
Wie ist eigentlich dieses strategische Ziel der Klimapolitik unter diesen Voraussetzungen zustande gekommen? Spätestens seit den offenen Worten Herrn Schellnhubers im Spiegel weiß man es ganz genau. Die “zwei Grad” beruhen nicht auf wissenschaftlichen Arbeiten, die bei einer Überschreitung dieser Grenze Katastrophen vorhersagen. Faktisch ist heute unklar, was die globale Erwärmung mit sich bringt. Denn auch die extremsten Wetterereignisse sind letztendlich Vorgänge auf lokaler Ebene und diese entziehen sich bislang den Möglichkeiten der Klimamodellierer und der Rechenkraft ihrer Supercomputer. Wenn aber Mikroklimata auf regionalen und lokalen Skalen nicht simuliert werden können, dann gibt es keine Rechtfertigung, von erheblichen, durch menschliches Verhalten minimierbaren Risiken auszugehen.
Nein, Schellnhuber und seine Kollegen haben es sich ausgedacht. Weil die Politik eine griffige Formel haben wollte, eine einfach kommunizierbare Zahl. Und so haben sich die Wissenschaftler einer simplen Schätzung bedient. Zu Zeiten der menschlichen Zivilisation, so ihre auf ebenfalls nicht qualitätsgesicherten Erkenntnissen basierende Annahme, habe sich die „mittlere globale Temperatur“ nie um mehr als 2 Grad nach oben bewegt. Allein diese verdrehte Logik schon ist es, die der Faustformel von den 2 Grad den Boden unter den Füßen wegzieht. Denn erstens hat sich die Menschheit aus einer Eiszeit erhoben und somit schon Temperaturdifferenzen weit größeren Ausmaßes überstanden. Und zweitens räumt Schellnhuber indirekt ein, auch durch natürliche Variabilitäten des Klimas könnte die gedachte Grenze erreicht werden. Und wer will heute behaupten, vom Menschen nicht beeinflußbare Klimaschwankungen könnten es nicht auch noch wärmer gestalten?
Zusammenfassend hat die deutsche Klimapolitik auf internationaler Ebene versucht eine strategische Vorgabe zu etablieren, die

  • physikalisch aussagelos ist,
  • nicht qualitätsgesichert ist und damit nicht valide überprüft werden kann,
  • nicht auf wissenschaftlichen Erkenntnissen, sondern auf wilden Spekulationen beruht.

Und dieses „Zwei Grad Ziel“ ist ausgerechnet dem Land der Dichter und Denker entsprungen, mit einer Physikerin als Regierungschefin. Es wird wirklich Zeit, diese Peinlichkeit zu beenden.
Eine ausführlichere Darstellung dieser Thematik meinerseits finden Sie in Novo Argumente, Ausgabe 103, 11/12-2009. Der dortige Artikel (“Diagnose Klimafieber”) wurde noch vor Climategate geschrieben und durch dieses nachträglich mehr als bestätigt.
Autor: Peter Heller, Science Sceptical, zuerst erschienen ebendort

ÄHNLICHE BEITRÄGE (BETA):