Der Wärmeinseleffekt als maßgeblicher Treiber der gemessenen Temperaturen

Bezugnehmend auf unseren Artikel, sah sich der DWD gezwungen, EIKE eine Gegendarstellung zukommen zu lassen, die wir beantworteten und darin belegen konnten, dass unsere Artikel nichts an Richtigkeit und damit Brisanz verloren hatten. Einer wissenschaftlichen Diskussion stellte sich der DWD indes nicht. In der jüngst erschienenen Arbeiten von Anthony Watts über die Wirkung dieses Effektes in der er  belegen konnte, dass auch in den USA die ausgewiesene Erwärmung doppelt so hoch angegeben wird, als wie in der Realität gemessen und damit nicht nur – wie wir damals zeigten- in Deutschland. Dieser Beitrag wird nun zeigen, dass der der Studie von Watts et al vorschnell entgegen gehaltene Argument, sie hätte den sog. TOBs (Time of Observation Errors) nicht berücksichtig, abwegig ist und am Ergebnis nichts ändern würde, wenn es so wäre.

Trotz der immer bescheideneren Sommer, der immer kälteren Winter, wird uns von Seiten diverser Institute und meteorologischer Behörden erzählt, die Temperaturen würden immer weiter ansteigen. Wir möchten diesen Behörden nicht vorhalten, sie würden falsche Zahlenwerte verbreiten, aber was werden dort für Temperaturen gemessen, die als Vergleich mit früheren Messwerten herangezogen werden? Sind sie geeignet, um Aussagen über eine vermeintliche Erwärmung und vor allem, deren Höhte, treffen zu können? Einer von uns (Leistenschneider) hat eine eigene Methodik entwickelt, mit der der WI aus einer vorhandenen Messreihe herausgerechnet werden kann. Ähnliche Verfahren werden zwar auch von anderen Autoren benutzt. (A. Watts, Tom Karl (1), Frank Lansner etc.).

Abbildung 1, (Quelle hier ) zeigt einen Querschnitt durch Regionen in den USA, die Lansner untersuchte. Er weist zu Recht darauf hin, das die Stationslage in Bezug auf ihre Umgebung (z.B. Küste, Küstennah; Gebirge, Ebene) einen wesentlichen Einfluss auf die gemessene Temperatur hat. Wobei es nicht ausreicht, wenn nur „UHI-freie“ Stationen mit „UHI Behafteten“ im Umkreis zur Homogenisierung verglichen werden. Dadurch entstehen nur neue Fehler.

Die von uns verwendete Methodik vergleicht dazu jedoch auf eine andere Weise eine Referenzstation mit der zu untersuchenden Messreihe. Die Theorie für diese Methodik basiert auf zwei fundamentalen Gesetzen der Physik:

  • • Dem Strahlungsgesetz nach Planck und dem
  • • Abkühlungsgesetz nach Newton

Das Strahlungsgesetz nach Planck gesagt, dass ein Körper umso mehr Energie pro Zeit abstrahlt, umso wärmer er ist. Das Abkühlungsgesetz nach Newton gibt an, dass eine Masse, umso mehr Energie pro Zeiteinheit verliert (kälter wird), je wärmer er ist. Dies heißt in der Praxis nichts anderes, dass mehr Energie notwendig ist, einen 300 Kelvin warmen Körper um 10 Kelvin zu erhöhen, als einen 250 Kelvin warmen Körper um den gleichen Betrag. In einer Erwärmungsphase muss es also zu einer Angleichung zwischen einer wärmeren und einer kälteren Station kommen. Mit seiner Aussage, dass sich arktische Gebiete schneller erwärmen würden als wärmere, sagt das IPCC im Prinzip nichts anderes, wenn auch die dort genannten Erwärmungswerte von 3 Kelvin und mehr, auf einer falschen Datenlage beruhen, da z.B. das GISS im betroffenen arktischen Gebiet gar keine Messstation hat (WUWT und EIKE berichteten ausführlich darüber).

Für ein Betrachtungsland (z.B.: Deutschland) ist die von der Sonne zur Verfügung gestellte Energie und für die Referenzstation gleich, sowie der CO2-Backgroundlevel (für die Anhänger des AGW). Als Referenzstation, ohne nennenswerten*2) WI, haben die Autoren die meteorologische Station auf dem Hohen Peißenberg (HPB) gewählt, die nach eigenen Angaben des DWD als Referenzstation gilt und von der seit dem Ende des 18. Jahrhunderts verlässliche Temperaturdaten vorliegen (Abbildung 2).

Abbildung 2 * zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Darin spiegelt sich der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, der in 2003, als Europa unter einem Hitzesommer3 litt, sein Maximum hatte. Seitdem fällt die solare Aktivität. Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken) dort die stärkste Periode ergibt. Dr. Axel Mörner2 hat in seiner Arbeit “Keine Gefahr eines globalen Meeresspiegelanstiegs“ transparent gezeigt, wie der Hauptsonnenzyklus die arktische Meereisbedeckung bestimmt (Abbildung 3).

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 3, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Weiter zeigt die NASA, dass die Sonne zum ausgehenden 20. Jahrhundert immer aktiver wurde.

Abbildung 4 links (Quelle: hier ) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (Leistenschneider ging in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ in 08/11 ausführlich darauf ein). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Aufgrund seiner natürlichen Schwingung, die dem Hauptsonnenzyklus entspricht, gehen wir davon aus, dass HPB weitgehend WI-frei* ist und damit grundsätzlich als Referenzstation geeignet ist. Zur Berechnung des WI werden beide Datenreihen (Deutschland und HPB) in Relation zueinander gesetzt.

Abbildung 5 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt, dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen. Drei Bereiche sind erkennbar, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln. Nach Planck und Newton muss die Annäherung beider Stationen in einer Erwärmungsphase gleichmäßig verlaufen. D.h., die gemessenen Streuwerte der Temperatur müssten sich statistisch gleichmäßig um die Ausgleichsgerade verteilen (kleine Abbildung, idealisiert dargestellt). Das tun sie aber nicht, wie der tatsächliche Verlauf zeigt. In drei Bereichen verlaufen sie waagerecht, d.h., zusätzliche Energie ist notwendig, um die Angleichung zu verhindern. Diese kann nur vom WI kommen, da die Sonne für beide gleichermaßen strahlt.

In der Relationskurve (Abbildung 5) ist demnach der WI „verborgen“. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-Deutschland-Daten relativ weniger steigen und in der statistischen Verteilung der Temperaturstreuwerte (farbige Bereiche). Die durch den WI höheren Temperaturen, dämpfen den Erwärmungstrend, bzw. erzwingen eine andere Verteilung. Um den WI in den zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wird folgendermaßen vorgegangen:

  • • Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009). Ergibt 6 Mittelwerte.
  • • Differenzbetrachtung der Mittelwerte von Epoche Xn+1 zu Xn. Getrennt für HPB und D (ergibt 4 Differenzmittelwerte, da Epoche 0 – vor 1881 – nicht bekannt ist, bzw. nicht in die Bewertung einfloss, da diese Werte nach dem DWD, für Deutschland zu ungenau sind).
  • • Betrachtung der jeweiligen Epochendifferenzwerte zueinander, d.h. Wert für D2 (2 steht für Epoche 2) wird mit Wert HPB2 verglichen und die Differenz bestimmt.
  • • Mit dieser Differenz wird der jeweilige WI im 2. und 3. Zeitraum berechnet.
  • • WI im 1. Zeitraum wurde mit 0,2°C konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschafts-veränderung, …
  • • WI HPB von 1881 – 2009 mit 0,2°C anhand der Bebauungsveränderungen abgeschätzt.

Dass auch HPB nicht WI-los sein kann, liegt daran, dass die Messstation bis 1940 im dortigen Kloster untergebracht war und anschließend in die meteorologische Station verlegt wurde. Im Kloster war nur ein Raum, nämlich der Gemeinschaftsraum, beheizt, in der jetzigen Station aber alle Gebäude die zum Komplex gehören. Der damalige Leiter hatte gefordert, in der Übergangszeit Parallelmessungen durchzuführen, was jedoch nicht geschah. Die alte Wetterstation wurde dann den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das seinerseits ständig erweitert und beheizt wurde. Heute stehen dort umfangreiche Gebäudekomplexe. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos.

Daraus folgt zwingend: Bis 1940 hatte der HPB keinen WI. Dann hat er einen geringen, wegen zunehmender Bebauung entwickelt. Wie eingangs geschildert, ist die Station nicht (mehr) vollständig WI-frei, wie sie allgemein in der Literatur und vom DWD dargestellt wird. Für die drei Zeiträume ergibt sich für Deutschland ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = +0,2°C

Zeitraum 2: 1953 – 1982 = +0,3°C

Zeitraum 3: 1983 – 2009 = +0,6°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI-Deutschland über alle drei betrachteten Zeiträume von 1881 – 2009 = +1,1°C.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb). Der Fehlertoleranzbereich trägt folgenden Punkten Rechnung:

Der WI-Wert der 1. Epoche musste abgeschätzt werden, da die davor liegende Vergleichsperiode zur Berechnung nicht zur Verfügung steht. Dabei wurde konservativ vorgegangen und der WI mit +0,2°C nach folgenden Kriterien festgelegt:

  • • Große ländliche Gebiete fielen 1945 im Osten weg.
  • • Die um die Jahrhundertwende beginnende Industriealisierung Deutschlands, die besonders in den 1930-Jahren forciert wurde.
  • • Die Umwandlung großer Naturflächen in Agrargebiete, mit der damit verbundenen Entwässerung der Landschaft – Verdunstungswärme, die kühlend wirkt, entfiel.

Sowie, dass HPB durch die Bebauungsmaßnahmen nicht mehr vollständig WI-los ist.

Unsere Untersuchung zeigt, dass mehr als die Hälfte der ausgewiesenen, gemessenen Erwärmung, auf den WI entfällt und von den +1,9°C, die der DWD für den Betrachtungszeitraum4 angibt, nur +0,8°C tatsächliche Erwärmung übrig bleiben. Somit exakt dieselben Werte, die auch Anthony Watts in seiner jüngst erschienenen Arbeit veröffentlichte. Der Vergleich unseres Ergebnisses mit der breitengradabhängigen Erwärmung für den 49-Breitengrad (geographisches Mittel für Deutschland) erhärtet unser Ergebnis.

TOB Time of Observation Error (Bias)

Was hat nun unsere Arbeit als Beleg für die Untersuchung von Anthony Watts zu tun? Sehr viel, da ihm vorgehalten wird, er hätte den TOB (Time of Observation Error) nicht berücksichtigt. Der ist jedoch nur relevant bei Mittelwerten, die aus Min/Max-Werten, wie in den USA gebildet werden, nicht aber bei Mittelwerten aus täglichen Mehrfachmessungen zu festen Zeiten, wie sie von Anfang an in Deutschland zur Anwendung kommen. Bis zum April 2001 wurden in Deutschland nach dem Mannheimer Verfahren die Mittelwerte gebildet. Gemessen wurde um 7:00, 14:00 und 21:00 Uhr, wobei der letzte Wert doppelt gezählt wurde. Seit April 2001 wurde stündlich gemessen (allein diese Umstellung brachte auf Grund der Asymmetrie des Temperaturtagesgangs eine scheinbare Temperaturerhöhung von +0,1°C, wie Leistenschneider anhand der Station Berlin-Dahlem nachweisen konnte) und seit 2009 sogar halbstündlich. Dennoch zeigt unsere Untersuchung, die exakt gleichen Relations wie Anthony Watts – d.h. die gemessenen Temperaturen liegen gut doppelt so hoch, wie die tatsächlichen Vergleichstemperaturen. Der Grund dafür braucht nicht lange gesucht zu werden. Er liegt in der Konzentration der ausgesuchten Messstationen in Städten und auf Flughäfen. So liegen mehr als 52% aller GHCN-Messstationen auf Flughäfen. Was es damit auf sich hat, zeigte bereits vor mehr als 2 Jahren WUWT (Abbildung 6).

 

Abbildung 7 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld. Dass dies kein Einzelfall ist, konnten die Autoren in ihrem Beitrag (hier) belegen, wie z.B. Abbildung 7 zeigt.

 

Abbildung 8, Quelle: (hier) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen von Rom, wie von A. Watts gezeigt.

 

Abbildung 9 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil).

Die Messstation liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden geringen Luftbewegungen (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 16%), bleibt ein Anteil an eingebrachten Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme über das Flughafenareal (Raumvolumen), ergibt sich ein WI von +0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

Eine Überschlagsrechnung ergibt :

Flugplatzfläche = 5 qkm = 5 .106 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1.000 kg/s . 100 s = 105 kg = 105 m3 Luft auf 600 °C.

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

(108 – 105) . 20 + 105 . 600 = 108  . T,  woraus T = 20,6 °C folgt.

Die  Verteilung der heißen Abgasstrahlen ist jedoch nicht homogen, sondern die Messstationen liegen, wie an Rom und Frankfurt gezeigt, in unmittelbarer Richtung der heißen Abgasstrahlen und es ist nicht so, dass diese nur im Moment der Beaufschlagung wirken, sondern noch Stunden nach dem Start, die Temperaturen erhöht halten. Aufklärungssatelliten der USA machen sich diesen Effekt zu Nutze und können noch Stunden, nachdem ein Jetflugzeug auf einer Rollbahn startete/landete, dies anhand der Erwärmung nachweisen.

In erster Linie werden die heißen Abgasstrahlen durch den sog. Wirbelschleppeneffekt über das ganze Flughafenareal verteilt, ganz gleich, wo die Messstation sich befindet.

Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören, wodurch ein Strömungsabriss entstehen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, gelten die folgenden Bestimmungen:

  • • A380 gefolgt von Flugzeug der Gewichtsklasse „schwer“ = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „mittel“ = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „leicht“ = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

 

Abbildung 10 links, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Abbildung rechts zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Die Autoren konnten zeigen, dass die gemessenen Temperaturen am Flughafen Frankfurt um +2,5°C zu hoch waren. Der WI für den Flughafen Frankfurt demnach bei +2,5°C liegt. Für den Flughafen London Heathrow scheint der WI ebenfalls in dieser Größenordnung zu liegen. Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9°C. Laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) lag die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Anzumerken ist noch, dass Flughafenstationen als ländliche Stationen gelten und somit bei einer üblichen WI-Betrachtung gar nicht berücksichtigt werden.

Fazit

Somit festzustellen, dass die Temperaturmessstationen auf Flughäfen für die Aufzeichnung von Temperaturzeitreihen oder sonstiger Vergleichsaussagen gänzlich ungeeignet sind. Anhand der dortigen Daten lässt sich nur herausfinden, dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. Wird der Tatsache Rechnung getragen, dass sich ca. 52% aller GHCN-Temperaturstationen auf Flughäfen befinden, so zeigt dies, dass die ausgewiesene Erwärmung auf dem WI beruht oder, überspitzt formuliert, auf dem steigenden Flugaufkommen.

Die Arbeiten von Anthony Watts, ebenso wie unsere zeigen, dass der Hauptanteil der ausgewiesenen, gemessenen Erwärmung in der Tat auf menschliche Ursachen zurück zu führen sind, jedoch nicht auf Treibhausgase, wie dem CO2, sondern auf dem WI, der somit als Haupttreiber der gemessenen Temperaturen gilt. Zu beiden Seiten des Atlantiks schlägt der WI mit gleichen Werten zu Buche. Hinzu kommt, dass zunehmend die Solarforscher die Klima-Debatte dominieren, weil sie sowohl die langfristigen wie auch die kurzfristige Klimaschwankungen vollständig erklären können, was Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigte. Für „CO2+Co.“ bleibt nichts mehr übrig.

In Anbetracht der Tatsache, dass mit der vermeintlichen Erwärmung immer noch Politik betrieben und ganze Volkswirtschaften einer verfehlten Energie- und Umweltpolitik ausgesetzt sind, ist es an der Zeit, dass sich Behörden wie der DWD einer wissenschaftlichen Diskussion stellen und die Politik endlich den Tatsachen Rechnung trägt, dass es nicht mehr wärmer, sondern kälter wird und Klimawandel keine Ausnahmeerscheinung unserer Tage ist, sondern ein stetiger und natürlicher Vorgang.

*) Eine 100%-WI-freie Station für die letzten 130 Jahre konnten wir in Deutschland nicht finden, da insbesondere, die in Städten oder stadtnahen Gebieten befindlichen Stationen, die einen kontinuierlich langen Messzeitraum abbilden, wesentlich WI-behaftet sind. Auf Grund dessen haben wir unser Ergebnis (Abbildung 6) mit einem Fehlertoleranzbereich versehen, der diesem Punkt, dass HPB nicht zu 100% WI-los ist, Rechnung trägt.

Literaturverzeichnis (falls nicht im Text bereits erwähnt)

1 Karl, T.R., C.N. Williams, Jr., F.T. Quinlan, and T.A. Boden, 1990: United States Historical Climatology Network (HCN) Serial Temperature and Precipitation Data, Environmental Science Division, Publication No. 3404, Carbon Dioxide Information and Analysis Center, Oak Ridge National Laboratory, Oak Ridge, TN, 389 pp.

2 Dr. Niels Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“, http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf  Original: Quaternary Studies, Journal der Portugiesischen Vereinigung für Quartär-Forschung (APEQ), Nr. 5, 2007,

3 Met Office Hadley Centre, ”Climate change and the greenhouse effect” Dezember 2005, Seite 30

4 DWD, Lufttemperatur (Jahresmittelwerte) Deutschland 1891 – 2009

Raimund Leistenschneider – EIKE ; Josef Kowatsch – Hüttlingen




Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen

Der WI lässt sich dabei in einen aktiven und einen passiven Teil aufteilen. Der aktive Teil ist der durch Zivilisationseinflüsse zusätzlich eingebrachte Energieeintrag in einen Raum. So ist allseits bekannt, dass es in der Stadt wärmer ist, als auf dem Land. Dies liegt zum einen an zusätzlich ausgebrachter Wärme durch Heizungen und Verkehr (aktiv) und/oder durch Bebauung (passiv). Dieser passive Teil ist jedoch nicht nur bei Temperaturmessstationen in der Stadt, sondern vor allem auch auf dem Land zu berücksichtigen, da durch die Kultivierung der Landschaft, sich Deutschland in den letzten 100 Jahren in der Fläche mehr änderte, als dies durch die Städtisierung erfolgte. Durch die Umwandlung von Waldgebieten (1 Quadratkilometer Buchenwald verdunstet z.B. jeden Tag 2 Millionen Liter Wasser) und Feuchtgebieten, sinkt die Verdunstungsrate dramatisch, was, da Verdunstung immer mit einer Kühlung einhergeht (auf diesem Prinzip funktioniert eine Klimaanlage), die Temperatur künstlich in die Höhe treibt. Auch ist durch die Abholzung von Waldgebieten, der Sonnenschirm sozusagen weg und die Sonnenstrahlen können nun direkt bis zum Boden gelangen und diesen großflächig aufwärmen. Von Regenwaldgebieten ist der Temperaturunterschied von Vorher zu Nachher bekannt und beträgt +16°C!
Der Wärmeinseleffekt ist also keine konstante Größe einer Station, sondern er ist, wie aus den obigen Schilderungen leicht verständlich, eine dynamische, mit der Veränderung des Raums (und der Zivilisationseinflüsse), sich mit ändernde Größe.
So ist es beim Wärmeinseleffekt  gar nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden müssen, die Stadt kommt vielmehr zur Messstation durch die ständige Ausuferung der Bebauung. Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 107 ha pro Tag.  In Baden-Württemberg beispielsweise im Jahr 2009 allein 7 ha pro Tag. Bei jedem neuen Bauwerk ist die Natur der Verlierer. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden.

Abbildung 1: Temperaturgang für Deutschland, Datenquelle: DWD. Bei einem Vergleich über die letzten 12 Jahre macht sich der Wärmeinseleffekt noch kaum bemerkbar. Man kann die Temperaturen direkt vergleichen. Das ist nicht möglich, wenn man größere Zeiträume vergleicht.
Völlig unberücksichtigt blieb bislang in der wissenschaftlichen Betrachtung zum WI die bereits erwähnte enorme Trockenlegung der freien Landschaft in den letzen 50 Jahren durch Sickerungsgräben entlang der Straßen und Feldwege, durch Drainagen und zigtausende Kilometer an (gelben) Sickerschläuchen, wodurch sich die physikalischen Eigenschaften des Erdbodens verändern. Das Regenwasser fließt schneller ab, die Verdunstungsrate der freien Landschaft und damit die Kühlung haben abgenommen und nehmen ständig weiter ab. Abnahme der Kühlung bedeutet umgekehrt ein Anstieg der Erwärmung. So steigt der Wärmeinseleffekt weltweit, verursacht durch gut 7 Milliarden Menschen von Jahr zu Jahr an.
Die Aussage des Deutschen Wetterdienstes, Offenbach: Auch früher habe es den WI schon gegeben, deshalb kann man ihn unberücksichtigt lassen, ist denn rundum falsch. Richtig an der Aussage ist nur, dass auch früher (z.B. vor 100 Jahren) ein WI vorhanden war, der Wert aber deutlich geringer war. Durch die fortschreitende Kultivierung der Landschaft und der vom statistischen Bundesamt genannten Zahlen, vergrößert sich der Wärmeinseleffekt von Jahr zu Jahr. Vor allem in den Alpen macht sich der WI stark bemerkbar, denn dort ist in den letzten 50 Jahren der Eingriff in die Natur, verstärkt durch das Anschwellen der Touristenströme, am größten. Bestes Beispiel ist die DWD-Messstation auf der Zugspitze, die für Temperaturvergleichsbetrachtungen wertlos ist, da sie in einer Touristenhochburg mit starker Bebauung liegt. Zudem steigt die Warmluft der Täler nach oben und damit auch die Vegetationszonen. Übrigens hat die in der Presse so oft zu hörende alpine Gletscherschmelze nichts mit menschengemachten Einflüssen zu tun, sondern basiert auf der AMO (Temperaturschwingung des Atlantikwassers) und diese wird von der Sonne bestimmt, wie die folgende Abbildung zeigt.

Abbildung 2 (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Dies bestätigt auch die ETH Zürich: “Alpen-Gletscherschmelze von Atlantikströmung beeinflusst?“, Geophysical Research Letters (2010), 37, L10501. Die Untersuchungen anhand von 30 Gletschern zeige, dass die Massenbilanz der Schweizer Gletscher mit der AMO korreliere, so die Forscher. Und weiter “Es zeigte sich, dass die AMO die Perioden besonders markanter Gletscherrückgänge, wie etwa in den 1940ern und seit den 1980ern, so wie Stagnation oder Zuwachs in den 1910er und 1970er Jahren, erklären kann.“
Nach diesem Exkurs wieder zum WI. Fazit: Ein direkter Temperaturvergleich von heute und vor 120 Jahren ist bei keiner Station möglich. Das ist unseriös und führt zu falschen Ergebnissen. Man müsste vom heutigen Temperatur-Wert einen Korrekturfaktor abziehen, eben den Wärmeinseleffekt. Für den Frankfurter Großflughafen beträgt der Faktor z.B. +2,5°C, denn die Klimastation steht neben der Startbahn im Strahle der heißen Abgase. Vor 100 Jahren war dort noch Wald und der Boden nicht trocken gelegt, so wie heute. Im Schnitt der 2100 Stationen Deutschlands beträgt der  WI etwa 0,1 Grad je Jahrzehnt. Die untere Linie ist zugleich der Korrekturfaktor bei Vergleichen mit früher.

Abbildung 3, Rot: Gemessene Temperaturreihe ohne Berücksichtigung des WI (dient zur jeweiligen Temperaturaussage, ist jedoch für Vergleichsbetrachtungen ungeeignet).
Blau: WI-bereinigte Vergleichstemperaturkurve (dient nicht zur Temperaturaussage, stellt jedoch die richtigen Vergleichsbedingungen und damit richtigen Vergleiche dar).
Weitere Erklärungen und Begründungen dieser Grafik, siehe:
http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/
http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert
http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/
Die Kurzfassung dieser drei wissenschaftlichen Artikel finden Sie hier:
http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/
WI-bereinigte Daten heißt:
1)      Die Zivilisationsveränderungen durch den Menschen sind erfasst.
2)      Die Änderungen des Raumes durch die Zeit werden berücksichtigt.
Der reale Temperaturvergleich Deutschlands über die letzten 120 Jahre sieht WI-bereinigt so aus:

Abbildung 4: Auch die um den Wärmeinseleffekt korrigierten Deutschlandwerte zeigen:
(an der blauen gestrichelten Durchschnittlinie sieht man), dass zwischen 1960 und 1985 ein „Temperaturloch“ (Kaltzeit, vergleiche, die in den 1970-Jahren in Politik, Presse und Wissenschaft kursierende Furcht einer anstehenden Eiszeit) in Deutschland war und dann die Jahresmittelwerte bis zum Jahre 2000 ständig gestiegen sind. Seit über einem Jahrzehnt sinken die Temperaturen erneut, und zwar deutschland- und auch weltweit.
Zum Abschluss der Deutschlandbetrachtung eine Station, die nur einen geringen WI (WI-los ist praktisch keine Landstation, da keine Messstation und Messbedingung heute wie vor 100 Jahren ist) hat. Dies ist die DWD-Messstation auf dem Hohenpeißenberg (HPB).

Abbildung 5 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends).
Diese Schwingung stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Wie der Hauptsonnenzyklus nicht nur bei uns, sondern z.B. auch die arktische Meereisbedeckung bestimmt, hat Prof. Mörner (bis 2003 Präsident der INQUA, International Union for Quaternary Research) ermittelt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 6, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre, entgegen den Computerspielen der ACIA, eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Die letzte Kaltphase um 1900 wurde übrigens der RMS Titanic zum Verhängnis, als auf ihrer vergleichsweise südlichen Route Eisberge auftauchten, mit denen „normalerweise“ (in wärmeren Zeiten) niemand dort rechnete, wie Abbildung 7 zeigt.
 
Abbildung 7, Quelle:  Joanna D. Haigh, Blackett Laboratory, Imperial College London, zeigt die Anzahl der Sonnenflecken und das Eisbergaufkommen am Breitengrad 48 Nord. Insbesondere zwischen 1900 und 1914 drangen Eisberge weit nach Süden vor. Weiter, als üblich. In diesem Zeitraum hatte der Hauptsonnenzyklus sein Minimum und die solare Aktivität war entsprechend gering, was zum einen die Meerestemperatur senkte (siehe AMO) und zum anderen das arktische Eisvolumen verstärkte (siehe obige Untersuchungen von Dr. Mörner). Rechts: Zeitgenössiges Gemälde.
In größeren Ländern als Deutschland, wie z.B. den USA, auf denen wegen der Flächengröße noch Gebiete mit sehr geringem menschlichen Einfluss zu finden sind, wird schnell deutlich, wie stark der WI in urbanisierten Gebieten wirkt. Denn dort sind Messstationen zu finden, wo die Raumveränderung durch die Zeit gering und damit der WI gering ist. Eine solche Station, die praktisch keinen Wärmeinseleffekt hat, da die Umgebung fast keine Veränderung erfahren hat, ist „Dale Enterprise Virginia“. So kann es niemanden mehr überraschen, dass dort bei den real gemessenen Temperaturen der gleiche Verlauf zu sehen ist, wie bei den WI-bereinigten Temperaturen für Deutschland. Ohne den geringen Wärmeinseleffekt hätte es in den letzten 100 Jahren überhaupt keine Erwärmung gegeben, Stand 2010, da der geringe, sonnenbasierte Temperaturanstieg gegen Ende des 20. Jahrhunderts, mittlerweile, durch die zurückgehenden Temperaturen aufgebraucht ist. Der WI ist somit der primäre Temperaturtreiber in den letzten 100 Jahren, was bei einem WI-Wert für Deutschland von ca. +1,2°C, gegenüber der sonnenbasierten Erwärmung von ca. +0,6°C im 20. Jahrhundert, offensichtlich wird.

Abbildung 8, Quelle: http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station zeigt den Temperaturgang der Messstation Dale Enterprise Virginia.
Nun kann zurecht eingewendet werden, dass eine einzige Station, die nur regional „ihr“ Temperaturprofil abdeckt, kein hinreichender Beleg dafür ist, dass die vom DWD und der WMO herausgegebenen Temperaturreihen für Vergleichsbetrachtungen wertlos sind und die EIKE-Vergleichstemperaturreihe die korrektere Sichtweise abbildet. Daher soll zum Abschluss der Bereich der Erde betrachtet werden, der die größte Fläche und die geringste Bebauung aufweist – die Meeresflächen. Beginnend mit der bereits erwähnten AMO (Atlantic Multidecadal Oscillation).

Abbildung 9 zeigt die Abweichungen der Oberflächentemperatur im Nordatlantik (Quelle: NOAA), dazu eingezeichnet, die natürliche Schwingung der AMO von gut 60 Jahren, die auf die Sonne zurück zu führen ist. Abbildung 9 zeigt deutlich keinen Temperaturtrend. Gleiches Bild im Pazifik.

Abbildung 10 zeigt die Wassertemperaturen (Abweichungen vom Mittelwert, Datenquelle, ebenfalls NOAA) im Pazifik. Auch hier: kein Temperaturtrend. Ebenso im Nordpazifik (Abbildung 11).

Abbildung 11: Temperaturgang (Abweichungen vom Mittelwert) im Nordpazifik (PDO – Pacific Multidecadal Oscillation). Auch hier kein Temperaturtrend, sondern Schwingcharakter. Ebenso ist im Südatlantik kein Temperaturtrend zu sehen (Abbildung 12).

Abbildung 12: Meerestemperatur (wie oben) im Südatlantik. Der Temperaturgang spricht für sich. Auch bei den globalen Meerestemperaturen lassen die Temperaturschwankungen keinen steigenden Trend erkennen (Abbildung 13).

Abbildung 13: Temperaturabweichungen der globalen Meerestemperaturen (blau).
Da die obigen Wassertemperaturen „lediglich“ mehrere Jahrzehnte abdecken, ein Blick über die letzten 1.000 – 2.000 Jahre.

Abbildung 14 (http://www.abd.org.uk/pr/274.htm) zeigt die mittlere Oberflächentemperatur der letzten 1.100 Jahre. Deutlich ist ein Schwingungsmuster von ca. 1.000 Jahren zu sehen. Ca. alle 500 Jahre wechseln sich Warm-und Kaltzeiten ab, was auf die variable Sonne zurück zu führen ist. Um 1650 (Kleine Eiszeit) waren die tiefsten Temperaturen im Betrachtungszeitraum und im 13. Jahrhundert die höchsten. Dies stimmt weitgehend mit dem Schwankungsmuster des Meeresspiegels aus K.-E. Behre, “Probleme der Küstenforschung“, Band 28, überein.
Wie Abbildung 14 deutlich zeigt, war die Temperatur während des Klimaoptimums im Mittelalter deutlich höher als heute. Dies legt den Schluss nahe, dass auch der Meeresspiegel seinerzeit höher als heute war (thermische Ausdehnung).

Abbildung 15 zeigt die globalen Meeresspiegelschwankungen der letzten 1.800 Jahre nach Aslak Grinsted, Moberg et al., 2005 und Jevrejeva, 2006, Quelle: (http://www.c3headlines.com/). Um das Jahr 1200 lag im Betrachtungszeitraum der höchste Wert, deutlich über dem heutigen. Seit dem Klimaminimum der “Kleinen Eiszeit“ (rote Linie), steigt der Meeresspiegel wieder global an.
In der mittelalterlichen Warmzeit lagen der globale Meeresspiegel und die globale Meerestemperatur höher als heute (siehe auch http://www.oism.org/pproject/s33p36.htm#Message5976). Trotzdem lag z.B. Holland nicht 7 m unter Wasser, wie dies noch jüngst von Klimaalarmisten des AWI bei weiterer Erwärmung zu hören war. Dies zeigt, was von solchen Horrorszenarien, die gebetsmühlengleich von einigen Instituten verbreitet werden, zu halten ist.
Fazit:
Während die unbebauten und WI-losen Flächen der Erde, die Meeresflächen, keinen Temperaturtrend erkennen lassen und somit das gleiche Bild liefern, wie die gezeigte Station in Virginia (Abbildung 7), sowie die von EIKE ermittelte, richtige WI-Temperaturvergleichskurve für Deutschland (Abbildung 3 und 4) , muss davon ausgegangen werden, dass sowohl die DWD-Temperaturreihe, als auch die von der WMO jährlich veröffentlichte Globaltemperaturreihe für Vergleichsbetrachtungen wertlos sind, da dort der WI die gemessenen Temperaturen in die Höhe treibt und Vergleiche zu früheren Temperaturen damit sinnlos macht, was nicht verwundern kann, befinden sich über 50% der weltweiten Temperaturmessstationen auf Flughäfen und damit im Strahle der heißen Flugzeugabgase. DWD und besonders die WMO, weisen denn mit ihren Temperaturreihen nichts anderes aus, als die Zunahme des weltweiten Luftverkehrs. Ob zu dieser (richtigen) Erkenntnis jedoch ein teures Netz von Temperaturmessstationen notwendig ist, darf bezweifelt werden.
Raimund Leistenschneider – EIKE
Josef Kowatsch – Hüttlingen




Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

Teil 2

2 .  Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

 Wie im Teil 1 beschrieben, ist der Wärmeinseleffekt keine konstante Größe einer Station, sondern er steigt fast immer schleichend an. Er ist außerdem abhängig vom Breitengrad und nimmt vom Äquator nach Norden hin zu. Auch ist es beim Wärmeinseleffekt nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden (Abbildung 13, Teil 1), die Stadt kommt vielmehr zur Messstation durch die ständige Ausbreitung der Bebauung. Der WI beeinflusst die Temperaturmesswerte deutlich, sowohl der städtischen, als auch der ländlichen Stationen, wenn z.B. eine Landschaftsveränderung stattgefunden hat, wie am Beispiel des Rheingrabens gezeigt. Wie möchten Ihnen hier weitere Beispiele zeigen, die in Temperaturzeitreihen signifikant eingehen und zwar global derzeit mit bereits 41%, den Flughäfen.

Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 104 ha pro Tag. Wie nicht verwundern kann, ist er direkt abhängig vom Wirtschaftswachstum und damit der Investitionsbereitschaft der Wirtschaft, sowie der, mit dem Wirtschaftswachstum verbundenen Kaufkraft der Bevölkerung, wie die Abbildung 1 zeigt. Bei jedem neuen Bauwerk ist zwangsweise die Natur auf dem Rückzug. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden (Akkumulation).

Abbildung 1, Quelle statistisches Bundesamt

Der Wärmeinseleffekt stellt eine nach oben abweichende Änderung oder auch Kontaminierung der Messdaten für die Klimaerwärmung dar. Er wirkt der globalen Abkühlung seit 10 Jahren entgegen. Trotz des Wärmeinseleffektes haben sich die Temperaturen in Deutschland in den letzten 9 Jahren um 0,7 Grad abgekühlt und die Abkühlung hält weiter an. Dies geht eindeutig aus den Zahlen des DWD (Abbildungen 21, Teil 1 und Abbildung 3, Teil 2), hervor. Die tatsächliche Abkühlung des Klimas wäre ohne den WI noch ausgeprägter.

Aufgabe des DWD wäre nun, den WI seiner Messstationen zu ermitteln und statistische Temperatur-Zeitreihen entsprechend zu homogenisieren, damit für die Entscheidungsträger in Politik, Wirtschaft und Gesellschaft ein realitätsnahes Bild der klimatologischen Temperaturentwicklung entsteht. Anhand unserer Auswertung von 130 DWD-Wetterstationen schneidet der DWD insgesamt bei der Stationsgüte mit 40% nicht- oder nur bedingt geeigneter Wetterstationen etwas besser ab, als seine Kollegen in den USA, wie am Anfang unseres Berichts geschildert. Den „Vogel“ bei den Temperaturaussagen, wie es im Volksmund heißt, „schießt“ jedoch immer wieder das ZDF ab und dort insbesondere die Meteorologin Frau Inge Niedek.

Temperaturmessstationen auf Großflughäfen

Frau Niedek berichtete Anfang Juni diesen Jahres einer erstaunten Öffentlichkeit, dass der Mai 2010 in Deutschland insgesamt zu warm gewesen war und zwar 0,5°C über dem Durchschnitt der Jahre 1961 – 1990 lag. Wir erinnern uns noch, dass im Mai noch voll geheizt werden musste, siehe Abbildung 2.

 

Abbildung 2, Quelle: BDEW (Bundesverband der Energie- und Wasserwirtschaft), zeigt die Gradtagzahl* in Deutschland. Den Durchschnitt für 2009 und 2010 (bis 08/10) zum langjährigen Mittel. Dessen Zeitraum von 1961 – 1991 orientiert sich exakt am sog. klimatologischen Referenzzeitraum. Deutlich ist zu sehen, dass im Mai erheblich mehr geheizt wurde, als in den Vergleichszeiträumen.

* Die Gradtagzahl ist ein Maß für den Wärmebedarf eines Gebäudes während der Heizperiode. Sie stellt den Zusammenhang zwischen Raumtemperatur und der Außenlufttemperatur für die Heiztage eines Bemessungszeitraums dar und ist somit ein Hilfsmittel zur Bestimmung der Heizkosten und des Heizstoffbedarfs.

So verwundert es denn nicht, dass der DWD ein deutlich anderes Bild der Maitemperaturen 2010 zeichnet, als das ZDF (Abbildung 3).

undefined

Abbildung 3 zeigt die Temperaturentwicklung über die Monate für 2010 im Vergleich zu 2009 und dem Dekadendurchschnitt. Ausgewertet wurden 41 ausgesuchte DWD Wetterstationen, Quelle: BDEW, “Energieverbrauch in Deutschland, Daten für das 1. Halbjahr 2010“. Die Temperatur im Mai lag im Mittel ca. 3°C unter „normal“!!! Dies allein zeigt schon, wie die Bevölkerung durch tendenziöse Berichterstattung im ZDF getäuscht wird. Aber es kommt noch schlimmer.

Da die einem Millionenpublikum vermittelte Aussage von Frau Niedek erklärungsbedürftig ist, fragten wir (Kowatsch) per Mail nach und bekamen von Frau Niedek als Antwort, dass als Grundlage für ihre Aussage, die DWD-Wetterstation auf dem Frankfurter Flughafen herangezogen wurde. Die Abbildung 16 (Teil 1, Stuttgart Flughafen) zeigt bereits die Eignung oder besser gesagt, die Nichteignung von Wetterstationen auf Flughäfen, aber wir wollten es genauer wissen. Einen ersten Eindruck vermitteln die beiden Photos in der Abbildung 4.

Wir möchten Ihnen die Einschätzung des DWD zu der Wetterstation in Frankfurt nicht vorenthalten. Herr Müller-Westermeier schrieb am 01. Juni 2010: “Natürlich ist es in Frankfurt wegen seiner günstigen Lage wärmer als im Mittel von Deutschland. In diesem Jahr war es in  Frankfurt auch 0,5 Grad wärmer als im Vergleichszeitraum, weil der Wärmeüberschuss im Süden und Westen Deutschlands höher war als im Landesdurchschnitt. Mit einem Wärmeinseleffekt hat das aber alles nicht zu tun, denn der aktuelle Wert und der Bezugswert stammen von der Station am Flughafen weitab von irgendwelchen Wärmeinseln.“

Der DWD hat nicht nur eine atemberaubende Erklärung (für erhöhte Temperaturen) hinsichtlich “Wärmeüberschuss im Süden“ (welcher Überschuss das wohl sein mag?*), er geht auch davon aus, dass sich die Station fernab von “irgendwelchen Wärmeinseln“ befindet. Nun, wir hegen die Hoffnung, dass der DWD nach studieren der folgenden Zeilen seine Einschätzung ggf. ändern wird.

* Auf Anfrage antwortete der DWD, dass die drei Frühlingsmonate in 2010 im Norden kälter gewesen sind, im Süden hingegen wärmer als im Vergleichszeitraum 1961 – 1990. Da dies für die bereits erwähnte Ostalbwetterwarte unzutreffend ist, wurde die Aussage anschließend vom DWD relativiert. Zitat vom Leiter der Ostalbwetterwarte: "Zusammenfassend kann man sagen: Das vergangene Frühjahr war im Ostalbkreis ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren". Und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren! Dies passt so gar nicht ins Bild einer laufenden anthropogenen Klimaerwärmung, die von den Klimaalarmisten in diversen Veröffentlichungen medienwirksam angeprangert wird. Aber vermutlich kennt die Natur diese Veröffentlichungen nicht.

undefined

Abbildung 4 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von unserem hochgeschätzten Kollegen, Anthony Watts gezeigt wird (http://wattsupwiththat.com/2009/03/28/how-not-to-measure-temperature-part-86-when-in-rome-dont-do-as-the-romans-do/).

undefined

Abbildung 5 zeigt die Wetterstation auf dem Flughafen von Rom und braucht nicht kommentiert zu werden! Aber auch hierzu ist eine Steigerung möglich. Schauen wir uns daher die Satellitenaufnahmen an, die Google-Maps für Rhein-Main zur Verfügung stellt.

undefined

Abbildung 6 zeigt in starker Vergrößerung die DWD-Wetterstation auf dem Frankfurter Flughafen. Rechts recht gut am Schattenwurf zu erkennen.

  undefined

Abbildung 7 gibt den Überblick, wo sich die Wetterstation auf dem Flughafengelände befindet (roter Pfeil). Sie liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen zweit Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden Flaute (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 15%), bleibt ein Anteil an Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Wie auf der Abbildung weiter zu sehen, liegt die Wetterstation darüber hinaus direkt neben der 10-spurigen, vielbefahrenen E451, wie die Abbildung 8 zeigt. Jetzt ist es uns nicht mehr verwunderlich, wieso Frau Inge Niedek anhand der Daten dieser Wetterstation zu ihrer auf den ersten Blick recht sonderbaren Aussage gelangt. Aber selbst von dieser Feststellung aus, ist noch eine Steigerung möglich.

undefined

Abbildung 8, Momentaufnahme der 10-spurigen E 451, unmittelbar neben der Wetterstation auf dem Frankfurter Flughafen.

Diese Steigerung gründet sich auf dem in der Luftfahrt gefürchteten Wirbelschleppeneffekt. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, die geltenden Bestimmungen:

A380 gefolgt von Flugzeug der Gewichtsklasse "schwer" = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)

  • A380 gefolgt von Flugzeug der Gewichtsklasse "mittel" = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • A380 gefolgt von Flugzeug der Gewichtsklasse "leicht" = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

undefined

Abbildung 9 (Quelle: http://www.muk.uni-hannover.de/forschung/allgemein/forschung/unfaelle.htm) zeigt schematisch den Einzugsbereich und die Ausbreitung von Wirbelschleppen. Gut erkennbar, dass die heißen Abgase in die Wirbelschleppe mit einbezogen werden, anschließend verwirbelt und damit über ein großes Areal verteilt werden.

undefined

Abbildung 10 zeigt die Luftverwirbelung und deren Verteilung bei einem kleineren, startenden Verkehrsflugzeug.

undefined

Die Bilderserie in Abbildung 11 zeigt die sichtbar gemachte und sich ausbreitende Wirbelschleppe eines anfliegenden Großraumflugzeuges (Boeing 747).

undefined

Abbildung 12, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Bringen wir diese Erkenntnis in Relation zu Abbildung 7, so ist festzuhalten, dass mit jedem startenden oder landenden Flugzeug die Wetterstation regelrecht mit Heißluft aus den Abgasen der Verkehrsflugzeugen beaufschlagt wird. Dies gilt i.ü. grundsätzlich für alle Großflughäfen, wie noch gezeigt werden wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme (ohne Wirbelschleppeneffekt) über das Flughafenareal (Raumvolumen), ergibt sich ein WI von 0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

 

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

 

Überschlagsrechnung:

 

Flugplatzfläche = 5 qkm = 5*10^6 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1000 kg/s * 100 s = 10^5 kg = 10^5 m3 Luft auf 600 °C.

 

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

 

(10^8 – 10^5)*20 + 10^5*600 = 10^8*T,  woraus T = 20,6 °C folgt.

Ergebnis: Auch ohne den Wirbelschleppeneffekt und anderer Faktoren, wie geänderter Messzeiten, welche zu deutlichen Temperaturerhöhungen führen, beträgt die Erwärmung der Messstation Frankfurt im Strahle der heißen Abgase bereits 0,6 C.

 

Dass die Verteilung nicht homogen ist und der Wirbelschleppeneffekt mit einbezogen werden muss, wird recht gut in der Abbildung 13 sichtbar.

undefined

Abbildung 13 zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Wie groß der Einzugsbereich und die Breite von Wirbelschleppen sind, zeigt Abbildung 14.

undefined

Abbildung 14 zeigt Wirbelschleppenschäden im Stadtgebiet Raunheim, Quelle: (http://www.bi-fluglaerm-raunheim.de/wirbelschleppen.htm) und die kleine Abbildung dessen Lage (A) zum Flughafen Frankfurt.

Fazit

Es ist somit festzustellen, dass die Temperaturmessstation auf dem Flughafen Frankfurt für die Aufzeichnung von Temperaturzeitreihen oder sonstige Vergleichsaussagen gänzlich ungeeignet ist. Anhand der dortigen Daten hat denn Frau Inge Niedek nichts anderes herausgefunden, als dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was für sich grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. In Relation zur Temperaturaussage des DWD in Abbildung 3, die sich auf den Daten von 41 DWD-Stationen stützt, hat das ZDF somit sein eigenes Wetter.

Erschwerend kommt hinzu, dass die Wetterstation auf dem Flughafen Frankfurt erst seit ca. 15 Jahren besteht. Sie kann demnach nicht die heutigen Werte mit denen von z.B. 50 oder 100 Jahren vergleichen. Womit vergleicht nun Frau Niedek mit ihren Aussagen die heutigen Werte? Mit dem Deutschlandmittel der Jahre 1961 – 1990. Jedenfalls widersprach sie trotz wiederholten Anfragen dieser Aussage nicht, sondern gab ausweichende Antworten. Eine einzige, ausgesuchte Station wird demnach mit dem berechneten und gewichteten Mittelwert von ganz Deutschland verglichen!! Demnach ist der Schluss zu ziehen, dass nicht nur eine Station ausgewählt wurde, die ein weit zu hohes Temperaturniveau ausweist, sondern auch, dass die sog. Äpfel mit Birnen verglichen werden. So etwas hat mit wissenschaftlicher Arbeit rein gar nichts zu tun.

Erstaunlich ist übrigens die Aussage, die wir vom DWD zu seiner Station auf dem Frankfurter Flughafen erhielten: “Die Zeitreihe der Station Frankfurt-Flughafen wird wie alle Stationen des DWD  immer auch auf Homogenität geprüft und es hat sich dort keinerlei Inhomogenität ergeben. Außerdem zeigen auch die völlig ungestörten Bergstationen den allgemeinen Erwärmungstrend.“

Man beachte den letzten Satz. Natürlich wurde sofort zurückgeschrieben, dass keine einzige Bergstation einen Erwärmungstrend in den letzten 10 Jahren zeigt, er möchte eine benennen. Eine Antwort steht bis heute aus!

Homogenität oder Homogenisierung

Durch Homogenisierung sollen systematische (schleichende und sprunghafte) Fehler, sowie grobe Fehler herausgefiltert werden. Das geht allerdings nur dann, wenn die Metadaten für jede Messstation (z.B. Besiedlungsdichte, Bodenbelagsänderung, Anstrichänderung, Messfühleränderung, Ableseregime etc) dauerhaft bekannt sind. Bei der Betrachtung von längeren Zeitreihen aus der Vergangenheit besteht das Problem, Dass Problem besteht darin, werden längere Zeitreihen aus der Vergangenheit betrachtet, dass sich an einer oder mehrerer Stationen Änderungen ergeben haben, sei es ein Wechsel der Messinstrumente, eine Änderung in der Berechnungsmethodik der Mittelwerte oder gar eine Verlegung des Messfeldes. Durch Vergleich mit umliegenden Stationen und statistischen Verfahren wird eine sog. Homogenisierung der Messreihe durchgeführt, d.h. bildlich gesprochen, werden die durch die Stationsveränderungen bedingten Abweichungen wieder herausgerechnet, so dass eine einheitliche (homogene) Messreihe entsteht. So weit die Theorie.

Zu den Metadaten gehört also der Wärmeinseleffekt. Da dieser bei den meisten Stationen nicht bekannt ist, muss die Homogenisierung grundsätzlich versagen, zumindest bei diesen Stationen, so dass eine “Inhomogenität“ vom DWD wie es scheint, gar nicht erkannt wird. Der DWD geht bei der Homogenisierung von Temperaturwerten wie folgt vor:

·         Anhand mathematischer Methoden (statistische Regressionsbeziehungen) wird aus den Stationsdaten für eine Fläche von 1 km x 1km die mittlere Lufttemperatur berechnet.

·         Aus diesen Rasterdaten werden anschließend Mittelwerte für Regionen wie Bundesländer oder auch für Deutschland selbst ermittelt. Aus den Zeitreihen dieser Gebietsmittel können dann Referenzwerte und Abweichungen von Einzelmonaten und Jahren berechnet werden.

Wichtig! Es handelt sich bei der Betrachtung von Temperaturzeitreihen also niemals um gemessene Werte, sondern immer um mathematisch behandelte Werte.

Mit den uns vom DWD zur Verfügung gestellten Daten sieht die Zeitreihe der Maitemperatur wie folgt aus (Abbildung 15)

undefined

Abbildung 15 zeigt die Maitemperatur in Deutschland anhand dm Datensatz vom DWD von 2000 – 2010. Wie überdeutlich zu sehen, war der Mai nicht etwa zu warm, sondern erheblich zu kalt und zwar der Dekadenkälteste und zwar 4°C kälter als der wärmste Maimonat in 2000.

Natürlich könnte argumentiert werden, dass Frau Niedek ihren Vergleich nicht auf die vergangene Dekade bezog, sondern auf den Zeitraum seit Beginn der Messungen ab 1881 oder den klimatologischen Referenzzeitraum von 1961 – 1990. Nun, da uns auch diese Zeitreihen vom DWD für den Monat Mai vorliegen, konnten wir anhand dieser offiziellen Daten den Mai-Temperaturverlauf seit 1881 bis heute rekonstruieren (Abbildung 16).

undefined

Abbildung 16 zeigt die Maitemperatur in Deutschland von 1881 – 2010 nach Daten des DWD. Die Datenreihe zeigt übrigens auch, dass es in den 1930 und 1940-Jahren wärmer war als zum Ausgang des 20. Jahrhunderts. Der Mai 2010 war einer der kältesten im Betrachtungszeitraum und liegt deutlich unter dem Durchschnitt. Nach Auswertung des DWD (er lieferte uns in den Datenreihen die Temperaturabweichungen gleich mit) war der Mai um 1,7°C im Vergleich zum Mittel zu kalt! Der Mittelwert der Maitemperatur lag in diesem Zeitraum bei 12,1°C, rote, waagerechte Linie. Nur wenige Maimonate waren kälter, als 2010. Die Aussage von Frau Niedek, der Maimonat 2010 läge um 0,5°C über dem Mittel ist somit in krasser Weise falsch, um 2,2°C! D.h. aber auch, dass im Mai der WI des Frankfurter Flughafens bei +2,2°C + dem WI der DWD-Daten liegt!

Nun könnte angenommen werden, dass das ZDF und speziell Frau Niedek es nicht besser wissen, wie wissenschaftlich sauber gearbeitet wird, man könnte jedoch evtl. davon ausgehen, dass u.U. handfeste persönliche wirtschaftliche Interessen Frau Niedek bewegen, ein Millionenpublikum gezielt für eigene finanzielle Vorteile über das ZDF zu manipulieren.

Zu Frau Niedek ist festzuhalten (http://www.econ-referenten.de/redner/inge-niedek-meteorologin), Zitat: Inge Niedek studierte Meteorologie an der Freien Universität Berlin …Daneben war sie Mitgründerin und lange Jahre Mitglied der Geschäftsführung der Wetterfirma Meteo Consult und fungierte als Mitglied des Board of Directors sowie drei Jahre lang als Präsidentin der IABM (International Association of Broadcast Meteorology). Inge Niedek ist außerdem Mitglied im wissenschaftlichen Beirat des Deutschen Komitees für Katastrophenvorsorge. In ihren spannenden Vorträgen widmet sich Inge Niedek vor allem dem Thema Klimawandel und erklärt fachkundig und anschaulich, welche Folgen klimatische Veränderungen für die Menschheit haben werden.“

Auch in  ihrem Buch geht es um Naturkatastrophen durch den Klimawandel. Für Ihre Vorträge bekommt Sie Geld. Nach unseren Recherchen 4.500€ plus MWST plus Spesen je Vortrag. Ihre Vorträge sind die reinste Märchenstunde. Sie erzählt nach dem Schema, wie sähe Deutschland aus, wenn es fünf Grad wärmer wäre und verbreitet das Weltuntergangsszenario als Tatsache, Naturkatastrophen, Überschwemmungen, untergehende Inseln, Hollands Küste liegt vor dem Kölner Dom.. und.. Könnte es daran liegen, dass diese Frau im Heute-Wetter immer wieder ihre These von der Klimaerwärmung einstreuen muss, damit  der Geldfluss nicht stockt? So jemand ist für eine neutrale Wetterberichterstattung untragbar, da sie weder wissenschaftlich seriös arbeitet, noch unabhängig und neutral sein kann. Für ihre Monatsvergleiche nimmt sie stets den Frankfurter Großflughafen, gemessen im Strahle der heißen Flugzeugabgase. Da gibt es dann jedes Monatsende eine neue Klimakatastrophe in krassem Kontrast zum DWD. Der Deutsche Wetterdienst schrieb am 06. September 2010 an einen von uns (Kowatsch): “Weltweit ist 1998 immer noch das wärmste Jahr und in Deutschland ist es 2000. Das ist kein Geheimnis, und das darf auch jeder wissen….“. Frau Niedek sorgt jedes Monatsende dafür, dass das keiner wissen darf.

Im Rundfunkstaatsvertrag ist viel von redaktioneller Unabhängigkeit die Rede und unter §25 folgendes festgehalten: “Ein einzelnes Programm darf die Bildung der öffentlichen Meinung nicht in hohem Maße ungleichgewichtig beeinflussen“. Nichts anderes, als eine in hohem Maße ungleichgewichtige Beeinflussung und damit eine Verletzung des Rundfunkstaatsvertrages stellt aus unserer Sicht eine Temperaturaussage dar, die um 3°C von den Daten des DWD nach oben abweicht und einer Millionenzuschauerzahl suggeriert, es würde immer wärmer. Hier wird (vorsätzlich?) einer politischen Strömung das Wort geredet, mit u.U. eigenen finanziellen Zielen. Unnötig zu erwähnen, dass dies mit einer objektiven und wissenschaftlich korrekte Berichterstattung, wie sie die Bürger unseres Landes von Sachbeiträgen erwarten, nichts gemein hat.

Aber auch Frau Niedeks Kollege, der Diplom Meteorologe Herr Dr. Tiersch scheint die Fahne der Klimaalarmisten, koste es was es wolle, hoch zu halten. In einer Mail gab er zu Protokoll: “Ich habe am 30. August 2010 von dem bisher wärmsten Jahr gesprochen. Wenn Sie sich von NOAA die weltweite Mitteltemperatur ansehen, dann ist das richtig. Wo steht etwas von einem Fehler?“ Nun, den Fehler möchten wir Herrn Dr. Tiersch anhand der aktuellen globalen Temperaturzeitreihen zeigen (Abbildung 17).

undefined

Abbildung 17 zeigt die Zeitreihen der Temperaturabweichungen im Zeitraum von 1979 bis 15. August 2010 der GISS, HadCRUT3, NCDC, UAH MSU und RSS MSU. Also allen fünf weltweit anerkannten Instituten, die die globalen Temperaturen aufnehmen und darstellen. Wie unschwer zu sehen, haben wir die höchsten Temperaturabweichungen und damit höchsten Temperaturen im Betrachtungszeitraum bereits gesehen, was sich mit der obigen Aussage des DWD deckt. Anhand des Charts ist zu erkennen, dass der Langfristtrend der globalen Temperaturen (noch) nach oben geht, wogegen der Kurzfristtrend nach unten zeigt (vgl. mit Abbildung 21 aus Teil 1, Temperaturjahresmittelwerte für Deutschland). Im Chart ist ein natürlicher Zyklus (Welligkeit), mit im Betrachtungszeitraum 3 Zyklen abgebildet, mit einer durchschnittlichen Länge von knapp 7,6 Jahren. Wir hatten Ihnen bereits anhand der AMO erläutert, das der dortige Zyklus auf die Sonne zurückzuführen ist und zwar auf den Zyklus, der durch die Drehimpulsänderungen (Bahndrehimpuls und Eigendrehimpuls) der Sonne zurückzuführen ist, wodurch letztendlich die magnetische Aktivität und damit Energieabgabe der Sonne (mit) gesteuert wird. Dabei handelt es sich um den großen Zyklus. Darüber hinaus gibt es noch den kleinen Zyklus, basierend auf den Drehimpulsänderungen und dieser hat bei Betrachtung von längeren Zeitskalen eine mittlere Länge von 7,8 Jahren! Siehe (http://uploader.wuerzburg.de/mm-physik/klima/sonne1.htm)

Wie anhand der realen Temperaturdaten aus den Abbildungen 21 (Teil 1) und Abbildung 3, die bekanntlich vom DWD stammen, dieser zu seiner Einschätzung der zukünftigen Temperaturentwicklung kommt, die er in der Abbildung 18 zusammenfasst, ist nicht nachvollziehbar.

undefined

Abbildung 18 zeigt die tatsächliche Temperaturentwicklung in Deutschland bis 2009 und die erwartete bis 2100, Quelle: DWD. Wie seine Abbildung 22, Teil 1, aus dem IPCC-Jahr 2007, entbehrt der Prognose jegliche wissenschaftliche Grundlage und muss unter der Rubrik „Panikmache“ abgelegt werden.

Eingangs erwähnten wir, dass 41% aller Daten zur globalen Mittelwerterfassung der Temperaturen von Flughäfen stammen. Ist Frankfurt nun ein Einzelfall, oder die Regel? Dabei wurden die Temperaturmessstationen auf Flughäfen, sowohl an unserem Rechenbeispiel, als auch an den Auswirkungen der Wirbelschleppen, wie in den Abbildungen 9 – 14 zu sehen, gespiegelt. Hierzu möchten wir Ihnen weitere Messstationen auf Großflughäfen zeigen.

Berlin-Tegel

undefined

Abbildung 19 zeigt die Wetterstation auf dem Flughafengelände von Berlin-Tegel und die Abbildung 20 die Lage der Station zum Rollfeld.

undefined

In der Abbildung 20 ist gut erkennbar, dass die Station (roter Pfeil) ebenfalls unter 100m vom Rollfeld entfernt liegt. Zwar liegt sie nicht unmittelbar im Einzugsbereich der Start- und Landebahn (ca. 270m entfernt) und damit besser platziert als in Frankfurt, der Abstand ist jedoch viel zu gering, um nicht von den Auswirkung der Turbolenzen (Wirbelschleppen) erfasst und damit beeinflusst wird, was zwangsläufig zu falschen Temperaturwerten führt.

Stuttgart-Echterdingen

Abbildung 16 aus Teil 1:

undefined

Die Abbildung 16 aus Teil 1 zeigt die Temperaturmessstation auf dem Flughafen Stuttgart. Bewertung: Nicht geeignet, da viel zu nahe an der Startbahn gelegen.

undefined

Die Luftaufnahme der Abbildung 21 zeigt, dass die Wetterstation unmittelbar neben der Star- und Landebahn liegt und nur ca. 150m von dieser entfernt liegt, womit die Station ebenfalls direkt in den Wirbelschleppenturbulenzen liegt und als Temperaturmessstation zu hohe Werte liefert.

München Franz Josef Strauss

undefined

Abbildung 22 zeigt die Wetterstation auf dem Flughafengelände München Franz Josef Strauss (roter Pfeil). Sie liegt inmitten von betonierten Flächen (hell), welche, wie auf der Abbildung 19 (Tagesgang der Temperatur an einem sommerlichen Strahlungstag in Bodenhöhe für verschiedene Böden, nach Fezer 1975, Teil 1) zusehen, über dem Erdboden eine um 4°C höhere Temperatur ausweist, als Gras. Da die Messstation quasi zwischen diesem großflächigen Betonfeld eingezwängt ist, wird die Messstation bei jeder Windbewegung mit dieser zusätzlich (zu Gras) erwärmten Luftmasse beaufschlagt.

undefined

In der Übersichtsaufnahme (Abbildung 23) gut zu sehen, dass die Wetterstation (roter Pfeil) mit etwa 1km Entfernung recht weit von der nächsten Rollstrecke entfernt liegt, dafür aber inmitten des Flugbetriebs liegt. Die Erwärmungskomponente in unserem Rechenbeispiel zum Frankfurter Flughafen wirkt auch hier. Aufgrund der Messanordnung mitten in einem Betonfeld und inmitten des Flugbetriebs ist mit einem signifikant höheren Temperaturwert zu rechnen und die Messstation für statistische Langzeitbetrachtungen oder Vergleichsaussagen ungeeignet.

London Heathrow

undefined

Abbildung 24 zeigt die Wetterstation auf dem Londoner Großflughafen Heathrow.

undefined

In der Abbildung 25 ist die Lage der Station (03772) zu den Rollfeldern und Start- und Landebahnen zu sehen (EGLL ist die ICAO-Kennung für Heathrow). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen (Abbildungen 9 – 14) viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien), die darüber hinaus dem Flugaufkommen folgen.

Rom Airport

Siehe Abbildung 5 – Zur Temperaturmessung völlig ungeeignet.

Fazit

Insgesamt schneidet der DWD im Stationsvergleich (aus Teil 1) mit 40% seiner Stationen, die für Zeitreihen, bzw. Mittelwertvergleiche nach unseren Kriterien nur “begingt geeignet“ oder “nicht geeignet“ sind, leicht besser ab, als seine Kollegen in den USA. Da der DWD unseres Wissens dem GHCN (Global History Climate Network – stellt die globalen Temperaturwerte zusammen) lediglich die Werte von 8 Stationen (wäre interessant vom DWD zu erfahren, welche dies sind) mitteilt und ebenso in der Abbildung 3 zu sehen ist, bereits eine Auswahl seiner Stationen vornimmt, dürfte dort selbst die Erkenntnis vorliegen, dass nicht alle seine Stationen zur Vergleichsbetrachtung geeignet sind.

Da jedoch der Wärmeinseleffekt keine Berücksichtigung findet, Stationswerte nicht um diesen Betrag korrigiert oder wie es fachlich heißt „homogenisiert“ werden und dessen Betrag nach unseren Ermittlungen Werte von 0,5°C bis deutlich über 1°C erreichen kann, teilweise bis zu 3°C, wie an den Beispielen Frankfurt Rhein-Main und London Heathrow gezeigt, muss grundsätzlich davon Abstand genommen werden, Temperaturwerte von heute, denen von vor 100 Jahren direkt gegenüberzustellen und dann der Öffentlichkeit was auch immer erzählen zu wollen. Findet keine WI-Bereinigung statt, sind solche Temperaturvergleiche, die sich meist in Zehntel -°C bewegen, nicht nur wissenschaftlich wertlos, es ist vielmehr unverantwortlich, wenn daran Entscheidungen ausgerichtet werden, die ganze Volkswirtschaften in eine Abgabenwirtschaft treiben und damit weite Teile der Bevölkerung verarmen lassen, denn eins sollte jedem klar sein, die Zeche wird der sog. “kleine Mann“ zu zahlen haben. Vollkommen abwegig ist, wie im Falle des ZDF, Temperaturwerte einer ausgewählten Station, die dazu noch völlig ungeeignet ist, mit Bundeswerten zu vergleichen.

Großflughäfen haben einen WI, der bei ca. +2 ½ °C liegt, wie an den Beispielen Heathrow und Rhein-Main gezeigt. Solche Stationen sind demnach lediglich dazu geeignet, den Flugbesatzungen oder den Passagieren eine aktuelle Temperaturaussage zukommen zu lassen, also das Wettergeschehen dort wider zu geben, wozu sie auch in der Anfangszeit des Flugaufkommens eingerichtet wurden, nicht aber, um damit Zeitreihen oder gar Vergleiche zu bilden. In Anbetracht dessen, dass derzeit im GHCN bereits 41% seiner Daten von Flughäfen stammen und ein exorbitant hoher WI in die Messung eingeht, der nicht korrigiert wird, sind seine kompletten Temperaturdatensätze nicht das Papier wert, auf denen sie stehen. Es muss davon ausgegangen werden, dass beim GHCN die Fragwürdigkeit dieser Daten sehr wohl bekannt ist und hier bewusst eine Fehlinformation und mit den Daten eine Manipulation von Politik, Medien und Öffentlichkeit vorgenommen wird. Hält man sich vor Augen, welche Kapitalbeträge (4-stellige Milliardenbeträge) mit dem Klimarummel bewegt werden sollen, wird der Grund solchen Handelns erkennbar. Insofern wollen wir mit unserem Bericht, einen Beitrag leisten, für eine bessere Ausleuchtung der Szene zu sorgen.

Die Erwärmung ist weitgehend aufgebraucht.

Der DWD geht für das Jahr 2009 von einer Erwärmung in Deutschland gegenüber dem Ausgangsjahr 1881 von 1,1°C aus. In Anbetracht des Wärmeinseleffekts bleibt von diesem Wert nicht mehr allzu viel übrig. Dies deckt sich mit globalen satellitengestützten Daten, die für 2009 (trotz des starken El Niño in 2009, der bekanntlich die Temperaturen signifikant nach oben treibt) nur noch eine Temperaturabweichung zum Langfristmittel (ab 1979) von weniger als 0,2°C ausweisen (Abbildung 26, rote Zeitreihe). Hinzu kommt, dass durch die Änderung der Erfassungszeiten zum April 2001 (bis zu diesem Datum wurde in Deutschland dreimal am Tag die Temperatur gemessen und daraus der Mittelwert gebildet, seitdem jede Stunde), auf Grund des stark asymmetrischen Tagesganges der Temperatur, die Temperaturmesswerte seitdem künstlich angehoben werden und zwar um 0,1°C – 0,2°C.

undefined

Abbildung 26 zeigt die globalen Temperaturabweichungen für den Zeitraum 1979 bis Dezember 2009, Quelle (http://www.drroyspencer.com/2010/01/).

Wie bereits festgehalten, bleibt nach Abzug des Wärmeinseleffektes (und dem Temperaturantrieb durch die Erfassungszeitenänderung) nach den geschilderten Darlegungen für Deutschland von dem „DWD-Wert“ von 1,1°C für 2009 nicht mehr viel übrig, wie der Leiter der Ostalbwarte für seine Messstation bereits einräumte. Zitat:

"Zusammenfassend kann man sagen: Das vergangene Frühjahr war im Ostalbkreis ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren."

Und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren. Eine Erwärmung liegt nicht vor. Bleibt abzuwarten, wann der DWD seinem Dienststellenleiter auf Bundesebene folgt.

 

Josef Kowatsch

Raimund Leistenschneider – EIKE

 

Ergänzung zu Teil 1

In unserem ersten Teil wurden wir gebeten, doch eine DWD-Station zu benennen, die sich in einem Abstand von 2-3 m von einem Parkplatz befindet und die der DWD benutzt, um statistische Temperaturreihen für Deutschland zu generieren. Nun, eine solche Station ist die DWD-Wetterstation Karlsruhe, wie die Satellitenaufnahmen eindeutig zeigen.

undefined

Abbildung 27 zeigt Messfeld und Messhütte (blauer Pfeil) in unmittelbarer Nähe zum Parkplatz. Unmittelbar gegenüber der Messhütte ist im Abstand von ca. 3m gerade ein Lieferwagen geparkt (roter Pfeil). Wir möchten nun nicht so weit gehen und fragen, ob immer dann dort Fahrzeuge abgestellt werden, wenn gerade einmal wieder Rekordtemperaturen benötigt werden. Auf jeden Fall verwundert es wohl niemanden mehr, dass gerade die Station in Karlsruhe immer unter den Temperaturrekordhaltern in Deutschland platziert ist.

undefined

Abbildung 28 zeigt Messfeld (roter Pfeil), Parkfläche und DWD-Gebäude in der Übersicht.

J. Kowatsch, R. Leistenschneider EIKE

Related Files




Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

1. Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

2 . Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

Teil 1

Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

Die Abbildung zeigt anschaulich den Wärmeinseleffekt (WI) über städtischen Gebieten gegenüber Land. Wie noch gezeigt wird, ist der WI in der Fläche (Land) ebenfalls nicht zu vernachlässigen, da vielerorts landschaftliche Veränderungen wie Trockenlegung stattfanden oder landschaftliche Nutzflächen geschaffen wurden.

Im komplexen Wetter- und damit Klimageschehen, gibt es eine Vielzahl von Parametern, die es zu berücksichtigen gilt, sollen die Entscheidungsträger in Politik, Wirtschaft und Gesellschaft ein klares Bild erhalten, welches geeignet ist, die richtigen Entscheidungen dahingehend zu treffen, dass die Weichen für unser Land und unsere Gesellschaft weiter in Richtung Wohlstand und Zukunftssicherung gestellt werden. Eine Ausrichtung anhand eines einzigen Parameters, wie z.B. CO2 ist nicht nur grob fahrlässig, sondern zerstört auch die Perspektiven der nachfolgenden Gesellschaft, und damit das Wohl und die Zukunft unserer Kinder. Dass CO2 im Klimageschehen keine praktische Rolle spielt, hat EIKE schon in zahlreichen wissenschaftlich hinterlegten Artikeln dargelegt. Dass aber auch die vermeintlichen Beweise für eine postulierte anthropogene Erderwärmung, die Datenreihen, nicht das Halten, was der Betrachter erwartet – eine realistische Wiedergabe des Temperaturgeschehens der Gegenwart – wird über Climategate hinaus (EIKE berichtete darüber), der folgende Bericht darlegen.

Ein wichtiger Parameter, der in Temperaturzeitreihen zu berücksichtigen ist und in den Datenreihen diverser Institude, wie Hadley, GISS, aber auch dem DWD nicht berücksichtigt wird, ist der Wärmeinseleffekt (WI). Der WI beschreibt, wie sich die Veränderungen in Landschaft, Verstädterung und Bevölkerungszunahme auf die Temperaturen auswirken und damit vergleichende Temperaturaussagen beeinflussen und der WI, aufgrund seiner höheren Spreizung in der Gegenwart als in der Vergangenheit aus aktuellen Temperaturdaten herausgefiltert werden muss, da ansonsten falsche, zu hohe Temperaturwerte für die Gegenwart wider gegeben werden. Zum WI oder Urban Heat Island Effect (UHI), wie er in englischsprachigen Ländern genannt wird, gib es zahlreiche wissenschaftliche Untersuchungen (http://scholar.google.de/scholar?q=Urban+heat+influences&hl=de&as_sdt=0&as_vis=1&oi=scholart) oder hier (http://www.appinsys.com/GlobalWarming/GW_Part3_UrbanHeat.htm). Diese beschränken sich meist auf den amerikanischen Raum, wo das Thema, nicht nur in der Wissenschaft, breit diskutiert wird. Die Abbildung 1 gibt einen Überblick über die Wärmeinseln weltweit.

 

Abbildung 1 (Quelle: NASA) zeigt die Wärmeinseln weltweit, sowie deren Temperaturabhängigkeit (kleines Photo). “Es ist zu berücksichtigen, dass durch das Wachstum der Städte, der großflächigen Rodung von Wäldern und der Ausdehnung landwirtschaftlicher Produktionsflächen weiträumig Wärmeinseln geschaffen wurden, in deren Nähe die Messstationen heute deutlich höhere Lufttemperaturen registrieren.“ (Quelle: Uni Erlangen).

In den USA werden die Temperaturmessstationen des amtlichen Wetterdienstes einer unabhängigen Prüfung unterzogen, um deren Eignung, auch vor dem Hintergrund eines WI, zu ermitteln. 2009 fand eine abermalige Überprüfung der Temperaturmessstationen statt. Sage und schreibe ca. 61% der Messstationen zeigten ein Fehlerpotential von >2°C! Für eine Temperaturaussage, die von einer Erhöhung von Zehntel Grad Celsius pro Dekade ausgeht (IPCC-Prognosen), erübrigt sich die Aussage, dass solche Messstationen ungeeignet sind. Von insgesamt 1221 Messstationen, die das USHCN betreibt wurden 1003 überprüft. Es fand also keine Stichprobe, sondern mit 82% eine fast komplette Erfassung statt. Die Abbildung 2 gibt eine Übersicht der auditierten Messstationen und wie deren Bewertung ausfiel.

Abbildung 2 zeigt die Klassifizierung der über die USA verteilten Temperaturmessstationen. Die rote Farbe überwiegt eindeutig, Quelle: (http://www.surfacestations.org/).

Realitätsnahe Temperaturwerte geben Stationen wider, die abseits von Gebäuden, el. Anlagen oder sonstigen aktiven und passiven „Reflektoren“ platziert sind. Bei diesen Stationen fällt auf, dass keine nennenswerte Erwärmung über die letzten Jahrzehnte ausgewiesen wird, sondern lediglich ein schwacher Temperaturanstieg, wie er durch die gesteigerte Sonnenaktivität zum ausgehenden 20. Jahrhundert erklärt wird (Abbildung 3).

 

Abbildung 3 links zeigt die Messstation Orlando/Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als heute. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg über die letzten Jahrzehnte ausweist.

Die vermeintlich starke Erwärmung, besteht demnach aus Asphalt, Autos, Auspufföffnungen, Abfallanlagen, etc. Anhand der Abbildung 4 sind die Auswirkungen der Populationsdichte und der damit verbundenen Ausbreitung urbaner Besiedelung auf die Temperatur zu sehen, bzw. wie die Populationsdichte, also Städte ihr eigenes, deutlich wärmeres Temperaturprofil besitzen, welches mit der Ausbreitung und Technologisierung der Städte mit wächst, was nichts anderes bedeutet, als dass die höheren gemessenen Temperaturen zumindest teilweise auf dem WI beruhen, sowohl in den USA, als auch in Deutschland, wie noch gezeigt werden wird.

 

Abbildung 4 zeigt den WI nach Goodridge 1996 für Kalifornien. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht allein durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, indem sie Feuchtigkeit abgeben und damit Verdunstungskühlung erzeugen, sondern auf den zunehmenden Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt.

Vereinfacht gesagt, tritt folgendes ein, während z.B. vor 100 Jahren eine Messstation noch auf weiter, freier Flur angesiedelt war, wurde diese durch die Ausbreitung der Siedlungen eingeholt und liegt nun mitten in dieser Siedlung und deren Abwärme, was auf die Temperaturen nicht ohne Einwirkung bleiben kann. Ferner weiß jeder, dass es sowohl am Tag, als auch nachts, im Sommer wie im Winter, in Städten wärmer ist, als in der Umgebung. Bereits eine lokale Verschiebung der Messstationen zu städtischen Gebieten, würde also eine statistische Auswirkung in der Art bewirken, dass ein falsches Bild der tatsächlichen Temperaturwerte vorliegt, ein zu hohes. Die folgenden Abbildungen zeigen, wie durch das Aufstellen technischer Anlagen oder Gebäuden, der Temperaturgang der Messstation verfälscht wird und daher unbrauchbar für eine Langfristmittelwertaussage ist.

 

Abbildung 5 zeigt eine Temperaturmessstation in Perry, Oklahoma in unmittelbarer Nachbarschaft zur Feuerwehr. Dazu die Infrarotaufnahme, die zeigt, wie die Hauswand auf die Station rückkoppelt.

 

Abbildung 6 zeigt eine Temperaturmessstation in Glenns Ferry, Idaho in unmittelbarer Nähe einer Trafostation. Auch hier entlarvt die IR-Aufnahme, wie stark sich der Trafo erhitzt und auf die Station einwirkt.

 

Abbildung 7 zeigt eine Temperaturmessstation in Lampasas, Texas. Diese wurde in 2000 näher zu einer Radiostation positioniert, wodurch es einen deutlichen Temperatursprung gab (Datenreihe rechts, rote Linie).

Problematisch ist weiter die Tatsache, dass zunehmend Messstationen auf Flughäfen in die Datenfindung einer Mittelwerttemperatur einbezogen werden. Ihr Anteil stieg von wenigen % in den 1930-Jahren auf über 40%. EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/100420_GISS_METAR_DE.pdf). Ein eklatantes Beispiel, über den Wert dieser Messstationen zeigt Ihnen die Abbildung 8. Sie ist jedoch nicht die Ausnahme,  wie wir am Beispiel der Wetterstation auf dem Frankfurter Flughafen zeigen werden.

Abbildung 8 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld.

Es erübrigt sich jeder Kommentar zur Güte dieser Messstation. Auch wenn andere Messstationen auf Flughäfen nicht so eklatant falsch aufgestellt wurden, es bleibt die Tatsache, dass Verkehrsflugzeuge über ihre sehr heißen Abgase aus ihren Triebwerken, ihre nähere Umgebung erwärmen. Je höher das Flugaufkommen und dieses steigt bekanntlich von Jahr zu Jahr (von kleinen Rückgängen in Wirtschaftskrisen abgesehen), desto mehr Flugbewegungen, desto mehr Abwärme und desto stärkerer Einfluss des WI auf die örtlichen Temperaturen und dies alles vor dem Hintergrund, dass sich der Anteil der Flughafen-Messstationen im Datenerfassungsnetzwerk ständig erhöht und derzeit bei 41% liegt.

Dass der WI nicht auf die USA beschränkt ist, braucht nicht gesondert dargelegt zu werden, da physikalische Auswirkungen überall auf der Welt gleich sind. So zeigt denn die Abbildung 9, die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland (Rheingraben). Deutlich ist erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Die Abbildung zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

  

Abbildung 9 zeigt den WI für Städte in Asien, USA, Europa und für Siedlungen im Rheingraben, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003.

In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen (Abbildung 10). Bei Änderungen von geringen Bevölkerungsdichten ist der WI proportional am stärksten, d.h. hier tritt die größte Erwärmung in Relation zur prozentualen Veränderung der Bevölkerungsdichte auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren prozentualen Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Aspekt, warum die gemessenen Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts zunahmen.

  

Abbildung 10 zeigt den WI-Temperaturantrieb in Abhängigkeit der Bevölkerungszunahme. Die Beziehung ist nicht linear, unterhalb von 1.500 Einwohner/km2 ist der WI-Anstieg ganz besonders ausgeprägt.

Wie sieht es nun mit dem WI in unserem Land aus? Nach unserem Kenntnisstand misst der DWD an 531 Stationen Lufttemperatur und- feuchte. Von den 531 Stationen sind die meisten sog. nebenamtliche Stationen, die nicht von DWD-Personal betreut werden.  Der DWD gibt auf seiner Internetseite an, dass das Hauptamtliche Netz aus 182 Wetterwarten und Wetterstationen, 48 davon 24-stündig mit Personal besetzte Wetterwarten, darunter 16 Flugwetterwarten an internationalen Verkehrsflughäfen, 28 davon zeitweise mit Personal besetzte Wetterwarten, 106 davon vollautomatische hauptamtliche Wetterstationen incl. zwei unbemannte Feuerschiffe, zwei Leuchttürme und drei Bojen/Baken besteht (Stand: 10.06.2010). Abbildung 11 zeigt die Übersicht.

 

Abbildung 11 (Quelle: DWD) zeigt Lage und Art des Hauptamtlichen DWD-Messnetzes.

Sind alle Messstationen des DWD so aufgestellt, wie die Messstation in Abbildung 12, so wäre der WI sicherlich nur ein untergeordneter Parameter in Deutschland zur vergleichenden Temperaturaussage, sofern sich am Landschaftsbild nichts änderte. D.h. keine Waldrodung, bzw. Trockenlegung von Wiesen für Ackerland stattfand, da bekannt ist, dass Wald und Feuchtgebiete viel Wasser an ihre Umgebung abgeben und durch die dabei entstehende Verdunstungskühlung (Prinzip einer Klimaanlage) mildernd auf das Temperaturprofil wird. So stieg z.B. durch die weiträumige Trockenlegung des Rheingrabens um Karlsruhe das Temperaturprofil vergleichsweise stark an, was auf diesen Effekt, zumindest teilweise, zurückzuführen ist.

 

Abbildung 12 zeigt Lage und autom. Messstation des DWD in Lügde-Paenbruch.

Es braucht jedoch nicht lange gesucht zu werden, um eine gänzlich ungeeignete Messstation zur Mittelwertangabe der Temperaturen zu finden. Dies ist die im April 2009 (kein Aprilsscherz) in Betrieb genommene Wetterstation in Offenbach, Abbildung 13.

Abbildung 13 zeigt die DWD Wetterstation in Offenbach am Tag ihrer Einweihung. Gut zu sehen, dass sie in Mitten einer Häuserfront liegt, die aus einer dunklen Betäfelung besteht (also sehr wärmeabstrahlend ist – „Schwarzkörper“) und darüber hinaus noch gegenüber einer wärmeverspiegelten Glasfläche liegt. Dazu noch unter einer Betonüberdachung, die die Hitze staut. Diese Messstation taugt weder für eine Temperaturaussage, noch für eine sachgerechte Mittelwertbildung. Weiter ist es schon eigenartig, dass eine solche Messstation, die nur ein stark überhöhtes Temperaturprofil ausweisen kann, gerade im Kopenhagen-Jahr 2009 in Betrieb genommen wurde. Wir erinnern uns noch an die vollmundige Aussage von Prof. Rahmstorf und Kollegen, dass 2009 das zweitwärmste Jahr seit mehr als 130 Jahren gewesen sein soll. Sollten in die Berechnung Ergebnisse wie von dieser Station eingeflossen sein?

Die nächsten Abschnitte werden aufzeigen, dass der WI, den der DWD in seinen Mittelwerten der Temperatur weitgehend nicht berücksichtigt, also unbeachtet lässt, auch in Deutschland keine vernachlässigbare Größe darstellt. In persönlichen Mails (an Herrn Kowatsch), räumt der DWD für Städte wie Frankfurt zwar einen WI-Antrieb von 1°C ein, geht aber davon aus, dass dieser in der Fläche umgerechnet nicht mehr als 0,1°C liegt, was, wie gezeigt wird, eine Falschaussage ist.

Herr Müller-Westermeier vom DWD, Zitat: “Natürlich gibt es einen Wärmeinseleffekt in großen Städten. Er kann dort im Mittel auch etwa 1 Grad ausmachen.  In Anbetracht des auch in Deutschland geringen Anteils dicht bebauter Gebiete an der Gesamtfläche ist das aber weniger als 0,1 Grad. Dieser Effekt ist auch nicht neu und hat sich in den letzten Jahrzehnten kaum verändert, so dass der  Wärmeinseleffekt für irgendwelche Temperaturveränderungen in den letzten Jahren völlig ohne Belang ist.“ Zitat Ende.

Auf den Nenner gebracht, ist der WI die Aufheizung der Umgebung durch den Menschen. Feiner ausgedrückt durch sozio-ökonomische Einflüsse. Wie die Abbildung 9 zeigt, tritt er global auf und verursacht regional erhebliche Verzerrungen im Temperaturprofil und wirkt somit statistisch global als eine deutliche Erwärmung. Er ist keine allgemeine Temperaturerwärmung durch klimatische Veränderungen, sondern eine Zusatzerwärmung der Orte, die durch den Menschen besiedelt wurden. Die Auswirkungen der Zivilisation, wie Landschaftsveränderung und Technologisierung spielen dabei dominante Rollen. Er ist dem natürlichen Klimatrend überlagert und schwächt Kälteperioden ab, bzw. verstärkt Wärmeperioden. In beiden Fällen verfälscht er statistische Vergleiche, insbesondere, wenn vermehrt Stationen in städtischen Gebieten verwendet werden, erheblich. Siehe http://www.eike-klima-energie.eu/news-anzeige/cimategate-update-12-cru-jones-gibt-zu-nur-10-bis-20-der-weltflaeche-zeigten-erwaermung/?tx_ttnews[cat]=1&tx_ttnews[pS]=1262300400&tx_ttnews[pL]=2678399&tx_ttnews[arc]=1&tx_ttnews[pointer]=1 oder hier http://www.eike-klima-energie.eu/news-anzeige/in-erwartung-eines-us-amerikanischen-temperatur-gate/?tx_ttnews[cat]=1&tx_ttnews[pS]=1264978800&tx_ttnews[pL]=2419199&tx_ttnews[arc]=1

In den Städten ist der WI-Wert am größten (der DWD räumt, wie bereits erwähnt, in Städten 1°C ein, Mail an Herrn Kowatsch), auf dem Lande ist der WI kleiner, aber vorhanden. Die Wetterstationen messen diese Zusatzerwärmung zwangsläufig automatisch mit, vor allem, weil sie sich oft in bebauten Gebieten befinden. Da der WI keine sprunghafte, sich plötzlich ändernde Größe darstellt, wie z.B. Wetterereignisse, wird sein Einfluss nicht wahrgenommen und unterschätzt, was jedoch nicht als Entschuldigung für den DWD gesehen werden kann, den WI zu nicht zu berücksichtigen, wie wir noch zeigen werden.

Ein Beispiel vorweg: Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9 Grad, bei der Ostalbwetterwarte in Neresheim im Süden Deutschlands nur 8,1 Grad, obwohl sich diese Station nicht außerhalb von Neresheim, sondern in einer Siedlung und dort an einem Südhang befindet. Ein Unterschied in den Mitteltemperaturen von fast 4°C, der durch die Insellage Großbritanniens und damit milde Winter allein nicht erklärbar ist, aber vor dem Hintergrund des WI in Städten und im speziellen auf Großflughäfen, wie wir noch zeigen werden. Wem die Ostalbwetterwarte zu speziell ist, in 2009 lag die Mitteltemperatur in Deutschland bei 9,2°C, was immer noch einen Unterschied von fast 3°C ausmacht. Worauf dieser große Unterschied wesentlich beruht, werden wir unter “Temperaturmessstationen auf Großflughäfen“ (Kapitel 2) zeigen. Übrigens lag laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Dieser Differenzwert von ca. 2 ½ °C wird uns auch noch später, beim Flughafen Frankfurt Rhein-Main begegnen.

Dass Messdaten nicht WI-bereinigt werden, liegt nicht daran, dass es hierzu keine Verfahren gibt. Es gibt einfache Verfahren zur ungefähren Bestimmung des WI, die jeder selbst vornehmen kann. Jedoch gehört zu Ihrer Anwendung die genaue Kenntnis der Metadaten über der Zeit. Außerdem wurde bis heute kein standardisiertes, überall akzeptiertes und damit breit anwendbares Verfahren dafür entwickelt.

Beispiel (durchgeführt von Herrn Kowatsch):

Gemessen wird die Temperatur auf dem Schulhof nach einem vergleichbaren Verfahren. Die Schule selbst liegt am Ortsrand der Gemeinde Abtsgmünd. Anschließend begibt man sich mindestens 100 m entfernt auf eine Wiese, 10 Messungen ergeben den Durchschnittswert des WI für diesen Punkt, an diesem Tag und bei diesen bestimmten Tageswetterbedingungen. Die Messungen wurden ab Anfang Juni 2010 durchgeführt. Der Schulhof war stets wärmer als die Temperaturen 1m über dem Wiesengras. Stets konnte ein Durchschnitts-Wert für den WI bestimmt werden, der in der Größenordnung von einem Grad lag!

Korrekturverfahren für den WI werden jedoch bei den Wetterstationen selbst meist nicht angewendet. So kann es nicht verwundern, dass die einzelnen Leiter der Wetterstationen den speziellen Wärmeinseleffekt ihrer Station gar nicht kennen. Deshalb werden grundsätzlich die gemessenen Temperaturen ohne Korrekturen nach Offenbach zur Zentrale des Deutschen Wetterdienstes (DWD) weitergegeben und daraus die Mittelwerte für Deutschland errechnet. Und es ist leider nicht so, dass alle Stationen des DWD so aufgestellt sind, dass sie nicht durch WI-Fehler behaftet sind.

Der DWD geht bei der Aufstellung und Betrieb seiner Messstationen von folgenden Aufstelldingungen aus:

·   Die Hütte/Screen stehe unbeschattet auf dem Messfeld

·   Sie stehe in beachtlichem Abstand von Bäumen, Hecken und Gebäuden oder sonstigen Hindernissen (allg. Regel: Hindernisentfernung größer als zweifache Hindernishöhe)

·   Bei DWD-Messnetzen besteht die Forderung, dass die Messfühler sich in 2 m Höhe über dem Boden befinden. International üblich sind aber auch: 1,5 bis 2 m, z.B. bei der  “französischen Hütte“

·   Die Türöffnung der Messhütte weise nach Norden

·   Der Tritt vor der Hütte hat zur Vermeidung von unerwünschten Erschütterungen keinen Kontakt zum Aufbau (Gestell) der Thermometerhütte

·   Es hat keine (unbekannte) Ortsveränderung über die Zeit stattgefunden

·   Im Detail gelten die allgemeinen Aufstellbedingungen und Fehlerklassifizierungen des US Climate Reference Network Rating Guide

Wie sieht nun die Realität aus? Von den von uns überprüften DWD-Wetterstationen, sind für eine statistische Temperaturvergleichsmessung ca. 40% nicht geeignet. Insgesamt wurden 130 Stationen nach folgenden Kriterien überprüft, wobei mehrere hundert Photos ausgewertet wurden:

·         Zu nahe an Gebäuen, also reflektierenden Flächen. Als „Faustformel“ gilt der doppelte Abstand der Messstation zur Gebäudehöhe (siehe oben)

·         Verkehrsaufkommen, oder Parkplätze in unmittelbarer Nähe (Abwärme)

·         Messstation in bevorzugt warmen Gebieten (z.B. Innenstadt)

·         Messstation am Oberrand eines Steilhanges mit Sonnenlage (Aufwärme/Thermik verfälscht Ergebnis)

·         Messstation wird abgeschattet. Befindet sich nicht auf freiem Gelände

Hier fünf Beispiele nicht geeigneter Stationen für eine statistische Zeitreihenbetrachtung.

Welche Faktoren bestimmen den WI? Wärmeabstrahlende technische Systeme wurden bereits gezeigt (Abbildung 5 – 7).

Allgemeine Gründe sind die Zunahme der Bevölkerung, die Zunahme des Wohlstandes und die damit bedingte zunehmende Bebauung und die Zunahme des Energieverbrauchs. Hier im Einzelnen:

1)  Bebauung durch Gebäude und Versiegelung der Landschaft

  

Abbildung 19 zeigt den Tagesgang der Temperatur an einem sommerlichen Strahlungstag in Bodenhöhe für verschiedene Böden, nach Fezer 1975. Es fällt nicht nur auf, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, dass auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen liegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich. Die Gründe hierfür sind vielfältig:

–  Im Sommer speichert der verwendete Feststoff die tagsüber von der Sonne eingestrahlte  Wärme (spezifische Wärmekapazität der Stoffe) und gibt sie nachts ab, die Bebauung erwärmt somit die Umgebung.

–  Wenn es regnet, fließt Regenwasser sofort ab und erzeugt keine Verdunstungskälte.

–  Bäume und Pflanzen, die vor der Versiegelung der Landschaft angesiedelt waren, haben einen erheblichen Teil der Sonnenstrahlung für ihre Fotosynthese verwendet. Nur ein Teil der Sonnenstrahlung erreichte den Boden. Die Sonnenstrahlung wurde abgefangen, und in chemischer Form in den Pflanzen gespeichert. Die Versiegelung der Landschaft hält weltweit an, bedingt durch die Bevölkerungszunahme.

–  Zunahme des Wohlstandes in Teilen der Welt, vor allem auf der Nordhalbkugel.

Je weiter ein Land im Norden liegt, desto größer ist der Energieanteil, der zur Heizung benötigt wird. Deshalb steigt auch der Wärmeinseleffekt der Siedlungen, je weiter man nach Norden kommt. Dies ist sicherlich ein Aspekt, warum die gemessene globale Erwärmung umso größer ist, je weiter man nach Norden kommt. Über weitere Gründe der „Norderwärmung“ hat EIKE bereits berichtet (http://www.eike-klima-energie.eu/klima-anzeige/giss-streicht-temperaturdaten-aus-der-arktis-und-daten-der-wassertemperatur-in-den-suedlichen-ozeanen-um-die-antarktis/?tx_ttnews[pointer]=3)

2) Umwandlung natürlicher Feucht- und Waldgebiete in Nutzflächen.

Auch die freie, unbebaute Landschaft hat gegenüber dem Deutschland vor 100 Jahren eine Erwärmung erfahren, die auf dem WI beruht. Es handelt sich dabei nicht um eine statistische Umlegung des WI aus der Bebauung auf die Gesamtfläche des Landes,  wie der Deutsche Wetterdienst dies per Mail darlegt und eine genannte Schätzung von 0,1°C WI in der Gesamtfläche abgibt, sondern um einen realen, basierend auf Landschaftsumgestaltung, Wärmeinseleffekt.

Besonders wird dies im Rheingraben sichtbar. In den letzten 50 Jahren wurden Flussauen und Feuchtwiesen trockengelegt, wodurch z.B. die Herbstnebeltage verschwanden und der der Sonnenschein dadurch automatisch zunahm. Die Bebauung hat sich zudem in den letzten 50 Jahren verdreifacht. Über den größeren WI nimmt die Zahl der heißen Tage (Sommertage, >25°C) in direkter Abhängigkeit zu. Ein weiteres Gebiet ist die Bodenseeregion, die touristisch erschlossen wurde und ebenfalls landwirtschaftlich großflächig genutzt wird. Nach den geschilderten Prämissen sollte sich in beiden Regionen ein vergleichsweise großer WI in der Fläche zeigen, was auch der Fall ist, wie Abbildung 20 belegt.

  

Abbildung 20 zeigt die Änderung in der Zahl der Sommertage in Baden-Württemberg, Quelle: “Klimawandel in Baden-Württemberg, Fakten – Folgen – Perspektiven“ (2010), Ministerium für Umwelt, Naturschutz und Verkehr, nach den Daten des Instituts für Meteorologie und Klimaforschung, Karlsruhe. Deutlich ist zu sehen, dass exakt in den Regionen, in denen eine große Landschaftsveränderung (großflächige Trockenlegung, Bebauung, etc.) vorgenommen wurde und damit ein hoher WI entstand, die prozentuale Änderung wegen des WI besonders stark ausfällt.

So speichern mehrjährige Pflanzen durch ihr tiefes und ausgedehntes Wurzelwerk bis zu 5-mal mehr Regenwasser (S.d.W. 11/07, “Erde und Umwelt“) als Nutzpflanzen wie Weizen, Mais, etc. Die entsprechenden Flächen (in Deutschland betrifft dies etwa 50% der gesamten Landesfläche) können also im Minimum nur noch 1/5 der üblichen Wassermenge aufnehmen. Es ist nämlich nicht vorrangig die vielerorts angeprangerte Flächenversiegelung durch Bebauung (beträgt ca. 6% der gesamten Landesfläche in Deutschland), die für das vermehrte Abfließen des Regenwassers verantwortlich ist!

Die Auswirkungen, die die Abholzung auf den Wasserhaushalt und damit auf den Feuchtegehalt der Atmosphäre und damit wiederum auf Niederschläge hat, wird an folgendem Beispiel des Instituts für Angewandte Geologie der Uni Erlangen transparent: “Der beträchtliche Wasserumsatz aufgrund der pflanzlichen Transpiration wird durch folgende Werte verdeutlicht: So gibt beispielsweise eine ausgewachsene Sonnenblume pro Tag über 1 Liter Wasser an die Atmosphäre ab. Bei gutem Grundwasseranschluss kann in einem trockenheißen Sommer eine große Birke zwischen 400 und 700 Liter pro Tag verdunsten und eine 100-jährige Buche sogar 9.000 Liter pro Tag. Ein Quadratkilometer Buchenhochwald verdunstet im Sommer jeden Tag etwa 2.000.000 Liter und im gesamten Jahr etwa 360.000.000 Liter. Umgerechnet auf je 100 g Blatt-Trockenmasse benötigt pro Vegetationsperiode eine Tanne 7 Liter Wasser, eine Buche jedoch 74 Liter. Aus den eben genannten Zahlen wird ersichtlich, welch entscheidende Bedeutung die Wälder und hier vor allem die Laubwälder für die Erhaltung eines eingespielten Klimaablaufes besitzen.“ (Quelle: http://www.angewandte-geologie.geol.uni-erlangen.de/klima1.htm).

In den Tropen ist dieser Wert noch höher, so dass durch die Abholzung der Wasserhaushalt aus dem Gleichgewicht gerät und damit auch die Temperaturen verändert werden, was zu regionalen Dürre- und Hitzeperioden führt.

Größere Waldbestände, auch Moore und Sumpfgebiete wirken ausgleichend auf die Temperaturen an der Erdoberfläche, bei einer Verringerung dieser Vegetationsflächen gestaltet sich das Witterungsgeschehen daher extremer.

Der WI der freien Fläche ist demnach eine reale Größe. Er beruht auf Landschaftsumgestaltungen, welche die physikalischen Eigenschaften der Landfläche verändert haben. Die Trockenlegung und Verdichtung der Landschaft von zig-tausenden von km2 in den letzten 100 Jahren in Deutschland, siehe hierzu Spektrum der Wissenschaft, 08/06, S. 80, “Schwerlast auf dem Acker“ als entscheidenden Faktor.

Abbildung 21 (Quelle: Spektrum der Wissenschaft, 08/06, “Schwerlast auf dem Acker“) zeigt die Faktoren der Bodenverdichtung. Wortlaut S.d.W.: Einst erstklassige Ackerböden lassen heute pro Zeiteinheit höchstens noch ein Zehntel bis Hundertstel der Wassermenge versickern, die in einem ursprünglichen, lockeren Waldboden versickern würde. Selbst ein Tausendstel kommt vor.“ Der große Rest fließt ab! Er geht der Wärmeregulierung verloren.

Durch das schnellere Abfließen des Oberflächenwassers wird die Verdunstung in der freien Fläche entscheidend verringert. Feuchtwiesen, Tümpel, Weiher, Moore und nasse Talauen wurden in bäuerliche Leistungswiesen und Ackerland umgewandelt. Eine Trockenwiese heizt sich schneller auf als die zuvor dagewesene Feuchtwiese. Die Austrocknung des Waldes erfolgt von unten, nicht von oben.

Dieser Wärmeinseleffekt der freien Fläche wurde unseres Wissens bislang in der Literatur noch nirgends beschrieben oder berücksichtigt. Er ist jedoch, aus den bereits genannten Gründen, als nicht unerheblich einzustufen. In den letzten hundert Jahren ist die Weltbevölkerung von 1 auf ca. 6,7 Milliarden gestiegen. Die damit verbundene Versiegelung des Bodens behindert den Wärmetransport durch Verdunstung in die Atmosphäre. Das hat natürlich Auswirkung auf das regionale Klima und unter Umständen auch global, wenn man an die Rodung von Regenwäldern denkt.

Regionale Auswirkungen:

–  Durch das entzogene Wasser wurde die Verdunstungskühlung erniedrigt.

–  Die Nebeltage wurden weniger. Aus der feuchten Fläche bildete sich der Frühnebel, im Herbst. Vor allem im November waren die Talauen oft tagelang zu und die Sonnenstrahlung wurde wieder reflektiert. Weniger Sonne erreichte den Erdboden. In den letzten 10 Jahren sind aus meinem Heimatort (Kowatsch) die Nebeltage nahezu ganz verschwunden. Selbst im November lösen sich die Nebel spätestens am Nachmittag meist auf.

Vor diesem Hintergrund ist die Temperaturzeitreihe des DWD für Deutschland zu betrachten, Abbildung 22.

  

Abbildung 22 zeigt den Temperaturgang der Jahresmittelwerte*) in Deutschland von 1999  2009, Datenquelle: DWD. Dazu den 3-Jahres-Trend und den Dekadenmittelwert. Von einer Erwärmung in Deutschland ist nun wahrlich nichts zu sehen. Gleich viele Werte liegen unter, bzw. auf der Mittelwertlinie, wie über ihr. Derzeit fallen die Temperaturen und liegen unterhalb der Dekadenmittellinie, was auch für 2010 so bleiben wird. Nach den Temperaturzeitreihen des DWD ist es in Deutschland seit 10 Jahren um 0,7°C kälter geworden, gegenüber dem Maximalwert in 2000. Gegenüber dem Trend um gut 0,3°C. Anhand der Abbildung 3 (Teil 2, folgt in Kürze), die die Monatsmittelwerte bis August 2010 zum Vergleich 2009 zeigt, wird ersichtlich, dass in 2010 die Temperaturen weiter fallen werden!

*) Wir haben die Absolutwerte und nicht die Schwankungswerte, also die Anomalien dargestellt, weil wir uns an die Darstellung des DWD in seinen Jahresberichten halten möchten (siehe Abbildung 23 und 24), der ebenfalls die Absolutwerte wiedergibt.

Abbildung 22 zeigt weiter, dass ausgerechnet zum IPCC-Jahr 2007, als das IPCC politik- und medienwirksam seinen AR4 präsentierte, sich in Deutschland die Temperaturen von der globalen Temperaturentwicklung abkoppeln, siehe Abbildung 26, Teil 2. Während in 2006 und 2007 global die Temperaturen deutlich fallen, stiegen diese hingegen in Deutschland stark an. Gegenwärtig liegen die Deutschland-Temperaturen wieder auf dem Niveau der IPCC-Vorjahre. Erklären können wir Ihnen diese Diskrepanz zu den globalen Temperaturwerten nicht, da wir nicht wissen, welche Messstationen der DWD für die einzelnen Jahre zur Mittelwertbewertung herangezogen hat und welche Algorithmen er jeweils dabei verwendete.

In 2007 waren die Informationsaussagen des DWD erklärungsbedürftig. So veröffentlichte er in seinem Jahresbericht 2006, welcher im April 2007 (kurz nach dem AR4 oder sollen wir sagen, passend zum AR4) präsentiert wurde, auf dem Titelblatt die folgende Abbildung.

  undefined

Abbildung 23 (Quelle: Jahresbericht 2006, DWD, Deckblatt) zeigt Deutschland, davor eine Temperaturkurve, die zur Gegenwart hin plötzlich sehr stark ansteigt und bei dem Temperaturwert von 12,0°C verharrt. Anmerkung: wie sich die Temperaturen in der Realität entwickelten, zeigt Abbildung 22. Die erklärungsbedürftige Abbildung vom Deckblatt wird im Jahresbericht an keiner Stelle auch nur ansatzweise kommentiert, nicht einmal erwähnt! Beim Betrachter wird indes leicht der Eindruck erweckt, dass die Temperaturen in Deutschland dabei sind, alle Rekorde zu brechen, was, wie die Abbildung 22 belegt, gegenteilig der Fall ist. Im Jahresbericht 2006 findet sich auf Seite 5 dann die korrekte und auch beschriebene Zeitreihe, die allerdings längst nicht so spektakulär aussieht (Abbildung 24).

  

Abbildung 24 zeigt die Jahresmittelwerttemperatur*) in Deutschland von 1900 – 2006, Quelle: Jahresbericht 2006, DWD, Seite 5. 2006 lag die Temperatur im Mittel bei 9,5°C und damit 1,3K über dem klimatologischen Referenzzeitraum 1961 – 1990 von 8,2°C, wobei dieser Durchschnitt in einer Kälteperiode liegt (wir erinnern uns noch an die Aussagen aus Politik und Wissenschaft zur bevorstehenden Eiszeit in den 1970-Jahren) und damit vergleichsweise niedrige Referenzwerte liefert. Das Chart sieht lange nicht so spektakulär aus, wie Abbildung 23 (unkommentiert!) vom Titelblatt. Der Wert von 9,5°C deckt sich mit den Werten, die der DWD uns zur Verfügung stellte.

*) Die Kurve ist hinsichtlich der Absolutwerte wenig aussagefähig, da Deutschland heute andere Grenzen als 1900 hat (in der Fläche noch die Hälfte), Messorte sich änderten, der Wärmeinseleffekt einfließt u.v.m. Vor 1900 wurde darüber hinaus in Süddeutschland nicht nach Celsius, sondern nach Réamur gemessen.

Als kleiner „Nachhilfeunterricht“ für den DWD haben wir die AMO-Zeitreihe (Atlantik Multidekaden Oszillation – gibt die Oberflächentemperatur im Nordatlantik wieder) von 1880 – 2000 hinzugefügt. Werden nun deren Schwankungen mit dem polynomischen Trend verglichen, den der DWD in seiner Abbildung zeigt, wird deutlich, dass dieser im Gleichklang mit der natürlichen AMO, die von der Sonne moderiert wird, ist. Fällt die AMO, so dreht der polynomische Trend und wird negativ. Steigt hingegen die AMO wieder an, dreht der polynomische Trend erneut und wird positiv.

Es kann nun wirklich nicht verwundern, dass in Deutschland die Temperaturen von der Windströmung abhängen, insbesondere von der Westwindströmung vom Atlantik. Abbildung 25 zeigt deutlich, warum die Temperaturen in Deutschland in den 1970-Jahren zu steigen begannen.

  

Abbildung 25, Quelle: Sächsisches Landesamt für Umwelt und Geologie, zeigt die West-Wetterlagen im Sommer- und Winterhalbjahr im Zeitraum von 1881 – 2000. Deutlich ist zu erkennen, dass seit Beginn der 1970-Jahre die West-Wetterlagen im Winter stark zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Zunahme der West-Wetterlagen im Winter und Abnahme der West-Wetterlagen im Sommer bewirken, dass in Deutschland die Temperaturen steigen. Im Winterhalbjahr mildere Winter und im Sommerhalbjahr mehr Sonne, wie Abbildung 26 zeigt.

  

Abbildung 26 zeigt die mittlere Sonnenscheindauer in der alpinen Region, Quelle: (http://mitglied.multimania.de/nature2000/wkr128.htm). Der polynomische Trend stimmt mit dem der Abbildung 24 überein. Die Sonnenscheindauer begann in den 1970-Jahren zuzunehmen, bis zum Beginn des 21. Jahrhunderts, parallel zur Erwärmungsphase. Seitdem fällt die Sonnenscheindauer und es wird wieder kälter. Eigentlich triviale Zusammenhänge, die dem DWD offensichtlich als Erklärung des gegenwärtigen Temperaturniveaus nicht einfallen. Auch hier haben wir zum Vergleich die Zeitreihe der AMO, diesmal in feinerer Auflösung (Quelle: http://www.cdc.noaa.gov/Correlation/amon.us.long.data) angeführt. Es fällt auf, dass jeweils die minimale Sonnenscheindauer (Minwert des dynamischen Trends) exakt mitten in der AMO-Kaltphase liegt und der Maxwert mitten in der AMO-Warmphase! Darüber hinaus wird eine Periodendauer von ca. 69 Jahren ersichtlich. Diese Periodendauer stammt von der Sonne und wurde von dem Astrophysiker Dr. Landscheidt beschrieben. Sie basiert auf Drehimpulsänderungen (Bahndrehimpuls und Eigendrehimpuls) der Sonne, wodurch deren magnetische Aktivität (mit) gesteuert wird. Eine Vertiefung des Themas würde an dieser Stelle zu weit führen.

Nach diesem kleinen Exkurs und „Nachhilfeunterricht“ für den DWD, was unser Wetter und die AMO lenkt, zurück zum Wärmeinseleffekt, der von verschiedenen Faktoren, von denen wir bereits einige aufzählten, abhängt.

3) Anstieg des Energie- und Stromverbrauchs

–  Die Anzahl der elektrischen Verbraucher in- und außerhalb der Gebäude hat sich in den letzten 50 Jahren ständig erhöht.

–  Europa ist heller geworden. Aufgrund des Wohlstandes hat die Anzahl der Beleuchtungsquellen zugenommen, was beispielsweise aus dem Weltall gut erkennbar ist (Abbildung 1). Die Anzahl der Beleuchtungskörper und Straßenbeleuchtungen hat sich dabei in den letzten 40 Jahren vervielfacht. Jeder Beleuchtungskörper gibt Wärme an die Umgebung ab. Für das Ausgangsjahr der Temperaturzeitreihe, 1880 ist die Stromerzeugung mit Null ansetzen, also auch kein WI-Effekt vorhanden. Das gleiche gilt für die anfallende Abwärme im Straßenverkehr.

–  Die Zunahme der Industrialisierung: Jeder Arbeitsprozess verschlingt Energie und erzeugt Wärmeabgabe.

Um Missverständnissen vorzubeugen. Hier geht es nicht darum, die Menschheit auf den Stand des 19. Jahrhunderts zurückzuwerfen, wie dies einige militante Klimaalarmisten mit sich tragen, sondern darum, aufzuzeigen, dass es nicht statthaft ist, unkommentiert Wetterdaten von vor hundert Jahren, mit denen von heute zu vergleichen.

Aus den genannten Gründen ist abzuleiten, dass der WI sich nicht auf Großstädte  beschränkt wie der Deutsche Wetterdienst behauptet, sondern generell bei Messergebnissen zu berücksichtigen ist.

Eine wertvolle Arbeit zur Erfassung des WI in Mitteleuropa und somit auch in Deutschland hat unlängst der renommierte Professor für Meteorologie und Klimatologie, Horst Malberg in der “Berliner Wetterkarte“ (http://www.berliner-wetterkarte.de/) veröffentlicht, “Über scheinbare und tatsächliche Klimaerwärmung seit 1850“. Anhand von Vergleichen am Regressionsparameter, also dem Temperaturanstieg von einer Dekade zur nächsten, von 5 Messstationen (Hochenpeißenberg, Berlin-Dahlem, Prag, Basel und Wien) ermittelte er den WI. Die Station Hochenpeißenberg, auf einer Höhe von 1.000m diente dabei als Referenzstation.

  

Abbildung 27 (Quelle: Prof. Malberg) zeigt den Temperaturanstieg an 5 Temperaturmessstationen in Europa von 1851 – 2000, dem Jahr, als in Deutschland nach Angaben des DWD die höchsten Temperaturen im Betrachtungszeitraum auftraten. Wie gesehen, fallen seitdem die Temperaturen deutlich.

Während die Referenzstation Hohenpeißenberg (Hpbg) einen Anstieg von +0,76°C seit dem Ende der “Kleinen Eiszeit“, der kältesten Periode der letzten 2.000 Jahre, ausweist, liegt der Temperaturanstieg in den Städten zum Teil deutlich höher. In Basel beträgt er +1,58°C. Prof. Malberg: “Diese unterschiedliche Erwärmung innerhalb eines Klimabereichs lässt sich nicht mit den Auswirkungen eines übergeordneten Klimaantriebs erklären. Es ist die lokale Situation, es ist der Wärmeinsel-Effekt der wachsenden Städte, der die natürliche globale/regionale Erwärmung „anthropogen“ verstärkt hat. Damit täuschen die Temperaturreihen eine Erwärmung vor, die z. T. deutlich über der natürlichen Klimaerwärmung seit 1850 liegt.“

Wie wir Ihnen anhand des Teil 2 zeigen werden, liegt der WI noch höher, da zunehmend Temperaturstationen auf Flughäfen in die Datenreihen einfließen.

Fazit:

Der Wärmeinseleffekt (WI) steigt ständig mit der Veränderung der Landschaft und der Gesellschaft. Die Temperaturmessstationen des DWD sind für eine vergleichende Temperaturaussage zum Großteil nur bedingt, bzw. nicht geeignet, da der DWD zum einen, seine eigenen Vorgaben zum Betrieb und Aufstellung von Messhütten nicht einhält und zum anderen, der DWD den vorhandenen Wärmeinseleffekt, der für den derzeit noch höheren Temperaturwert im Vergleich zum Langfristmittel verantwortlich ist, weitgehend unberücksichtigt lässt.

Teil 2 in Kürze

Josef Kowatsch

Raimund Leistenschneider – EIKE