Wärmstes Jahr 2010, aber nicht in Deutschland, auch nicht in Europa, nicht auf den Weltmeeren, …, wo denn eigentlich?

“2010 ist das wärmste Jahr in der Geschichte“, so die WMO am 20.01.2011 in Genf. Welcher Geschichte? Die Geschichte der manipulierten Temperaturreihen, wie sie Ende 2009 der Welt durch Climategate bekannt und karikativ wie folgt aufgegriffen wurde (Abbildung 1).

 

Abbildung 1 zeigt, wie der Erwärmungstrend aus Sicht des Karikaturisten zustande kommt. Wir wollen uns jedoch nach wissenschaftlichen Belegen ausrichten.

Bereits in meinem EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1 hatte ich aufgezeigt, dass es für die Aussage der WMO keine belastbaren Belege gibt und durch Vergleiche mit dem Hadley-Center und der Satellitenwerte (UAH), die WMO und die GISS-Datenreihe, ich drücke es einmal so aus, erklärungsbedürftig sind. Daher nochmals, die auf Satellitenmessungen basierte globale Temperaturdatenreihe, aus der eindeutig hervorgeht, dass 2010 nicht das wärmste Jahr war.

 

Abbildung 2 zeigt die Globaltemperaturen im Zeitraum 1979 – 2010 (Stand 05. Januar 2011, Quelle: http://www.climate4you.com/GlobalTemperatures.htm). Beide Temperaturspitzen, die zum Jahreswechsel 2009/2010 und 1997/1998 sind El Niño-basiert, wie ich in meinem o.g. Artikel bereits nachwies. In meinem EIKE-Artikel “La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld“ weise ich darüber hinaus nach, durch was sie wann ausgelöst werden.

Das etwas mit der Aussage vom wärmsten Jahr 2010 nicht stimmen kann, wurde uns allen bereits zu Beginn des Jahres klar, als die gesamte nördliche Halbkugel, bis nach Spanien, von einer weithin geschlossenen Schneedecke bedeckt war. Weiter lag die Maitemperatur um 3°C niedriger als der Durchschnitt der letzten 10 Jahre, zumindest in Deutschland. Die Vegetation hinkte um Wochen hinterher, wie Abbildung 3 zeigt.

 

Abbildung 3: In der freien Fläche Deutschlands waren Ende Mai 2010 noch viele Bäume ohne vollen Blattaustrieb. Die Abbildung zeigt die ländliche Gegend um Ellwangen im Ostalbkreis, Ende Mai 2010.  Der Mai 2010 war einer der kältesten in den letzten 100 Jahren, wie Abbildung 4 zeigt.

 

Abbildung 4 zeigt die Maitemperatur in Deutschland von 1881 – 2010 nach Daten des DWD. Die Datenreihe zeigt übrigens auch, dass es in den 1930 und 1940-Jahren wärmer war als zum Ausgang des 20. Jahrhunderts. Der Mai 2010 war einer der kältesten im Betrachtungszeitraum und liegt deutlich unter dem Durchschnitt. Nach Auswertung des DWD (er lieferte uns in den Datenreihen die Temperaturabweichungen gleich mit) war der Mai um 1,7°C im Vergleich zum Mittel zu kalt! Der Mittelwert der Maitemperatur lag in diesem Zeitraum bei 12,1°C, rote, waagerechte Linie. Nur wenige Maimonate waren kälter, als 2010.

Der DWD hat jüngst bestätigt, dass das Jahr 2010 in Deutschland mit einer Mitteltemperatur von 7,9°C kälter war, als im Langzeitmittel, dem sog. Klimatologischen Referenzzeitraum. Wird dazu noch der in unserem EIKE-Beitrag http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ berechnete Wärmeinseleffekt berücksichtigt, der die heutigen Vergleichsmesswerte zu wärmeren Temperaturen beeinflusst, ist es gegenwärtig so kalt, wie seit 150 Jahren nicht mehr, dem Ende der “Kleinen Eiszeit“, der kältesten Epoche der letzten 2.000 Jahre, oder wie sich der Leiter der Wetterstation Ostalbwetterwarte ausdrückte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren.“ Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF

Das Ergebnis der WI-bereinigten und damit korrekten Vergleichsmesswerte zeigt Abbildung 5.

 

Abbildung 5 (rote Zeitreihe) zeigt die WI-unbereinigte Temperaturreihe für Deutschland von 1891 – 2010, wie sie vom DWD veröffentlicht wurde und die WI-bereinigte EIKE-Vergleichszeitreihe, die die tatsächlichen Temperaturvergleichswerte angibt (blaue Datenreihe). Die grüne Trendkurve zeigt den ermittelten Wärmeinseleffekt und den möglichen Fehlerbereich. 2010 war im Betrachtungszeitraum eines der vier-kältesten Jahre und der polynomische Trend (blaue Trendlinie) liegt derzeit bei Werten, wie zu Beginn der Temperaturaufzeichnungen, so dass zusammengefasst gesagt werden kann:

Eine Temperaturerhöhung über die letzten 130 Jahre ist in Deutschland nicht nachweisbar. Der (leichte) Erwärmungstrend bis zum Ende des 20. Jahrhunderts ist aufgebraucht. Es wird (leider) wieder kälter.

Wie sieht es mit den letzten 10 Jahren aus, da die WMO in ihrer eingangs erwähnten Mitteilung weiter ausführte, die 10 wärmsten Jahre lägen alle im Zeitraum seit 1998. Hierzu die Datenreihe für Deutschland, nach Daten des DWD, also WI-unbereinigt.

 

Abbildung 6. Anhand der blauen Trendkurve wird deutlich: Wir haben in Deutschland eine Klimaabkühlung seit dem Jahr 2000.

Auch in Europa kann von einem wärmsten Jahr 2010 keine Rede sein, wie Abbildung 7 belegt.

 

Abbildung 7 (http://planetsave.com/2010/12/15/why-is-it-so-cold-in-europe-does-this-mean-global-warming-isnt-real/) zeigt die Temperaturanomalien für Europa in den Jahren von 1950 – 2010. Die Abbildung spricht für sich.

Da auf die Erde die Meersflächen mit über 70% der Fläche dominieren, geben sie einen Hinweis, ob die Meldung der WMO plausibel ist oder ob nicht.

 

Abbildung 8, Quelle: TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317 zeigt nach ARGO-Daten die Oberflächentemperaturen (ARGO ist Teil des globalen Ozeanüberwachungssystems und wurde nach der griechische Argo-Sage, dem gleichnamigen Schiff der Argonauten benannt). In der Arbeit von Trenberth ist bestenfalls von einem gleichbleibendem Niveau der Meerestemperaturen, unter dem von 1998 zu sprechen. Im Spiegel vom 20. Mai 2010 (http://www.spiegel.de/wissenschaft/natur/0,1518,694719,00.html) rätseln die Forscher über die Meereskälte. Auch hier also von einem Rekordjahr weit und breit nichts in Sicht.

Wie kommt nun die WMO zu ihrer Aussage? Die Lösung liegt in dem bereits genannten WI, der die Temperaturen künstlich in die Höhe treibt und der Tatsache, dass mittlerweile 51% aller globalen Temperaturmesswerte von Flughäfen stammen. Siehe hierzu unser EIKE-Artikel http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1) oder http://wattsupwiththat.com/2009/07/15/giss-worlds-airports-continue-to-run-warmer-than-row/ . Weiter befinden sich gegenwärtig 80% aller Messstationen in städtischen Gebieten, die aber nur 3% der Landfläche ausmachen. Von einer objektiven und halbwegs gleichmäßigen Verteilung und Gewichtung der Messstationen kann demnach keine Rede sein. Die folgende Abbildung zeigt, wie sich durch geeignete Auswahl von städtischen Messstationen die Temperaturmittelwerte angehoben wurden, obwohl sich in der Realität nichts änderte.

Abbildung 9 (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf) zeigt, wie parallel durch Auswahl (Weglassen von ländlichen Messstationen) der Stationen die Temperaturen plötzlich zu steigen beginnen.

In 2009 wurde die Anzahl der Messstationen nochmals reduziert, wie die Abbildung 10 am Beispiel der USA zeigt.

 

Abbildung 10, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts, zeigt, wie sich die Anzahl der US-Messstationen in 2009 drastisch verringerte, hin zu städtischen Stationen.

Am Beispiel Kanadas, welches in 2010 Rekordtemperaturen verzeichnen haben soll, wird denn deutlich, wie Reduzierung und Gewichtung die Temperaturen in die gewünschte Richtung lenken.

 

Abbildung 11 zeigt die Erde mit den Temperaturabweichungen nach NOAA für 2010. Man beachte, dass Kanada besonders stark hervorgehoben wird und dort besonders stark in den Polargebieten die Temperatur gestiegen sein soll.

Diese Daten, ihre Plausibilität, werden nun mit den vorhandenen Messstationen verglichen. Hier die Liste der WMO-Temperaturmessstationen in Kanada, aufgelistet nach Ländern.

 

Abbildung 12 oben zeigt die Anzahl der Temperaturmessstationen und welches Gebiet diese abdecken und darunter, Kanada mit seinen Ländern und darin eingezeichnet, dass weite Gebiete (grün) mit Messstationen gar nicht erst erfasst werden, Quelle: Surface Temperature Records: Policy Driven Deception? Joseph D’Aleo and Anthony Watts. Werden diese Gebiete mit den Angaben der NOAA für 2010 in Abbildung 11 verglichen, muss festgestellt werden, dass Temperaturen für große Gebiete ausgewiesen werden, obwohl sich dort überhaupt keine Messstation befindet und, wie sollte es anders sein, Rekordtemperaturen dabei herauskommen. Es werden also Temperaturen sozusagen aus der Glaskugel angegeben. Da verwundert es denn nicht, dass 2010 ein Rekordjahr war, fragt sich denn nur, auf was sich der Rekord bezieht (siehe Anfang unseres Artikels in Bezug zu Climategate). Es erübrigt sich fast zu sagen, dass nach Angaben von D’Aleo und Watts die Anzahl der WMO-Messstationen in Kanada 1088 betrug, anhand der obigen Liste aber nur noch 466 vorhanden sind.

Darüber hinaus haben der DWD und die WMO zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde in Deutschland am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Tabelle zeigt die Temperaturabweichung (nach oben) am Beispiel der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Erfassungsmethode.

 

Allein diese 0,1°C reichen aus, die WMO-Aussage als Falschaussage zu überführen, da der Rechenwert (bei Temperaturmittelwerten handelt es sich grundsätzlich niemals um gemessene, sondern immer um mathematisch behandelte, also gewichtete Werte und es gibt eine Vielzahl verschiedener Rechenmethoden – Algorithmen) zwischen dem angeblich wärmsten Jahr 2010 und dem Drittplatzierten lediglich 0,05°C beträgt.

Bei einem Zusammentreffen solch ungeeigneter Messumgebungen und statistischer Taschenspielertricks, kann es denn nicht verwundern, dass die Temperaturen WI-bedingt immer mehr steigen, obwohl wir doch längst alle bemerkten, dass es deutlich kälter wird.

Zum Abschluss möchten wir Ihnen die aus Eisbohrkerndaten rekonstruierte Temperaturreihe der letzten 10.000 Jahre zeigen, da die WMO nicht versäumte zu melden, dass das arktische Eis (wieder einmal) einer Rekordschmelze entgegen geht.

 

Abbildung 13 (http://joannenova.com.au/2010/02/the-big-picture-65-million-years-of-temperature-swings/) zeigt den Temperaturgang der letzten 10.000 Jahre. Von einem wärmsten Jahr 2010 oder wenigsten einer wärmsten Epoche der letzten 10 Jahre ist dort nichts zu sehen. In der Vergangenheit gab es deutlich wärmere Jahre mit daraus resultierender geringerer Eisbedeckung.

Insgesamt ist das Resümee zu ziehen, dass es sich bei der Aussage der WMO um eine Falschaussage handelt, die anhand ungeeigneter, weil stark WI-belasteter Messstationen zustande kommt, sowie geänderter statistischer Erfassungsmethoden und statistisch geänderter Gewichtung von Messstationen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Weitere Links zum Thema:

http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/




La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld

La Niña, was übersetzt „das Mädchen“ bedeutet und El Niño („der Knabe“), basieren auf einer Änderung der Passatwinde im pazifischen Tropengürtel. Während bei einem El Niño die Passatwinde abflauen und dadurch die Wind- und Wasserzirkulation zusammenbricht, verstärken sich bei einem La Niña die Passatwinde und treiben sozusagen pazifisches Oberflächenwasser vor sich her, wodurch das warme Wasser vor die Küste Indonesiens getrieben wird und kaltes Wasser von der Küste Perus nachströmt. Dieses Wasser ist bis zu 3°C kälter als der Durchschnitt (Langfristmittel). Dies führt zu mehr Niederschlägen im Westpazifik, so auch in Australien. Abbildung 1 zeigt die durch La Niña betroffenen Gebiete.

 

Abbildung 1 zeigt die Einflüsse eines La Niña-Ereignisses und wo dieser Einfluss auftritt, Quelle: (http://www.weatherimages.org/lanina.html). Sehr transparent zu sehen, dass in Brasilien und Australien verstärkte Regenfälle auftreten.

Die Anzahl der La Niña-Ereignisse nahm während der Erwärmungsphase zwischen 1980 und 2000 ab und nimmt seit der eintretenden Kaltphase ab ca. 2005 wieder zu, was, wie noch gezeigt wird, auf die Sonnenaktivität zurückzuführen ist.

 

Abbildung 2 zeigt anhand von Satellitenaufnahmen zwischen dem 14. und 16. Dezember 2010 (http://earthobservatory.nasa.gov/IOTD/view.php?id=48141) die Temperaturanomalien im Pazifik (links) und dazu die Änderungen in der Meeresspiegelhöhe, die der gegenwärtige La Niña verursacht (rechts).

In den Medien werden solche Ereignisse schnell aufgegriffen, um durch Extremdarstellungen Leser/Zuschauer zu binden. Dass Niederschläge für die Natur kein Menetekel, sondern bereichernd sind, zeigt denn die folgende Darstellung der NASA, die ebenfalls unter dem vorherigen Link zu finden ist. Die NASA betitelt ihre Abbildung mit den Worten “Australia Greens After Record Rains“. Das trockene Australien (Australien ist der trockenste Kontinent der Erde) ergrünt also nach den Rekordregenfällen (Abbildung 3).

 

Abbildung 3 zeigt die Vegetationsveränderung laut NASA im australischen Regengebiet. Deutlich ist zu sehen, dass die Natur durch die starken Regenfälle förmlich auflebt.

Die Ursachen für die Hochwasserschäden liegen denn auch weniger in den Naturereignissen selbst, sondern in politischen Versäumnissen vor Ort, wie die Pressemitteilung “Brisbane forgets the lessons of 1974“ (http://www.stuff.co.nz/the-press/news/4540164/Brisbane-forgets-the-lessons-of-1974) zeigt. Der Titel deutet darüber hinaus daraufhin, dass die gegenwärtige Flut kein Einzelfall, oder gar Jahrhundertereignis ist und in der Tat wird dies durch die offizielle Hochwasserstatistik bestätigt (Abbildung 4).

 

Abbildung 4 zeigt die Hochwassersituation in Brisbane von 1840 – Ende 2009. Dazu hat der Autor die Hochwassermarke für die Flutwelle vom Januar 2011 eingezeichnet (rote Linie). Deutlich ist erkennbar, dass in der Vergangenheit deutlich stärkere Hochwasser auftraten. Auch das Hochwasser von 1974 lag höher. Von einem Jahrhunderthochwasser kann also keine Rede sein. Abbildung 5 zeigt den Beleg für die Richtigkeit der roten Linie. Die Hochwassermarke lag bei maximal +4,4m.

 

Abbildung 5 zeigt die Hochwasserwelle in Brisbane mit Maximum am 13. Januar 2011, Quelle: Australian Gouverment Bureau of Meteorology).

In den Medien war weiter zu lesen, dass die heutige La Niña-Phase die stärkste seit 1917 war (http://www.faz.net/s/Rub…). Die Lösung, warum dem so sein könnte, zeigt die Abbildung 6.

 

Abbildung 6 zeigt den Schwabe-Zyklus der Sonne von 1813 – 2010 (Quelle: http://www.vukcevic.co.uk/AmEn.gif) und dazu dessen Hüllkurve, was prinzipiell nichts anderes als der Gleißberg-Zyklus der Sonne ist. Wird auf dieser Hüllkurve der Wert für Ende 2010 (rechte senkrechte, gestrichelte Linie) gesucht und mit dem Wert für 1917 verglichen, so ist festzustellen, dass beide denselben Wert, also dieselbe Sonnenaktivität im Gleißberg-Zyklus haben (grüne waagerechte Linie). Inwieweit dies nun Zufall oder Beleg für den Einfluss der Sonne ist, soll daher näher untersucht werden. Hierzu betrachten wir als erstes den irdischen El Niño/La Niña-Parameter, die ENSO (El Niño und die Southern Oscillation), die eine Schwingung der Meeresoberflächentemperatur im betroffenen pazifischen Gebiet darstellt.

 

Abbildung 7 zeigt die ENSO von 1950 – 2010. Die roten Werte zeigen El Niño-Jahre und die blauen La Niña-Jahre an. Es ist zu sehen, dass sich El Niño und La Niña-Ereignisse ablösen (es sich quasi um Schwingvorgänge handelt) und dass ab 1977 (grüne gestrichelte Linie) El Niño-Ereignisse dominieren, sowie La Niña-Phasen ab ca. 2007 an Stärke wieder zunehmen (wie eingangs beschrieben). In der Kaltphase bis 1977, als Politik und Wissenschaft eine drohende Eiszeit befürchteten, dominierte dagegen La Niña.

Nun gibt es eine Reihe von Untersuchungen, die versuchen, El Niño, bzw. La Niña mit der Sonnenaktivität zu koppeln (um eine bessere Vorhersage zu erzielen), bzw. dem CO2-Anstieg zuzuordnen, um einen anthropogenen Einfluss zu beweisen. Das letztere erspare ich zu widerlegen, da die Zeit dafür zu Schade ist und die Datenreihe der Abbildung 7 bereits anschaulich genug zeigt, dass sie mit einem CO2-Anstieg keine Korrelation aufweist. Wie aber sieht es mit der solaren Aktivität aus.

Meist wird zur Bewertung der Sonnenaktivität die Sonnenfleckenzahl herangezogen. Dies ist besonders dann angebracht, wenn Vergleiche zu früheren Jahrhunderten angestellt werden, da ab dem 17 Jahrhundert verlässliche Beobachtungsdaten vorliegen. Die Sonnenfleckenzahl gibt jedoch nur annähernd die reale Sonnenaktivität wieder. Ein weiterer Parameter ist der sog. TSI (Total Solare Irradiance). Dieser deckt jedoch nur einen eingeschränkten Teilbereich des solaren Energiespektrums ab, den Bereich zwischen 200nm und 2.000nm, von „Total“ kann also keine Rede sein. Besser zur Bewertung der solaren Aktivität eignet sich die direkte magnetische Aktivität der Sonne, siehe hierzu beispielsweise die Arbeit des NASA-Sonnenforschers David Hathaway “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”.

Seit dem Satellitenzeitalter stehen noch weitere Parameter zur Verfügung, die von der Erde aus nicht beobachtbar sind. Ein bedeutsamer Parameter ist die Korona der Sonne, die von der Erde unter natürlichen Bedingungen nur bei einer totalen Sonnenfinsternis zu beobachten ist und die die Atmosphäre der Sonne darstellt. Die Korona, ihr Plasma, ist dabei viel heißer als die mit ca. 5.800 Kelvin heiße Sonnenoberfläche und ihre Daten, lassen sich daher nur aus dem Weltall aufnehmen.

 

Abbildung 8 (Quelle: http://rst.gsfc.nasa.gov/Sect20/A5a.html) zeigt die Korona-Temperatur im Zeitraum von 1991 – 2007. Im solaren Minimum fällt die Koronatemperatur auf „nur“ 1 Million Kelvin, während sie zu Beginn des solaren Maximum plötzlich auf den fast doppelten Wert „eingeschaltet“ wird und diesen bis zum nächsten Minimum beibehält. Was diese plötzliche Zuschaltung, sozusagen den „Turbo“ in der Koronaheizung einschaltet und warum die Sonne im Minimum den Turbo kurz einschaltet (linker roter Pfeil) und im Maximum (rechter roter Pfeil) kurz abschaltet, erkläre und beweise ich Ihnen in meinem nächsten Beitrag. Hier geht es vorrangig darum, wodurch auf der Erde ein El Niño/La Niña-Ereignis ausgelöst wird. Der Autor geht darüber hinaus davon aus, dass es sich beim Verhältnis, welches durch das blaue Quadrat (kurzes Zwischenmaximum bis Anstieg neues Maximum) und dem roten Rechteck (Anstieg neues Maximum und kurzes Zwischenminimum) um eine feste Beziehung handelt, die eine Bewertung des Zyklus hinsichtlich Dauer und Stärke erlaubt. Weiter dürften beide, sowohl kurzes Zwischenmaximum und kurzes Zwischenminimum den exakten Startpunkt des neuen Sonnenzyklus wiedergeben, bzw. das kurze Zwischenminimum, das tatsächliche Sonnenmaximum zeigen. Die letzte Aussage, hinsichtlich des tatsächlichen Zyklusmaximums bestätigt übrigens die vorgenannte Arbeit von David Hathaway, wenn Sie sich dort die Zeitreihen der magnetischen Aktivität ansehen (Abbildungen 1b und 3), wann diese ihr Maximum haben (http://solarscience.msfc.nasa.gov/papers/wilsorm/WilsonHathaway2008a.pdf).

Hat dieses Zuschalten der Koronaturboheizung, die Verdopplung der Koronatemperaturen von 1 Million Kelvin auf 2 Millionen Kelvin Auswirkungen auf das irdische Wetter und hier insbesondere auf El Niño/La Niña-Ereignisse? Hierzu werden die El Niño-Ereignisse in Relation zur Abbildung 8 gesetzt.

 

Abbildung 9. Die Zeitreihe oben zeigt den El Niño 3.4*, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird. Die mittlere Zeitreihe die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Abbildung 8. Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den Sprung der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum.

*El-Niño 3.4-Gebiet

 

Abbildung 10 zeigt die El Niño-Gebiete

Nun lässt sich anhand einer Datenbeziehung kein Korrelationsbeweis führen. Daher sollen alle El Niño-Ereignisse in der Datenreihe El Niño 3.4 aus Abbildung 9 auf Korrelation zur solaren Aktivität überprüft werden. Der Zeitpunkt ab 1981 ist daher so interessant, da von den Vertretern der CO2-basierten Erwärmung um das IPCC die Aussage gemacht wird, dass bis ca. 1980 Sonnenaktivität und Temperatur (weitgehend) synchron laufen, ab 1980 sich die Temperatur aber von der solaren Aktivität abkoppelt. Dass dies, bei allem Respekt, blanker Unsinn ist, zeigt bereits Abbildung 11 und wird in den folgenden Zeilen nachgewiesen.

Abbildung 11 zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum 1984 – 2005. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen, wie sie jüngst wieder medienwirksam veröffentlicht wurden und das Jahr 2010 als wärmstes ausweisen wollen, gefälscht sind, weil die Temperaturreihen nicht zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde, die sich aus ihrer Temperatur ergeben, passen.  Siehe hierzu (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1). Übrigens fordert das Treibhauspostulat, dass durch vermehrtes CO2 in der Atmosphäre, die Durchlässigkeit für infrarote Strahlung vermindert wird und es dadurch zu einer Erwärmung der Erde kommt, sowie (daraus abgeleitet), dass die Erde bei konstanter Abstrahlung, ihre Temperatur erhöhen kann (weil die Transmission durch sog. Treibhausgase verringert wird). Da die gemessene Kurve zum einen, keine Beziehung zum atmosphärischen CO2-Anstieg hat und zum anderen, genau das Gegenteil zeigt, dass die Abstrahlung infraroter Strahlung nicht vermindert, sondern im Betrachtungszeitraum erhöht ist, braucht sich anhand der gemessenen Daten nicht weiter über den sog. Treibhauseffekt unterhalten zu werden – es gibt ihn nicht oder, wissenschaftlich korrekter, er ist nicht nachweisbar, wie die Satellitenmessungen eindeutig belegen. Unter der Abbildung ist die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität aufgetragen, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“. Es ist deutlich das gleiche Muster (Fingerabdruck) zu erkennen, was zeigt, dass die Erdtemperatur einzig durch die Sonnenaktivität gesteuert ist.

Da, wie bereits weiter oben geschildert, Beobachtungsdaten über die Korona nur vom Weltraum aus möglich sind und Daten nur für den Zeitraum 1991 – 2007 vorliegen, wird die weitere Datenreihe rekonstruiert, wobei die in Abbildung 9 genannten Zeitabstände eingehalten werden und dann geprüft wird, inwieweit eine El-Niño-Beziehung zur Korona besteht.

 

Abbildung 12 zeigt, dass nach jedem Einschalten der Koronazusatzheizung ein El Niño ausgelöst wird und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Jedoch zeigt die El Niño 3.4-Reihe, dass im betrachteten Zeitraum, in dem laut IPCC-Anhängern, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Es muss demnach noch eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt gibt die Abbildung 13. Es ist die unmittelbare magnetische Aktivität der Sonne. Ihr solares Maximum.

 

Abbildung 13 zeigt nochmals die Abbildung 12. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “Das Solare Minimum explodiert – Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“(http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm)

Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Ich möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen (Abbildung 14).

 

Abbildung 14 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus dem IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert, rot sind direkt gemessene Werte. Nun muss man wissen, dass der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. Koronalen Massenauswürfe, Coronal Mass Ejections (CME)) oder aus den polaren Löchern der Sonne stammt. Deren Aktivität wird durch das Polarfeld der Sonne (grüne Datenreihe von der Max Planck Gesellschaft) bestimmt. Darunter ist die Ausschnittvergrößerung für den Zeitraum 1980 – 2009 gezeigt. Werden nun die dort umrundeten Spitzen (starke magnetische Aktivität des Polarfeldes der Sonne) mit den grün-umrundeten Spitzen in der El-Niño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt dies Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“) .Abbildung 15.

 

Abbildung 15 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Das Polarfeld der Sonne (schwache El-Niño)

Bereits in meinem EIKE-Artikel “Wärmstes Jahr 2010 – Flugverkehr in Europa festgefroren! Lebt die UN-Organisation WMO auf einem anderen Planeten?“ (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1) habe ich nachgewiesen, dass die globale Erwärmung der letzten 30 Jahre, die laut IPCC von der Sonne abgekoppelt wäre, El Niño-basiert ist (Abbildung 16).

 

Abbildung 16 oben, Quelle: (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die Temperatur-Messergebnisse der NOAA-Satelliten (UAH, University of Alabama, Huntsville) von Januar 1979 bis Dezember 2010 – Globale Monats- und 3-Jahres (37-Monate-Durchschnitt). Die kleine Abbildung oben links zeigt die El-Niño-SST-Anomalien im pazifischen Tropengürtel Anfang Februar 2010 und oben rechts die globale CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Es fällt auf, dass jede globale Temperaturspitze in den letzten 30 Jahren mit einem El-Niño-Ereignis exakt zusammenfällt und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil).

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies rein gar nichts zu tun.

Bleibt noch die Frage zu klären, wie die gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt. Hier geben die Antwort, die eingangs erwähnten Passatwinde, also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird.

 

Abbildung 17 (http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark ist bekannt, wie die solare Aktivität die Bewölkung beeinflusst. In meinem nächsten Beitrag werde ich Ihnen zeigen, wie die Sonne über den Svensmark-Effekt hinaus, die Wolkenbedeckung auf der Erde über ihre Aktivität steuert.

Abschließend ist noch zu erwähnen, dass die heutigen El Niño-/La Niña-Ereignisse nichts Außergewöhnliches darstellen und schon gar nicht verstärkt auftreten, bzw. dies auf einen (anthropogenen) Klimawandel zurückzuführen sei, wie dies z.B. von Herrn Dr. Tiersch medienwirksam am 13.01.2011 in der Heute-Sendung des ZDF verbreitet wurde. Dies belegt die folgende Datenreihe.

 

Abbildung 18, Quelle: Nature 420, 162-165 (14. November 2002) | doi:10.1038/nature01194; Received 15 May 2002; Accepted 8 October 2002 Variability of El Niño/Southern Oscillation activity at millennial timescales during the Holocene epoch Christopher M. Moy, Geoffrey O. Seltzer, Donald T. Rodbell & David M. Anderson, zeigt die El Niño-Ereignisse der vergangenen 10.000 Jahre. Er ist ersichtlich, dass es gegenüber heute, in der Vergangenheit weit mehr, bzw. stärkere Ereignisse gab. Das gleiche Bild zeigt das Geoforschungsinstitut der Universität von Arizona (http://www.geo.arizona.edu/palynology/geos462/elninolagupall.gif)

Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum durch die solare Aktivität unmittelbar ausgelöst werden, ist der wissenschaftliche Beweis erbracht, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist. Es ist daher für die Politik und Medien an der Zeit, dieses zur Kenntnis zu nehmen und das Wissenschaftsmärchen der anthropogenen Erwärmung dort hin zu verfrachten, wo es hingehört und damit aufzuhören, den Bürgern weiter Geld für Dinge aus der Tasche zu ziehen, die es nachweislich nicht gibt – eine anthropogene Erderwärmung und einen Einfluss sog. Treibhausgase auf das Klima.

  

Raimund Leistenschneider – EIKE




Wärmstes Jahr 2010 – Flugverkehr in Europa festgefroren! Lebt die UN-Organisation WMO auf einem anderen Planeten?

Update: Unter der Überschrift „Echt cool: Die Terroropfer des „Klimawandels“! finden Sie hier eine Zusammenfassung der Meldungen der letzten Wochen von Udo Ulfkotte.

“2010 war das wärmste Jahr auf dem Globus“ (http://www.dradio.de/dlf/sendungen/umwelt/1334115/), so oder ähnlich lauteten jüngst die Meldungen der UNO-Organisation WMO (UNO-Organisation, war da nicht vor einem Jahr der Skandal mit der UNO-Organisation IPCC und ihrer dahin schmelzenden Gletscher und der manipulierten Temperaturdatenreihen), die besonders in Deutschland von den Medien gedankenlos nachgeplappert, Entschuldigung für dieses Wort, aber es ist zutreffend, wurden. Ein bisschen komisch erscheint uns dies schon, anhand der Meldungen vom letzten Sonntag “Flugverkehr in Europa festgefroren“, wie die ARD meldete.

Abbildung 1, Foto: dapd/DAPD “Deutschland im Kälteschock: Wegen des starken Schneefalls fielen in München mehr als 200 Flüge aus“ und “Deutschland ist eiskalt gefrostet“, wie die Welt titelte.

Deutschland und Europa sind eiskalt gefrostet. Großbritannien erlebt den kältesten Dezember seit Aufzeichnungsbeginn (http://wattsupwiththat.com/2010/12/17/coldest-december-ever-in-britain-as-snow-piles-up-europe-freezes/). Auch die Delegierten beim letzten großen Klimaspektakel in Cancun erlebten am 09. Dezember mit 11°C die kälteste Temperatur, die dort im Dezember seit 100 Jahren gemessen wurde (http://wattsupwiththat.com/2010/12/09/gore-effect-strikes-again-new-coldest-ever-december-record-temperature-in-cancun/). Weiter erinnern wir uns, zu Beginn 2010, bis weit in den März, auch die Maitemperaturen lagen um bis zu 3°C unter dem Durchschnitt, sah es auf der ganzen Nordhalbkugel bereits so aus (folgende Abbildung).

 

Abbildung 2 zeigt die Schneegebiete auf der Nordhalbkugel während des Extremwinters 2009/2010, Stand 10. Januar 2010, Quelle: NOAA (National Oceanic and Atmospheric Administration).

Auf der Südhalbkugel sah es während unserer Sommermonate Juni – August nicht anders aus. Südamerika litt unter Schneelasten und kalten Temperaturen. Schlagzeilen wie “Kältewelle in Südamerika hält an – Notstand in Peru“ (http://de.blog.wetter.com/?p=54633) und weiter im Text “Der ungewöhnlich strenge Winter in Südamerika…“ belegen dies. Ebenso wurde China von einer ungewöhnlichen Schnee- und Kältewelle heimgesucht. Schlagzeilen wie “Kältewelle: China rationiert den Strom“ (http://diepresse.com/home/panorama/welt/531336/Kaeltewelle_China-rationiert-den-Strom-) waren zu vernehmen. Alle großen Landmassen der Nordhalbkugel, sowie im dortigen Winter Südamerika, wurden von einer außergewöhnlichen Kältewelle getroffen. Dies passt so gar nicht zu den WMO-Meldungen, dass 2010 das wärmste Jahr gewesen sein soll, zumal auch der Sommer in weiten Teilen der Nordhalbkugel (wir erinnern uns noch an den verregneten und kalten August) nicht sonderlich behaglich ausfiel (http://climatechange.imva.info/news/cool-july). Handelt es sich bei der WMO-Meldung und der WMO-Datenreihe um einen weiteren dreisten Schwindel, wie bereits bei der UNO-Organisation IPCC?

Schauen wir nach Wettereignissen 2010, die die Aussage der WMO (World Meteorological Organization) erhärten könnten. Hier sind wohl den meisten noch die lange andauernde Trockenzeit und die hohen Temperaturen in einigen Teilen Russlands in Erinnerung, in deren Folge es dort, verbunden mit Brandstiftung, zu ausgedehnten Waldbränden kam. Der frühere Leiter des Wetteramtes Leipzig, der Diplom-Meteorologe, Klaus-Eckart Puls (http://www.eike-klima-energie.eu/news-anzeige/heisser-sommer-kalter-winter-w-a-r-u-m/?tx_ttnews[cat]=1&tx_ttnews[pS]=1277935200&tx_ttnews[pL]=2678399&tx_ttnews[arc]=1) und der Diplom-Meteorologe Christian Freuer (http://www.eike-klima-energie.eu/news-anzeige/rekord-hitzewelle-in-ost-und-nordosteuropa-menetekel-fuer-die-skeptiker/) berichteten auf EIKE darüber und beleuchteten die Ursachen. Auch das kleine Land Israel meldete noch vor einigen Wochen Rekordtemperaturen und in deren Folge, ebenfalls durch Brandstiftung, ausgedehnte Waldbrände.

In der Gesamtheit (Fläche und Zeitdauer) jedoch etwas wenig, als Erhärtung der WMO-Aussage, zumal wir noch im Hinterkopf haben, wie z.B. Temperaturaussagen gebastelt werden, ohne auch nur eine einzige Messstation vor Ort des Geschehens zu haben (http://www.eike-klima-energie.eu/news-anzeige/us-wetterbehoerde-noaa-meldet-januar-bis-juni-heisseste-periode-seit-beginn-der-aufzeichnungen-weltweit-wie-geht-das-ohne-messungen-vor-ort/?tx_ttnews[cat]=1&tx_ttnews[pS]=1277935200&tx_ttnews[pL]=2678399&tx_ttnews[arc]=1) oder wie auf wundersame Weise durch das Weglassen von Messstationen ein Temperaturprofil getrimmt wurde, wie man es gerne hätte – zu höheren Temperaturen. Prof. James Watt berichtete darüber (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf). Hier ein Beispiel, wie durch geschickte Auswahl von Temperaturstationen, die Temperatur angehoben wurde, obwohl sich in der Realität nichts änderte.

 

Abbildung 3 zeigt, wie parallel durch Auswahl (Weglassen von ländlichen Messstationen) der Stationen die Temperaturen plötzlich zu steigen beginnen.

Des Weiteren war es EIKE erstmalig gelungen, den Wärmeinseleffekt bei den Deutschlandtemperaturen herauszurechnen (http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/). Das Ergebnis ist ernüchternd, wie die folgende Abbildung belegt. Von einer Erwärmung im Vergleich zu früheren Temperaturen bleibt nichts übrig.

  

Abbildung 4 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und EIKE von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich).

Also doch eine dreiste Manipulation der WMO, um den Geldfluss, die Treffen in schöner Umgebung, mit luxuriösem Ambiente (http://www.eike-klima-energie.eu/klima-anzeige/wasser-predigen-wein-trinken-wissenschaftler-in-cancun-fordern-strenge-rationierung-im-westen-um-das-klima-zu-retten/?tx_ttnews[pointer]=1), wie in Cancun zu retten? Oder weiß die WMO wie der DWD schlicht und ergreifend nicht, was dort eigentlich gemessen wird? Fragen, die in den nächsten Zeilen beantwortet werden.

Nun dominieren auf der Erde nicht die Landflächen, sondern zu 70% die Meeresflächen. Evtl. findet sich hier der Schlüssel, der uns hilft, Licht ins Dunkel der Zahlenreihen zu bringen. Und in der Tat war am 19. Mai 2010 in der Presse folgende Meldung “Meere heizen ein 2010 wird wärmstes Jahr“ (http://www.n-tv.de/wissen/2010-wird-waermstes-Jahr-article880428.html). Die Meere als Ursache der Erwärmung. Gehen wir der Sache nach.

  

Abbildung 5 zeigt die AMSR-E (Advanced Microwave Scanning Radiometer – EOS) Meeresoberflächentemperaturen im Zeitraum von Juni 2002 – Juli 2010 (blau). In diesem Zeitraum ist in 2010 eine deutliche Spitze zu erkennen. Dazu in rot, der El Niño 3.4 (die Skalierung 3.4 steht für ein normiertes Meeresgebiet). Deutlich ist erkennbar, dass El Niño die globalen Meerestemperaturen treibt, sowohl bei ihrem Anstieg, als auch beim Rückgang der Temperaturen (grüne Pfeile). Für diesen Betrachtungszeitraum ist 2010 in der Tat ein außergewöhnlich warmes Jahr.

Bei Trenberth (einem IPCC-Vertreter) geht die Datenreihe bis zu Beginn der 1990-Jahre zurück und sieht, wegen der ARGO-Datenbasis und dem starken El Niño, der 1997/1998 die Temperaturen in die Höhe trieb, wie folgt aus.

Abbildung 6, Quelle: TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317 zeigt nach ARGO-Daten die Oberflächentemperaturen (ARGO ist Teil des globalen Ozeanüberwachungssystems und wurde nach der griechische Argo-Sage, dem gleichnamigen Schiff der Argonauten benannt). In der Arbeit von Trenberth ist bestenfalls von einem gleichbleibendem Niveau der Meerestemperaturen, unter dem von 1998 zu sprechen. Im Spiegel vom 20. Mai 2010 (http://www.spiegel.de/wissenschaft/natur/0,1518,694719,00.html) rätseln die Forscher über die Meereskälte.

Die Luft für die WMO-Aussage für das angeblich wärmste Jahr 2010 ist somit recht dünn geworden. Nichts bleibt mehr übrig, was deren Aussage vom wärmsten Jahr 2010 stützen könnte.

In der Abbildung 5 ist zu sehen, dass El Niño die globalen Meerestemperaturen treibt. Ist dies für die globalen Land-und Meerestemperaturen gleichfalls so? Aufschluss gibt die Abbildung 7.

Abbildung 7 oben, Quelle: (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die Temperatur-Messergebnisse der NOAA-Satelliten (UAH, University of Alabama, Huntsville) von Januar 1979 bis Dezember 2010 – Globale Monats- und 3-Jahres (37-Monate-Durchschnitt). Die kleine Abbildung oben links zeigt die El-Niño-SST-Anomalien im pazifischen Tropengürtel Anfang Februar 2010 und oben rechts die globale CO2-Entwicklung nach Mauna Loa. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Es fällt auf, dass jede globale Temperaturspitze in den letzten 30 Jahren mit einem El-Niño-Ereignis exakt zusammenfällt und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil).

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies rein gar nichts zu tun.

Wohin bewegen sich die Temperaturen? Einen Aufschluss darüber gibt die folgende Abbildung. In dieser werden die Daten der Satellitenbeobachtung, die bekanntlich die atmosphärische Lufttemperatur (Troposphäre) wieder geben, mit denen der unmittelbaren, stationären Landmessungen verglichen. Bei Betrachtung fallen sofort die starken Einbrüche in 1998 und 2010 auf. Wie nach dem letzten starken El Niño zum Jahreswechsel 1997/1998, so fallen auch gegenwärtig die atmosphärischen Temperaturen wieder drastisch (Abbildung 8).

Abbildung 8 (Quelle: http://www.climate4you.com/GlobalTemperatures.htm) zeigt die monatlichen Temperaturabweichungen der o.g. Messungen in Relation zueinander von 1979 – 20. November 2010. Deutlich zeichnen sich die beiden starken Temperatureinbrüche in 1998 und 2010 ab, die jeweils unmittelbar nach zwei starken El Niño-Ereignissen stattfinden. Die Temperaturen werden sich also (leider) nicht nach oben, also zu wärmeren Werten, sondern nach unten, zu kühleren Werten bewegen, so wie wir dies durch unsere täglichen Wetterereignisse auch erleben (siehe oben – Flugverkehr eingefroren).

Einige mögen sich die Frage stellen, wie kann ein begrenztes Gebiet, welches sich im Pazifik befindet, weltweit solche Auswirkungen haben. Antwort geben die Abbildungen 9 und 10.

 

Abbildung 9, Quelle: South Carolina State Climatology Office, zeigt die El Niño-Auswirkungen weltweit. El Niño hat über den pazifischen Raum Auswirkungen auf die Globaltemperaturen, Nord- und Südamerikas, Afrikas und Europas, wie der Wissenschaftler Prof. Brönnimann (ETH Zürich) herausfand (Abbildung 10).

 

Die Abbildung 10 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und der Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist. Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und frostige Kälte im Nordpazifik. Alles in Verbindung und ausgelöst durch einen starken El Niño (Spektrum der Wissenschaft 03/05, “Pazifik ließ Europa frieren“). Der Pazifik lies also Europa erfrieren. Dass alles kommt uns für die Gegenwart sehr bekannt vor und belegt, wie El-Niño-Ereignisse weltweit die Temperaturen deutlich beeinflussen.

Kann denn wenigstens eine weitere Temperaturreihe die WMO-Aussage bestätigen. Hierzu betrachten wir die globale Temperaturreihe des Hadley-Centers. Jedoch ist auch dort von einer Erwärmung oder gar einem wärmsten Jahr 2010 nichts zu sehen, wie die Abbildung 11 belegt:

Abbildung 11 (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die Zeitreihe der Temperaturen von Januar 1910 bis 20. November 2010 nach HadCRUT3. Der Langzeittrend beginnt zu kippen und wird negativ. Die Monatswerte fallen bereits.

Der Kurzzeittrend (30-Jahre) sieht nicht anders aus

 

Abbildung 12 zeigt die globalen Temperaturen von 1981 – 2010. 2010 war dort bestenfalls ein Jahr mit einer vergleichsweise hohen Temperatur, aber keinesfalls das wärmste Jahr und bei dieser Betrachtung ist noch nicht berücksichtigt, dass sich durch Verstädterung und Landschaftsveränderung die Vergleichtemperaturen zwangsläufig ändern und zwar recht deutlich zu höheren Temperaturen, wie in der Abbildung 4 belegt.

Gibt es denn keine Datenreihe, die die Aussage der WMO erhärten könnte? Wie sieht es mit der berüchtigten GISS-Reihe aus? Berüchtigt deswegen, weil sie so oft der Schlamperei und Falschaussage überführt wurde, dass sie jegliche Glaubwürdigkeit eingebüßt hat. Dennoch möchte ich diese unseren Lesern nicht vorenthalten.

 

Abbildung 13 (http://www.climate4you.com/GlobalTemperatures.htm) zeigt die GISS-Temperaturdatenreihe von 1979 bis November 2010. Auch hier hält das Jahr 2010 nicht die Spitzenposition. Allerdings kommt das GISS auf eine Temperaturanomalie von über 0,8°C. Noch weit bemerkenswerter ist der Kurvenverlauf selbst. Während bei GISS passend(?) zu Cancun die Temperaturen drastisch zu steigen beginnen (rot eingekreist), fallen derzeit nach den Satellitenbeobachtungen (Abbildung 7 oben) und dem Hadley Center (Abbildungen 11 und 12) die Temperaturen. Aber bei den GISS-Temperaturverläufen ist der Betrachter vor „Überraschungen“ nie sicher, wie die Abbildung 14 belegt.

 

Abbildung 14 (http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt einmal die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Ein Schelm, der da denkt, dass im GISS-2010 die Temperaturen bis 1980 künstlich heruntergerechnet werden (Mittelwerte sind grundsätzlich keine gemessenen Werte, sondern immer mathematisch behandelte, also berechnete Werte, über deren Formeln der Sollwert in jede beliebige Richtung gedreht werden kann), damit die heutigen Temperaturen umso drastischer ausfallen.

Fazit:

1.      Die Aussage der WMO, dass Jahr 2010 sei das wärmste seit Aufzeichnungsbeginn ist eine ganz dreiste Falschbehauptung, die einer Überprüfung nicht standhält.

2.   Die globalen Temperaturen folgen in unmittelbarer Weise natürlichen Ereignissen. Im vorliegenden Fall El Niño-Ereignissen, also Meerestemperaturen, was nicht verwundern kann, wird in Erinnerung gerufen, dass 70% der Erdoberfläche Meeresflächen ausmachen.

3.   Insbesondere bei Landmessungen (aber auch bei Satellitenmessungen), wie sie die WMO für ihre Aussagen zu Grunde legt, muss darüber hinaus der Wärmeinseleffekt bei Vergleichen abgezogen werden, wodurch die heutigen Vergleichtemperaturen um teilweise über 1°C niedriger ausfallen.

4.   Wie in der Abbildung 8 gezeigt, geht der Trend nicht zu höheren, sondern zu niedrigeren Temperaturen.

5.   Die globale Temperaturentwicklung, wie auch die sie treibenden El Niño-Ereignisse werden in unmittelbarer Weise durch die Sonne gesteuert. Diese Aussage und diesen Punkt werde ich Ihnen in meinem nächsten Beitrag auf EIKE beweisen.

Raimund Leistenschneider – EIKE




Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen

Realer Temperaturverlauf für Deutschland

Nicht nur Großflughäfen und Städte haben einen Wärmeinseleffekt, der die Temperaturdaten in die Höhe treibt und damit verfälscht. Der WI steht für Einflüsse des Menschen auf seine Umgebung, die nicht temperaturneutral sind, da sie entweder direkt Wärme ausbringen oder indirekt das Wärmeverhalten der Landschaft und damit dessen Wärmespeicherung und/oder Abstrahlung ändert, einwirken. Hierzu zählen beispielsweise Flächenversiegelung/-umwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt,…

Für die tägliche Temperaturerfassung eines Ortes ist der WI nicht von Bedeutung. Denn die ortsgebundene Temperaturmessung soll ja dazu dienen, den Temperaturwert vor Ort aktuell zu bestimmen. Der WI ist aber von immenser Bedeutung, werden Vergleiche zu anderen Messstationen oder gar Vergleiche zu früheren Epochen, in denen es z.B. keine Jets gab oder das Landschaftsbild ein ganz anderes war, erstellt. Werden hier keine WI-Korrekturen vorgenommen, werden die berühmten Äpfel mit Birnen verglichen und genau dies ist in der/den Datenreihen des DWD, die die Deutschlandtemperaturen von 1881 – 2009 zeigen, der Fall.

Auf Anfrage konnte uns der DWD keine Aussage über den WI seiner Messstationen machen. Er teilte lediglich mit, dass dieser in der Fläche in Deutschland nicht über 0,1°C läge und damit unbedeutend sei. Nun, wir wollten dies genauer wissen und untersuchten, wie der WI-Anteil aus den DWD-Deutschlandwerten herauszurechnen ist. Hierzu ist es notwendig, eine Referenzstation zu finden, die eine lange Temperaturaufzeichnung vorweisen kann, weitab von Zivilisationseinflüssen liegt und die sich über die Jahre überschaubar änderte (es gibt keine Messstation, die sich über 100 Jahre nicht ändert). Eine solche Referenzstation, die auch der DWD als Referenzstation benennt, ist die Station Hohenpeißenberg (HPB).

Abbildung 1 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Diese stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Folgende Abbildung zeigt beispielsweise seinen Einfluss auf die arktische Eisbedeckung.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 2, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Es gilt nun, die Deutschlandtemperaturwerte mit der Referenzstation HPB in Relation zu setzen. Dabei ist anzumerken, dass beide Datenreihen vom DWD stammen und somit offiziellen Charakter besitzen. Die Relation der Daten ergibt folgende Reihe.

Abbildung 3 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt (die Zahlen 1 – 126 dienen zum Vergleich mit der Excel-Liste der Anlage), dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen (warum? – weiter im Text). Es lassen sich drei Bereiche erkennen, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln.

In der obigen Relationskurve ist der WI „verborgen“ und nicht in der Referenzkurve (die als Referenz nur einen kleinen WI hat – 0 kann er nicht sein, weil, wie gesagt, keine Station über 100 Jahre unverändert bleibt), sondern in der Deutschlandkurve des DWD. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-D-Daten relativ weniger steigen. Die durch den WI höheren Temperaturen dämpfen dort den Erwärmungstrend, weil sie ihn quasi bereits vorweg genommen haben.

Um den WI in den drei in Abbildung 3 zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wurde folgendermaßen vorgegangen:

·         Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009)

·         Ermittlung der jeweiligen %-Änderung des Folgezeitraums zum Vorgängerzeitraum

·         Unterschied ermittelt HPB zu D

·         WI im 2. und 3. Zeitraum berechnet

·         WI im 1. Zeitraum wurde mit 0,2°C sehr konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschaftsveränderung, …

·         WI HPB von 1881 – 2009 mit 0,3°C bestimmt.

Dass auch HPB nicht WI-los sein kann, wurde bereits geschildert. Der Grund für die 0,3°C ist wie folgt: Etwa 1940 ist die Klimastation auf dem HPB umgezogen. Der Leiter hat damals gefordert, Parallelmessungen durchzuführen, was aber nicht geschah. Die alte Wetterstation wurde den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das ständig erweitert und beheizt wurde. Heute stehen dort Gebäudekomplexe. Im Kloster zuvor wurde nur ein Aufwärmraum beheizt. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos. Daraus folgt: Bis 1940 hatte der HPB keinen WI. Dann hat er einen entwickelt, mit zunehmender Bebauung. Der Berg ist also nicht WI-frei, wie er allgemein in der Literatur und vom DWD dargestellt wird.

Für die drei Zeiträume ergibt sich ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = 0,2°C

Zeitraum 2: 1953 – 1982 = 0,3°C

Zeitraum 3: 1983 – 2009 = 0,7°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI über alle drei betrachteten Zeiträume von 1881 – 2009 = 1,2°C

Die Berechnung ist in der Excel-Liste mit den Quelldaten im Anhang zu sehen. Mit den von uns ermittelten dynamischen WI-Werten ergibt sich die für Deutschland korrekte Vergleichskurve der Temperaturdaten von 1881 – 2009 (Abbildung 4).

Abbildung 4 zeigt den Temperaturverlauf für Deutschland nach Daten des DWD (rosa), ohne Berücksichtigung der sich veränderten Rahmenbedingungen für Deutschland von 1881 – 2009. Die blaue Kurve zeigt die von uns ermittelte reale, WI-bereinigte Temperaturvergleichsreihe für Deutschland im selben Zeitraum. Der grüne Trendverlauf zeigt den dynamischen WI, der für die drei Zeiträume ermittelt wurde.

Die realen Vergleichswerte (blaue Kurve) zeigen keine nennenswerte Temperaturerhöhung für Deutschland im Betrachtungszeitraum. Die Maximaltemperatur wurde in den 1930-Jahren erreicht, was i.ü. mit den Temperaturdaten in den USA übereinstimmt. Dort lagen die höchsten Temperaturen ebenfalls in den 1930-Jahren (Abbildung 5).

Die Berechnung ergab, dass der WI dynamisch ansteigt, was auch einleuchtend ist, da der WI bekanntlich auf Flächenversiegelung, Flächenumwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt, eben human-influences basiert und diese werden und wurden von Jahr zu Jahr größer, und folglich der WI ebenfalls größer.

Abbildung 5 zeigt den Temperaturverlauf in den USA nach Daten der amerikanischen Wetterbehörde NOAA (National Oceanic and Atmospheric Administration). Die höchsten Temperaturen lagen auch dort Mitte der 1930-Jahre.

In unserem Vergleich der Abbildung 4 beginnt die Datenreihe ab 1881, weil ab diesem Jahr beim DWD durchgängige und verlässliche Temperaturdaten für Deutschland vorliegen, die uns der DWD übermittelte. Der DWD selbst lässt seine Datenreihe indes erst ab 1891 beginnen (Abbildung 6). Darum in Abbildung 7 der direkte Vergleich zu den DWD-Daten von 1891 – 2009.

Abbildung 6 (Quelle DWD) zeigt die mittlere Jahrestemperatur in Deutschland von 1891 – 2009. Für den Betrachter ergibt sich der Eindruck, dass Ende des 20. Jahrhunderts und zu Beginn des 21. Jahrhunderts die Temperaturen außerordentlich hoch ausfallen und auch in den „Kältejahren“ 2008 und 2009 die Temperaturen immer noch über dem Durchschnitt liegen und damit zu warm wären. Unsere Berechnung der realen Vergleichstemperaturen ergab, dass seit 10 Jahren die mittleren Temperaturen in Deutschland unter dem Trend(gestrichelte Trendkurve) liegen und damit zu kalt sind.

Abbildung 7 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und EIKE von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, haben wir, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich). Auch bei der Datenreihe ab 1891, wieder der Quervergleich mit dem Temperaturniveau der USA aus Abbildung 5. Die EIKE-Deutschlandtemperaturkurve zeigt exakt das gleiche Bild: Die höchsten Temperaturen im Betrachtungszeitraum lagen Mitte der 1930-Jahre. Um 1950 lagen die Temperaturen ebenfalls über denen der letzten 30 Jahre und das Temperaturniveau von heute ähnelt dem zu Beginn des 20. Jahrhunderts. Allerdings sind solche Meldungen natürlich nicht geeignet, die Theorie einer menschen-gemachten Erwärmung, die auf sog. Treibhausgasen basiert, zu unterstützen oder gar zu beweisen. Zur Temperaturentwicklung, siehe auch den aktuellen Bericht von Antony Watts  vom 26.11.2010 (http://wattsupwiththat.com/2010/11/26/examination-of-cru-data-suggests-no-statistically-significant-warming/).

Die Basisüberlegung zum Berechnen des WI liegt darin (siehe oben), dass bei Erwärmung sich die Daten zur Referenzstation mehr und mehr angleichen, folglich muss auch der Umkehrschluss gelten, dass sich bei Abkühlung, die Temperaturen relativ mehr und mehr wieder voneinander entfernen. Da wir in Deutschland seit mehreren Jahren eine Abkühlung zu verzeichnen haben, kann dies überprüft werden. Dabei wurde nach zwei Kriterien vorgegangen:

1.   Beginn der Erwärmungsphase, anhand der diversen national (siehe DWD-Kurve in Abbildung 6) und internationalen Temperaturreihen, ab 1980. Dies ist somit das erste Betrachtungsjahr zur Überprüfung der Aussage, dass sich auf Grund des WI in einer Erwärmungsphase die Werte zur Referenzstation angleichen und damit das Verhältnis abnimmt.

2.   Ende der sonnenbasierten Erwärmungsphase in 2003. Hier hatte der Hauptsonnenzyklus sein (im Mittel) 208-jähriges Maximum und die NASA-Satellitenwerte der gemessenen und somit realen Sonnenaktivität, hatten um diesen Zeitraum ihr Maximum, wie die folgende Abbildung belegt:

Abbildung 8 zeigt die rekonstruierte Sonnenaktivitätskurve (blau, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und die von NASA-Satelliten direkt gemessene Sonnenaktivitätskurve (rot, ACRIM = Active Cavity Radiometer Irradiance Monitor), Quelle: (http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html). Deutlich zeigen die direkten Satellitenmessungen, dass die solare Aktivität ab 1980, als global die Temperaturen (moderat) zu steigen beginnen, deutlich anzieht und unmittelbar nach der Jahrtausendwende, mit dem de Vries/Suess-Hauptsonnenzyklus ihr Maximum erreichen und anschließend, wieder parallel zu den Temperaturen, deutlich fallen.

Unter Anwendung beider Punkte ergeben sich fünf 6-Jahresblöcke. Die Überprüfung ergibt folgende Tabelle:

Dazu der Verlauf:

Abbildung 9 zeigt ganz deutlich, dass bis 2003, also in der gesamten sonnenbasierten Erwärmungsphase, das Verhältnis Deutschlandtemperatur zur Referenzstation (D/HPB) fällt und seit Beginn der Abkühlungsphase wieder ansteigt. Die Trendkurve bestätigt in eindrucksvoller Weise, den seit Beginn des 21. Jahrhunderts beobachteten Temperaturrückgang. Die Kurve steigt dabei viel schneller (doppelt so schnell), als sie vorher abfiel, d.h. nichts anderes, als dass wir derzeit einen schnellen Temperaturrückgang erleben, der durch den WI der Städte und Landschaftsveränderung gemindert wird und sich daher in den diversen Temperaturkurven des DWD nicht wiederfindet, aber von uns allen bereits erlebt  wird – der letzte kalte und lange Winter und das insgesamt sehr kalte Jahr 2010. Die Kurve passt auch zu den Aussagen der NASA, russischer Forscherteams (http://de.rian.ru/science/20100423/126040500.html) und des SSRC (Space and Science Research Center)>zur erwartenden Sonnenaktivität und der daraus resultierenden Kälteepoche, die uns bevorsteht.

Fazit – Die Erwärmung ist vorbei

Mit einem dynamischen WI von derzeit +1,2°C liegen die heutigen Temperaturen auf dem Niveau zu Beginn der Messaufzeichnungen in den 80-Jahren des 19. Jahrhunderts, also auf einem Niveau, welches kurz nach den letzten Kälteepoche, die in der Wissenschaft als die “Kleine Eiszeit“ bekannt ist und bis ca. 1850 andauerte, erreicht wurde. Dies deckt sich übrigens mit der Aussage des Leiters der Wetterstation Ostalbwetterwarte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren“.>

Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF), und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren!

Es ist daher dringend geboten, dass der DWD seine Temperaturdaten der Realität anpasst und Politik, Medien und insbesondere der Bevölkerung das wahre Temperaturniveau mitteilt. Und zwar das, was wohl jeder bereits wahrgenommen hat, dass es kälter geworden und die Zeit der Warmperiode vorbei ist und wir für die nächsten Jahrzehnte, wegen dem beobachteten starken Rückgang in der Sonnenaktivität (Abbildung 8) deutlich fallende Temperaturen bekommen.

Für die Politik ist es an der Zeit, das Gespenst der anthropogenen CO2-basierten Klimaerwärmung dorthin zu verfrachten, wo es hingehört, auf den Müllhaufen falscher (vermeintlich) wissenschaftlicher Theorien – da abgekoppelt von jeglicher beobachteter Realität und sich wieder den Themen zuwendet, die für unser Land und für unsere Gesellschaft essenziell sind. Bildung und Wissen sind hiervon nur zwei Begriffe. Eine Klimakönigin braucht unser Land nicht. Die Zeiten der Monarchie sind schon lange vorbei, wie die globale Erwärmung.

 

Der schleichende WI beim DWD, Zusammenfassung unserer beiden ersten Beiträge

Als Anhang für den eiligen Betrachter, eine kurze Zusammenfassung unserer ersten Beiträge, aus denen ersichtlich wird, warum der DWD in seinen Messreihen und damit Messstationen einen gemittelten WI von derzeit 1,2°C hat, der seine ganze Messreihe verfälscht.

Nach Angeben des DWD vom 10.06.2010 besteht sein Hauptamtliches Netz aus 182 Wetterwarten und an 531 Stationen werden nach unseren Informationen Lufttemperatur und- feuchte gemessen. Wir hatten 130 Messstationen des DWD an dessen eigenen Vorgaben für die Aufstellung und Betrieb solcher Stationen gespiegelt und dabei festgestellt, dass allein nach diesen Kriterien ca. 40% ungeeignet sind. Anbei einige Beispiele:

 

 

Eingangs hatten wir erwähnt, dass vermehrt Flughafenstationen in die Datenreihen einfließen. So lag allein 2009 der Anteil der „Flughafenmessstationen“ im globalen Temperaturnetzwerk des GHCN (Global History Climate Network), welches die globalen Temperaturreihen generiert, bei 41%! Somit sind deren Daten über globale Temperaturtrends ungeeignet. Bei näherer Betrachtung ist es logisch, dass Temperaturmessstationen auf Flughäfen, mit ihren vielen heißen Triebwerksabgasen für Messwerterfassungen im Zehntel-°C-Bereich ungeeignet sind. Kein Hausbesitzer käme auf die Idee, die Temperatur eines Wohnraumes unmittelbar an den Heizkörpern abzugreifen! Der DWD aber tut dies bei seinen Flughafenmessstationen.

WI auf Großflughäfen

Zur Qualifizierung und Quantifizierung ist zu beachten, wo sich die Temperaturmessstation auf dem Flughafengelände befindet, wie groß der Flugbetrieb, also die Flugbewegungen sind und welche Luftturbolenzen durch den Flugbetrieb auftreten. Die Höhe des Flugbetriebes bestimmt das Maß für den Wärmeeintrag der rund 600°C heißen Strahltriebwerksabgase in die Umgebungsluft. Die Luftturbolenzen zeigen, wie sich diese heißen Luftschichten verteilen und wie groß ihr Einzugsgebiet ist und der Aufstellort bestimmt, inwieweit die Messstation von diesen Turbolenzen oder sogar direkt von den heißen Abgasstrahlen der Jets beaufschlagt wird, wodurch sich in allen Fällen, der Messwert erhöht, also verfälscht.

Zur Bewertung der Luftturbolenz werden die in der Luftfahrt gefürchteten Wirbelschleppen herangezogen. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten.

 

 

Wo liegt die DWD-Temperaturmessstation auf dem Flughafen Frankfurt?

 

Auch auf Berlin-Tegel oder London-Heathrow ergibt sich prinzipiell das gleiche Bild.

Abbildung 18 links zeigt die Temperaturmessstation auf Berlin-Tegel (roter Pfeil). Gut erkennbar, dass die Station unter 100m vom Rollfeld entfernt liegt und ca. 270m von der Start- und Landebahn. Abbildung rechts zeigt die Temperaturmessstation auf London Heathrow (roter Pfeil). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 in Heathrow bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien). Ein Unterschied von gut 2,5°C, was dem WI-Wert von Frankfurt Rhein-Main sehr nahe kommt.

Darüber hinaus hat der DWD zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Datenreihe zeigt die Temperaturabweichung (nach oben) der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Methode.

Nicht nur, dass der DWD offensichtlich mit Taschenspielertricks die Temperaturen künstlich in die Höhe treibt, seine eigenen Vorgaben für die Aufstellung und den Betrieb von Wetterstationen missachtet und nicht einmal den WI seiner eigenen Stationen kennt, scheint er nicht einmal wahrzunehmen, was er eigentlich misst und was er womit vergleicht.

Links zu den WI-Artikeln Teil 1 und Teil 2

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=2

und

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

 

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Anlage

In der Dateianlage finden Sie die Excel-Liste der Jahreswerte und der WI-Berechnung

Related Files




Schlagzeile aus Absurdistan

Temperaturentwicklung im Holozän nach Schönwiese

http://www.wissenslogs.de/wblogs/blog/klimalounge/allgemein/2008-12-05/forscher-beraten-politiker), war es nicht unsere Absicht, ihn zu “kaufen“. Neben dem Nichtwollen, würden uns hierzu auch die Mittel fehlen. So erhielt das PIK in der Hochzeit des Klimaalarmismus neben den 6,6 Millionen Euro aus staatlichen Mitteln, 3,3 Millionen aus anderen Quellen, deren Herkunft nach unserem Wissen nicht veröffentlicht wurde (FAZ vom 05. September 2007).

Prof. Rahmstorf schreibt: “Bin ich endlich umgekauft worden?“ Was bedeutet, Herr Prof. Rahmstorf, “endlich umgekauft“. Sollen wir Klimarealisten das so verstehen, dass er darauf wartet? Ist das bei den Klimaalarmisten etwa üblich, das man versucht sie zu kaufen? Viele Offene Fragen! Aber das sind wir Klimarealisten bekanntlich von den Arbeiten und Aussagen der Klimaalarmisten gewöhnt und werden „gezwungen“, mit eigenen Untersuchungen Licht in das Dunkel zu bringen.

“Forscher beraten Politiker

– ist damit etwa Lobbyarbeit gemeint, kann doch wohl bei Klimarettern gar nicht sein. Die o.g. 3,3 Millionen dienen denn sicherlich einzig zur Rettung der Erde und zum Wohle der Menschheit. Wir möchten an dieser Stelle nicht die vielen Millionen nennen, die z.B. IPCC-Fürsten erhalten und sonstige Alarmisten-Größen wie Al Gore. Beim Klimarummel geht es um ein Jahresvolumen von ca. 3.000 Milliarden Dollar (z.B. Zertifikatehandel, welche kriminellen Machenschaften damit verbunden sind, wurde jüngst in der Monitor-Sendung vom 19.08.2010 einer erstaunten Öffentlichkeit präsentiert), die diejenigen einstreichen, die sich der Thematik verschrieben und ihre Geschäftsmodelle darauf ausgerichtet haben. Wir alle gehen natürlich davon aus, dass kein einziger aus jenem Personenkreis unter den o.g. 3,3 Millionen Eurospendern ist.

3.000 Milliarden Dollar Jahresvolumen,

Herr Prof. Rahmstorf hat offensichtlich mit seinen Schilderungen zur Lobbyarbeit etwas durcheinander gebracht. Zur Abrundung, was Klimaalarmisten anrichten, verweisen wir auf einen aktuellen Beitrag vom Tagesspiegel (http://www.tagesspiegel.de/politik/blutdiamanten-der-moderne/1959060.html). Hierin geht es um den CO2-neutralen Anbau von Kraftstoffen und wie daran auf Kosten der Ärmsten in der Welt prächtig verdient wird.

Durcheinander gebracht? 

Wie war das noch einmal mit den Himalaya-Gletschern, Untergang Hollands, verschwinden des Regenwaldes, Meeresspiegelangaben, …, die Liste ist lang, EIKE berichtete ausführlich darüber. Durcheinanderbringen liegt demnach im Trend bei nicht wenigen Klimaalarmisten. Frühaufstehen hat hin und wieder also doch seine Vorteile. Der Volksmund stellt nicht umsonst fest. Morgenstund hat Gold im Mund.

Dass das Argument an uns herangebracht würde, dass die DO-Ereignisse regionale Ereignisse sind, war absehbar, darum wurde in unserem Bericht ausdrücklich darauf hingewiesen (evtl. überlesen?) und mit Charts, bzw. Hinweisen zu anderen wissenschaftlichen Untersuchungen (Mittelmeerraum und atlantischer Ozean) belegt, dass es sich bei der Temperaturentwicklung des Holozäns, also der Zeitspanne der letzten 10.000 Jahre, nicht um spezifisch auf Grönland zutreffende Ereignisse handelt, sondern um breit gefächerte. Die folgende Abbildung 1, in der wissenschaftliche Arbeiten um den ganzen Globus zusammengefasst sind, belegen dies. 

Weiter ist die Aussage von Herrn Prof. Rahmstorf in seinem o.g. Beitrag vom 27.10.2010, dass es sich bei den DO-Ereignissen, auf Grönland beschränkte Ereignisse handelt, schlicht und ergreifend falsch, wie in Sepektrum der Wissenschaft: “Warum die Neandertaler ausstarben“ (11/2009, S. 68) festgehalten und nachzulesen ist. Die DO-Einflüsse mit den schnellen und heftigen Temperaturwechseln trafen mindestens auf ganz Europa zu, Auszug: Die Isotopenanalysen zeigen aber auch, dass das Klima sich keineswegs stetig von milden zu kalten Temperaturen veränderte; vielmehr wurde es auf dem Weg zur maximalen Vereisung zunehmend instabil und schwankte stark. Diese Oszillationen lösten tief greifende ökologische Veränderungen aus: Die Wälder wichen baumlosen Graslandschaften, Rentiere ersetzten Nashörner. Die Schwankungen vollzogen sich bisweilen so schnell, dass einzelne Individuen sogar im Lauf ihres Lebens beobachten konnten, wie Pflanzen und Tiere, mit denen sie noch aufgewachsen waren, verschwanden und durch eine ihnen unvertraute Flora und Fauna ersetzt wurden. Ebenso schnell konnte die Umwelt sich auch wieder in die umgekehrte Richtung verändern.“

Von Nashörnern auf Grönland habe ich bis jetzt noch nichts gehört, aber evtl. hat Herr Prof. Rahmstorf Knochenfunde oder sonstige Belege?

Abbildung 2 (Quelle: S.d.W. 11/09, “Warum die Neandertaler ausstarben“) zeigt das untersuchte und betroffene Gebiet der schnellen Temperaturwechsel, die lt. Prof. Rahmstorf auf Grönland beschränkt seien. Aber auch bei seiner obigen, von uns zitierten Arbeit aus 2003 musste er 2 Jahre später eigene, vermeintliche Erkenntnisse und Schlussfolgerungen revidieren und korrigieren. Ging er noch 2003 von einem eigenen 1.470 Jahre-Zyklus der Sonne aus, der die DO-Ereignisse auslöst, so erkannte er in einer beteiligten Arbeit  (Holger Braun, Marcus Christl, Stefan Rahmstorf et al. (2005): “Possible solar origin of the 1,470-year glacial climate cycle demonstrated in a coupled model“, in: Nature, Vol. 438, S. 208-211) 2 Jahre später, dass es sich dabei um den Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, sowie um den Gleissberg-Zyklus der Sonne handelt.

Herr Prof. Rahmstorf hat also bewiesen, dass er lernfähig ist. Insofern haben wir bei den Klimarealisten noch Hoffnung, dass das PIK seine Villa „Kunterbunt“, mit dem Motto “…Ich mach‘ mir die Welt Widdewidde wie sie mir gefällt“ verlässt und Verbindung zur Realität aufnimmt. EIKE ist dazu die richtige Anlaufstelle! Insofern haben Sie, Herr Prof. Rahmstorf mit Ihrem jüngsten Artikel auf Klimalounge bewiesen, dass Sie auf dem richtigen Weg sind.

R. Leistenschneider – EIKE

Ergänzung der Redaktion I: Wie allergisch Stefan Rahmstorf – in trauter Dreisamkeit mit Michael Mann und Paul Ehrlich- auf Meinungen anderer reagiert, zeigt dieser amüsante Blogbeitrag (Roger Pielke jr.) über die Buchbesprechung des Pielke Buches in Daniel Greenberg Meets the Climate Scientists.

Ergänzung der Redaktion II.

Unter der Überschrift Journalisten-Workshop vor 16. UN-Klimakonferenz in Cancún veranstaltet das PIK eine Jounrnalisten-Beeinflussungstagung in Neuauflage der unsäglichen Veranstaltung zum Desinformationstraining für Journalisten der Deutschen Welle vom Sommer diesen Jahres. Brainwash-Interessenten bitte zahlreich anmelden!