Katastrophaler Focus-Artikel stellt die Klimawissenschaften auf den Kopf: Folgen für den seriösen Wissenschaftsjournalismus sind fatal

Ende des Temperatur-Stillstands, nur weil eine kleine El Nino-Temperaturspitze aus dem Temperaturplateau herausragt?

Scherz lass nach. Was soll am El Nino fatal sein? Fatal ist hier allein die Dramatisierung eines natürlichen Wetterphänomens zu eigenen, fragwürdigen Zwecken. “Ende des Halbmondes? Fataler Vollmond im Anmarsch!”. 

Klimaforscher schütteln den Kopf. Ein einziges wärmeres Jahr gehört ganz klar in die Kategorie Wetter, nicht Klima. Katastrophal ist hier nur die schlimme Fehlinterpretation des aktivistischen Focus-Redakteurs. Odenwald sollte sich dringend einmal bei seiner lokalen Volks-Hochschule erkundigen, wann das nächste Nachschulungs-Seminar zu den Grundlagen des Klimawandels stattfindet. Falls er es einrichten kann, könnte er auch gerne zum Klimaseminar in Mannheim am 10. April 2014 kommen, um sich den aktuellen Stand der klima-realistischen Forschung anzuhören. Kalte-Sonne-Co-Autor ist übrigens auch als Vortragender mit dabei.

Unabhängig davon ist es gar nicht gewiss, dass der nächste El Nino wie eine Rakete den Temperaturrekord an sich reißt. Dazu schauen wir uns die Satellitentemperaturdaten seit 1979 an (mit Dank an Ole Humlum / Climate4you für die UAH-Basisgraphik).

El Ninos treten alle 2-7 Jahre auf. Ihre Stärke ist unterschiedlich und es wird in schwache, moderate und starke El Ninos unterschieden. Der El Nino von 1998 gehört in die Kategorie “stark” und besitzt noch immer den Temperatur-Rekord. Der El Nino von 2009/2010 war “moderat”. Die Temperatur lag nach UAH-Datensatz um satte 0,25°C unter der von 1998. Der vorletzte starke El Nino datiert von 1982. So richtig häufig kommen die also nicht vor. Ein moderater oder schwacher El Nino wird daher wohl keine Goldmedaille einbringen. Richtig interessant wird es, falls ein starker El Nino auftreten sollte und trotzdem kein neuer Temperaturrekord aufgestellt wird. Dies wäre ein Indiz dafür, dass das Temperaturplateau langsam abknickt, da Ozeanzyklen und Sonnenaktivität sich auf dem absteigenden Ast befinden. Es wird spannend, denn dass ein El Nino irgendwann wieder einmal auftreten wird, ist kein Geheimnis.

In seinem Beitrag räumt Odenwald dann klammheimlich ein, dass wir in unserem Buch “Die kalte Sonne” die Rolle der Pazifisch Dekadischen Oszillation (PDO) richtig vorhergesagt haben. Stück für Stück holt die Realität die Akteure ein.  Lesen wir ein wenig weiter im Focus-Artikel:

"Im vergangenen Jahrzehnt häuften sich die kalten La-Niña-Ereignisse, der wärmere El Niño trat dagegen seltener auf – zuletzt von Juli 2009 bis Ende April 2010. Er ging mit einem kräftigen Anstieg der Temperaturen im Pazifik einher, was dazu beitrug, dass 2010 zum neuen Wärme-Rekordjahr wurde. Seither herrscht ein La Niña, der zu den ausgeprägtesten seit Aufzeichnungsbeginn zählt."

Naja, den angeblichen Wärmerekord von 2010 haben die Satelliten aber leider nicht dokumentieren können. Siehe Graphik oben. Man spürt geradezu, wie sich hier ein Autor die Realität zurechtbiegt, damit sie in seine Sichtweise passt. Odenwald weiter:

[Eine] "Forschergruppe um die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen vermeldete unlängst diesbezüglichen einen methodischen Durchbruch. Sie entwickelten ein statistisches Verfahren, das Prognosen über einen recht langen Zeitraum gestattet. So soll sich ein El Niño künftig zwölf bis 18 Monate vor seinem Auftreten vorhersagen lassen, statt wie bisher gerade sechs Monate. Gleichzeitig, so die Gießener, habe sich die Treffsicherheit der Warnungen deutlich verbessert. […] [Die Forscher konnten jetzt] die Quote falscher Alarme auf unter zehn Prozent senken und 70 Prozent der [El Nino-] Ereignisse zutreffend ankündigen. Jetzt gehen die Gießener Physiker einen Schritt weiter: In einer Studie, veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“ In einer Studie, veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“ verkünden sie, die Wahrscheinlichkeit, mit der ein El Niño noch in diesem Jahr eintritt, liege bei 76 Prozent. „Wir können zeigen dass unsere Methode das Fehlen von El-Niño-Ereignissen in den Jahren 2012 und 2013 bis zur Gegenwart korrekt vorher sagte“, schreiben sie in ihrer Arbeit. „Jetzt geben wir bekannt, dass unser Verfahren bereits im September 2013 die Wiederkehr von El Niño im Spätjahr 2014 erkennen ließ.“

Endlich kommt der El Nino, jubeln die Klimaalarmisten. Wir haben ihn uns redlich verdient! Letztes Jahr hatte man schon auf ihn gewartet, dann wurde die Mission “El Nino 2012/2013″ aber in letzter Minute abgebrochen. Es hatte nicht sollen sein. Interessant die religiös anmutende Wortwahl von Odenwald:

"Träfe die Prophezeiung ein, könnte der Erwärmungsstillstand mit einem Schlag enden und die Erdtemperatur deutlich nach oben schnellen."

Die fatale Klima-Prophezeiung stürzt die Welt in ein katastrophales Unglück! Wäre Odenwald im Mittelalter großgeworden, hätte er möglicherweise über bevorstehende Weltuntergänge orakelt. Schnell zaubert der Focus-Mann noch ein paar Vulkane aus dem Hut und behauptet kurzerhand, dass diese die unerwartete Erwärmungspause erklären könnten. Dass das entsprechende Paper auch nur wieder von einer IPCC-Lobbygruppe geschrieben ist, verschweigt der Redakteur. Auch lässt er das kleine, feine Detail aus, dass es in der Tiefsee noch gar kein verässliches Messnetz gibt, das eine Versenkung der Wärme in die tiefen Wasserschichten belegen könnte.

Wenn Michael Odenwald in ein paar Jahren einmal die Rezensionen seiner gesammelten Werke im Kalte-Sonne-Blog nachliest, wird ihm sicher das eine oder andere recht peinlich sein. Wie konnte die Wissenschaftsberichterstattung derart aus dem Ruder laufen? Wie konnten die journalistischen Kontrollmechanismen untergraben werden, und weshalb gab es aus der Wissenschaft selber kaum Proteste? Ein ergiebiges Thema für zukünftige Wissenschaftshistoriker.

===================================================

Anmerkung EIKE-Redaktion:

Der Artikel ist zuerst am 25.02.2014 auf "Kalte Sonne" erschienen : http://www.kaltesonne.de/?p=16882 




Energiewende wirkt: Anteil energiearmer Haushalte steigt auf 17 Prozent

Bei Spiegel Online  berichtet ein Florian Diekmann

Kostenexplosion bei Strom, Öl, Gas: Energiearmut in Deutschland nimmt drastisch zu

Strom, Heizung und Warmwasser sind für immer mehr Bundesbürger kaum noch bezahlbar. 6,9 Millionen Haushalte müssen nach Informationen von SPIEGEL ONLINE mehr als jeden zehnten Euro für Energie ausgeben – 2008 waren es erst 5,5 Millionen Haushalte.

Hamburg – Steigende Energiekosten werden zu einem Problem für immer mehr Bürger in Deutschland. Allein von 2008 bis 2011 ist der Anteil sogenannter energiearmer Haushalte in der Bundesrepublik von 13,8 auf 17 Prozent gestiegen. Das geht aus einer Antwort der Bundesregierung auf eine Anfrage der Grünen-Bundestagsfraktion hervor, die SPIEGEL ONLINE vorliegt. Damit gilt inzwischen mehr als jeder sechste Haushalt als energiearm….

..“Die fossilen Energien werden zur Armutsfalle, und die Bundesregierung sieht tatenlos zu, wie jedes Jahr 400.000 Haushalte mehr in diese Falle geraten“, sagt die Grünen-Umweltexpertin Bärbel Höhn. Das von Bundesbauministerin Barbara Hendricks (SPD) angekündigte „Bündnis für bezahlbares Wohnen“ sei ohne Maßnahmen zur Energieeinsparung zum Scheitern verurteilt, kritisiert die Grünen-Bundestagsabgeordnete.

Und im Handelsblatt Online ist zu lesen :

Die Grünen haben über eine Anfrage an die Bundesregierung beunruhigendes aufgedeckt: Zusehends mehr Menschen rutschen angesichts steigender Kosten in die „Energiearmut“. Die Oppositionspartei spart nun nicht an Kritik. Die Grünen warfen der Regierung vor, sie tue zu wenig, um Gebäude besser zu isolieren und den Einbau sparsamerer Heizungen zu fördern. So würden die Menschen von den steigenden Kosten überfordert: „Das Resultat sind vermehrte Gassperren und Leute, die an allen Ecken und Enden sparen müssen, um in kalten Wintern die Rechnungen bezahlen zu können“, sagte Grünen-Energieexpertin Bärbel Höhn.

Die links-grüne Zeit   konnte sich bisher noch nicht auf die richtige Blattlinie einigen und übernahm nur die SPON Variante des Einführunsgtextes. Der „weiterführende“ Link führt zu einer Fülle fachfremder Beiträge, aber nicht zur Energiearmut. Vielleicht ist es auch besser so.

Auch Science Sceptical hat sich dieser vorhersehbaren Heuchelei angenommen.

Autor Rudolf Kipp bemerkt:

…Es ist immer ein gefundenes Fressen für einen Blogger wenn er seine Auffassung, die bislang in den Mainstream-Medien eher stiefmütterlich vertreten wurde, an so prominenter Stelle vertreten findet. Allerdings machte sich beim Lesen des Artikels erst eine gewisse Ernüchterung breit, die nach vollständiger Lektüre zu staunendem Unglauben wurde. Grund für diese Gefühlsentwicklung war, dass ein für das Verständnis der dargestellten  Problematik Energiearmut  wesentlicher Begriff in dem Beitrag überhaupt nicht genannt wurde.

Daher hier die Frage an die Leser: Welcher gesuchte Begriff taucht in dem Spiegel-Online Artikel nicht ein einziges Mal auf?

Dirk Maxeiner von ACHGUT spießt besonders die Heuchelei der Grünen auf:

 

Grünes Armuts-Beschaffungsprogramm immer erfolgreicher

Das ist die hohe Kunst der Politik. Schritt eins: Man verursache ein Problem. Schritt zwei: Man schiebe dieses Problem anderen in die Schuhe. Schritt drei: Man stelle allerlei Forderungen auf, die das Problem nicht lösen, sondern weitere Probleme schaffen. Wie dieser Dreisprung geht, führt gerade die Grüne Exministerin Bärbel Höhn in Vollendung vor. Im Angesicht der durch die grüne Wind- und Sonnen-Ideologie explodierenden Strompreise entdeckt die Dame plötzlich “Energiearmut”. Die hat aber nicht etwa etwas mit der Zwangs-Förderung der sogenannten erneuerbaren Energien zu tun, sondern ganz im Gegnteil: “Die fossilen Energien werden zur Armutsfalle, und die Bundesregierung sieht tatenlos zu, wie jedes Jahr 400.000 Haushalte mehr in diese Falle geraten”, sagt Frau Höhn.

Die Logik hinter dieser Aussage bleibt ihr absolutes Geheimnis, schließlich liegt der Energiepreis in Ländern, die beispielsweise auf Gas vertrauen, um bis zu zwei Drittel (USA) niedriger als hier. Und deshalb fordert Frau Höhn den nächsten Unsinn: die Bundesregierung müsse die energetische Sanierung von Gebäuden stärker finanziell fördern. Konkret sollten die Kosten von der Steuer absetzbar sein, Förderprogramme der staatseigenen KfW-Bank besser ausgestattet und ein Klimazuschuss zum Wohngeld gewährt werden, sagt Höhn. Eine Studie der KFW-Bank hatte vergangenes Jahr ergeben, das die energetische Sanierung von Häusern für die Besitzer (und erst recht die Mieter) häufig unwirtschaftlich ist: “Die staatliche Förderbank KfW hat in einer Pressemitteilung zu den volkswirtschaftlichen Konsequenzen der Energiewende eingeräumt, dass sich aus heutiger Sicht die Investitionen in energieeffizientes Bauen und Sanieren „nicht allein aus den eingesparten Energiekosten refinanzieren lassen“.Siehe hier. Weiter so im Armutsbeschaffungs-Programm!




US Klimajournalist und Scharfmacher der Climategate Fraktion Andrew Revkin kann nicht rechnen!

Am meisten habe ich mich jedoch darüber amüsiert, wie dieser Mann, der von sich behauptet, über Wissenschaft zu berichten, die bloße Existenz seines Blogs begründet:

Bis zum Jahr 2050 oder so wird erwartet, dass die Weltbevölkerung auf 9 Milliarden gewachsen ist, was gleichbedeutend ist mit der Hinzufügung der doppelten Anzahl von heute lebenden Chinesen. Diese Millarden wollen Nahrung, Wasser und andere Ressourcen von einem Planeten, wo, wie Wissenschaftler sagen, die Menschen schon jetzt am Klima und dem Netz des Lebens kratzen. In der Rubrik Dot Earth, die von der Nachrichtenseite der Times im Jahre 2010 in die Meinungsspalte wanderte, untersucht Andrew C. Revkin Bemühungen, die menschlichen Belange mit den Limits des Planeten in Einklang zu bringen. Teils mit Unterstützung von einer John Simon Guggenheim-Mitgliedschaft [?] geht Dot Earth relevanten Entwicklungen vom Stadtrand bis nach Sibirien nach.

Wirklich? Schauen wir doch mal auf die Zahlen dieses charmanten, des Rechnens unkundigen Kerl.

Die Zahlen setzt er folgendermaßen um. Ich stimme Revkin bzgl. der Bevölkerungszahl zu, weil die meisten Behörden sagen, dass bis zum Jahr 2050 in der Tat etwa 9 Milliarden Menschen auf der Erde leben werden. Ich glaube, dass das stimmt, nicht wegen der Behörden, sondern weil meine eigene Analyse dieser Zahlen zu einem ähnlichen Ergebnis kommt. Man kann mich skeptisch nennen, aber ich glaube keinen Zahlen von irgendjemand anderem mehr.

Wie auch immer, die Zahlen der FAO der heutigen Bevölkerung sehen so aus:

Gegenwärtige globale Bevölkerung: 7,24 Milliarden

Gegenwärtige chinesische Bevölkerung: 1,4 Milliarden

Gegenwärtige Bevölkerung plus Revkins „zwei Chinas“: 10,04 Milliarden

Also irrt sich Revkin lediglich um eine Milliarde Menschen … aber was soll’s, angesichts seiner historischen Verteidigung der wissenschaftswidrigen Verfahren und seiner lächerlichen Behauptungen hinsichtlich „Leugnern“ und „Leugnung“ verblasst dieser kleine Irrtum vergleichsweise.

Abgesehen davon ist Revkins Fehler nicht unwichtig. Das Anwachsen der Bevölkerung auf 9 Milliarden, bei der sich die Bevölkerung wahrscheinlich einpendeln wird, bedeutet eine Zunahme von etwa 1,75 Milliarden. FALLS Revkins Behauptung über die zwei Chinas richtig wären, würde die Zunahme 2,8 Milliarden betragen. Sein Fehler beträgt also 2,8/1,75 – was bedeutet, dass seine Zahlen um 60% zu hoch liegen. Und um ein Problem, dessen Größenordnung er um 60% überschätzt hat, sollen wir uns große Sorgen machen? … Schlechter Journalismus, keine Frage.

Nun ist eine Fehlschätzung eines als das Wichtigste aller Probleme eingeschätzten Problems um 60% für die meisten Wissenschaftsreporter von Bedeutung. Diese Art Fehler würde sie beschäftigen. Sie würden einen Fehler dieser Größenordnung hastig korrigieren. Für Revkin jedoch geht ein Fehler um 60% im Rauschen seiner restlichen lächerlichen Gedanken unter.

Meine Vorhersage? Er sollte die betrügerische alarmistische Behauptung hinsichtlich der Bevölkerung auf seinem Blog fallen lassen, einfach weil ein „Leugner“ ihn auf diesen Fehler nach Art eines Fehlers in einer Mathe-Arbeit in der Schule hinweist, und selbst eine minimale Änderung oder ein Tüpfelchen als Antwort auf einen „Leugner“, wie ich einer bin, wäre ein unakzeptables Zugeständnis der Fehlbarkeit.

Mein Rat?

Beziehen Sie Ihre wissenschaftlichen Informationen niemals von einem Mann, der nicht bis zehn zählen kann … vor allem, wenn er nichts weiter ist als ein pathetischer PR-Lockvogel für betrügerische Wissenschaft und unaufrichtige Wissenschaftler …

Link: http://wattsupwiththat.com/2014/02/22/andrew-revkin-loses-the-plot-episode-xxxviii/

Übersetzt von Chris Frey EIKE




Neue EU-Umfrage: Nur 4% der Europäer denken, dass der Klimawandel ein wichtiges Thema für die Europäische Union ist

Die Europäische Union, der selbsternannte Anführer bei internationalen Verhandlungen zur Klimaänderung, hat hunderte Millionen Euro für diverse Projekte bzgl. Klimaänderung/globale Erwärmung ausgegeben – und tut das immer noch. Die EU finanziert auch großzügig alle wesentlichen grünen Aktivisten-Gruppen, damit sie für sich selbst Lobbyarbeit betreiben kann.

Aber trotz all dieser Millionen – und der Hilfe von den meisten Mainstream Medien (MSM) – scheinen die Europäer nicht der Ansicht zu sein, dass die Klimaänderung/die globale Erwärmung eines der dringenden Dinge ist, vor dem die Europäische Union steht.

Das Ergebnis der jüngsten Umfrage des Eurobarometer (hier in Deutsch ) muss für die EU-Klimazarin Connie Hedegaard und all die anderen Warmisten in Brüssel eine depressiv stimmende Lektüre gewesen sein:

Auf die Frage an alle Bürger in den 28 EU-Ländern, welches die wichtigsten Themen sind, mit der die EU sich befassen sollte, nannten nur 4% die Klimaänderung.

In Italien, Portugal und Griechenland glaubt nur die überwältigende Mehrheit von 1% der Menschen, dass die Klimaänderung ein wichtiges Thema ist. In Spanien, der Tschechischen Republik, Estland, Irland und Zypern liegt die Zahl etwas höher, nämlich bei 2%. Auch die Briten und Franzosen scheinen die Klimaänderung nicht als ein gewaltiges Problem zu sehen – glauben doch nur 4%, dass dieses Thema wichtig ist.

Selbst die „grünen“ DeutschenDänen scheinen andere Dinge wichtiger zu finden – nur 7 bzw. 12% halten den Klimawandel für ein wichtiges Thema.

Die Schweden befinden sich hier in einer eigenen Liga: 24% von ihnen glauben, dass die Klimaänderung eines der beiden wichtigsten Themen ist.

Link: http://newnostradamusofthenorth.blogspot.pt/2014/01/new-eu-survey-only-4-of-europeans-think.html

Übersetzt von Chris Frey EIKE




Klimawandel in Deutschland: Teil 2 – Real sinken seit 25 Jahren die Temperaturen

Viele Wärmeinseleffekte führen zur scheinbaren Klimaerwärmung (hier):

Wie wir in Teil 1 zeigten, fallen seit 17 Jahren nach DWD-Daten die Deutschlandtemperaturen, siehe Abb. 4. und vor 25 Jahren haben die Temperaturen aufgehört zu steigen, siehe Abb. 3. Der Deutsche Wetterdienst (DWD) zeigt daher gerne Grafiken, die über einen längeren Zeitraum gehen, z. B. hier:

 

 

Abb. 8: Werden die Temperaturen Deutschlands über einen langen Zeitraum betrachtet, dann sieht man an den Trendlinien ein allmähliches Ansteigen, also eine allmähliche Temperaturzunahme. Die Befürworter der Treibhausthese führen diese Erwärmung auf den steigenden CO2-gehalt der Luft zurück. Doch das Deutschland von 1900 und das von heute ist nicht mehr dasselbe. Dazu noch zwei widersprüchliche Meldungen vom DWD: „Der langfristige Trend zu steigenden Temperaturen ist in Deutschland und weltweit ungebrochen." (Berlin, 3. Mai 2012, DWD-Presse- Mitt.); aber dann ein Jahr später „Die Erdmitteltemperatur stagniert seit etwa 15 Jahren auf hohem Niveau….."  (Berlin, 7. Mai 2013, DWD-Presse- Mitt.). Dass die Deutschland- Temperaturen sogar schon seit einem Vierteljahrhundert nicht mehr steigen, verschweigt uns der DWD.

Dass rurale Messstationen (unbebaute oder dörfliche bis höchstens kleinstädtische Umgebung) ein etwas niedrigeres Temperaturniveau als Großstadt- Stationen aufweisen, lässt sich anhand von Vergleichen nachweisen. Voraussetzung eines solchen Vergleichs ist, dass die Stationen eine möglichst identische Höhenlage aufweisen (weil die Lufttemperatur stark höhenabhängig ist) und sie derselben geografischen Region angehören. Dann zeigt sich folgendes Bild:

 

Abb. 9: Zwei annähernd gleich hoch gelegene Stationen der Region Niederrhein. Die Groß- und Landeshauptstadt Düsseldorf ist in allen Monaten wärmer als das ländliche, nahe der holländischen Grenze gelegene Liedern (ein Vorort der Mittelstadt Bocholt). Im Untersuchungszeitraum (1991 bis 2005) betrug die Differenz der Jahresmitteltemperaturen beachtliche 0,61°C! Quelle des Datenmaterials: DWD, 1991 bis 1998 Beilagen zur Wetterkarte des Deutschen Wetterdienstes, 1999 bis 2005 Witterungsreport.

Auch anderswo in der Welt wurde dieser Effekt untersucht, wie folgendes Beispiel von Australien zeigt:

Abb. 10 (Quelle http://www.germanclimateblog.com/de/blogde/blogliste/92-der-urbane-waermeinsel-effekt-verzerrt-die-globalen-temperaturen.html) In Australien hat man das Temperaturmittel der 6 australischen Hauptstädte mit dem von 27 ländlichen Stationen über einen Zeitraum von mehr als 100 Jahren (1880 bis 1990) verglichen. Während in den Großstädten ab etwa 1950 ein deutlicher Temperaturanstieg zu beobachten war (obere Abbildung), zeigt das Mittel der ländlichen Stationen im selben Zeitraum keinen Trend- außerdem war es dort im späten 19. Jahrhundert fast sogar noch etwas wärmer, als im späten 20. Jahrhundert.

Soll also eine realitätsnahe Vergleichsaussage der Temperaturwerte über einen längeren Zeitraum erfolgen, so müssen diese, auf menschliche "Zivilisation" zurückgehenden Einflüsse herausgefiltert werden. Darum ist der zunehmende Wärmeinseleffekt bei Temperaturbetrachtungen so wichtig.

Bekanntlich verändert die Zeit den Raum und mit ihm alle „Eigenschaften“ die diesen Raum bestimmen. Eine dieser (Zustands)-Eigenschaft, wenn wir dies so nennen dürfen, ist dessen Energieinhalt und damit auch dessen Temperatur. Soll nun ein heute gemessener Temperaturwert, mit einem gemessenen Temperaturwert von vor 100 Jahren verglichen werden, muss der Raum von heute, auf den Raum von vor 100 Jahren „angepasst“ werden, weil sonst jede Vergleichsbetrachtung sinnlos ist. Dieser „Raumkorrekturfaktor“ für die Temperatur ist der WI. Ohne seine Berücksichtigung, sind alle Temperaturvergleichsbetrachtungen sinnlos und damit wertlos.

Für die Datenreihe des DWD bedeutet das: Die 9,1°C von 2012 sind in der Vergleichsbetrachtung etwas kälter als die gemessenen 9,1°C von 1998. Warum, weil zusehends Fläche, wir nannten 108 ha pro Tag, der Natur entzogen werden. Auch in den letzten 25 Jahren haben sich die Wärmeinseln in Deutschland weiter ausgebreitet, der die Umwelt wärmende Energieverbrauch ist weiter gestiegen und die Thermometer messen die Zusatzerwärmung aus den größer gewordenen Wärmeinseln der Städte und Bebauungen automatisch mit. Neuerdings wird die Erwärmung mittels der „Energiewende“ weiter verstärkt in der freien Landschaft getragen, denn „Windparks“ bremsen den in Bodennähe kühlenden Wind, und „Solarparks“ wandeln nur etwa 10% der auftreffenden Sonnenenergie in elektrischen Strom um, haben aber wegen der dunklen Oberfläche der Paneele eine geringere Albedo als die freie Landschaft (Rückstrahlungsvermögen, das heißt, sie erwärmen sich deutlich stärker, als gewachsene Böden oder die Vegetation). Vor allem über längere Zeiträume wird es notwendig, einen WI-Korrekturfaktor zu berücksichtigen, denn die Thermometer der Messstationen messen den zunehmenden Wärmeeintrag in die Landschaft einfach mit.

Hinzu kommt, dass vermehrt eine Verlagerung von Messstationen (Leistenschneider/Kowatsch berichteten darüber) in städtische Gebiete und vor allem auf Flughäfen erfolgt. Wegen der wärmenden Abgasschleppen ist dort das Temperaturniveau deutlich angehoben. Wie Leistenschneider/Kowatsch für den Frankfurter Flughafen nachweisen konnten, um bis zu +2,5°C. Gehen solche Stationen in die Mittelwertbetrachtung ein (weltweit kommen die Daten der Temperaturmessungen von über 50% von Flughafenmessstationen), so wird künstlich das Temperaturniveau angehoben.

Um Temperaturen mit früher vergleichen zu können, braucht man eine WI-bereinigte Grafik.

Abb. 11 (Quelle: EIKE, nach Berechnung von Leistenschneider) zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2013. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb).

Ein Beispiel zum Gebrauch der Grafik:                                                                              1891 betrug die Jahrestemperatur 7,5°C und 2013 8,7°C. Der WI-Korrekturfaktor für diesen Zeitraum beträgt etwa 1,2°C. (siehe rote gestrichelte Linie mit Schwankungsbreite). Hätte sich Deutschland in den letzten 123 Jahren nicht verändert und würden die Messstationen auch noch in der gleichen Umgebung stehen wie damals, dann wäre der Jahreswert für 2013 auch im Bereich von 7,5°C (siehe Fehlertoleranzbereich).

 

Unter Berücksichtigung eines Korrekturfaktors WI kommen wir zum 6. Ergebnis:

Die gemessene Erwärmung in Deutschland seit 120 Jahren ist in erster Linie auf die ständige Zunahme des Wärmeinseleffektes (WI) zurückzuführen, also auf die flächenhafte Ausbreitung der Wärmezonen. Die blaue WI-bereinigte polynome Trendlinie zeigt, dass wir nach einer Phase der Abkühlung wieder bei den Temperaturen um 1900 angekommen sind.

Kürzere Zeiträume

Die letzten 25 Jahre mit Berücksichtigung des WI  

Im Teil 1 zeigten wir, dass die Temperaturen nach Daten des DWD seit 25 Jahren nicht weiter gestiegen sind. Abbildung 12 zeigt im Vergleich den Temperaturgang in Deutschland nach DWD-Daten mit und ohne Berücksichtigung des WI.

In ihrem EIKE-Beitrag Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen aus 2010, wiesen die Autoren nach, dass der WI in Deutschland im 20. Jahrhundert die Vergleichstemperaturen in Deutschland um +1,2°C verfälscht (Abb.11 zeigt die aktualisierte Datenreihe bis zum Jahr 2013). Anhand einer Relationsbetrachtung der Deutschlandtemperaturen und der Referenzstation Hohenpeißenberg und einer theoretischen Betrachtung, die auf zwei fundamentalen physikalischen Gesetzen, den Strahlungsgesetzen nach Planck und dem Abkühlungsgesetz nach Newton basiert, ermittelte Leistenschneider anhand der jeweiligen DWD-Daten diesen Wert. Insbesondere seit den 1980er Jahren ist ein verstärkter WI-Einfluss vorhanden. Er beträgt für die letzten 3 Jahrzehnte +0,6°C. Hieraus lässt sich der mittlere Jahres-WI für diesen Zeitraum statistisch ermitteln und die DWD-Temperaturen, die wir in Abb. 3 und 4 (Teil 1) zeigten, entsprechend dem WI bereinigen, so dass wir die realen Vergleichstemperaturen für Deutschland erhalten. In Abb. 12 und 13 haben wir diese jeweils mit den DWD-Daten verglichen, so dass sichtbar wird, dass im Grunde die DWD-Veröffentlichungen zu Vergleichstemperaturbetrachtungen, wie z.B. wärmster Monat, wertlos und falsch sind, da der DWD in seinen Vergleichsbetrachtungen die bekannten "Äpfel" mit "Birnen" bergleicht und so zu einer falschen Schlussfolgerung kommt, die er dann veröffentlicht.

 

Abb. 12: In den letzten 25 Jahren sind die Temperaturen in Deutschland unter Berücksichtigung des WI sichtlich gefallen. 1988 betrug die Jahrestemperatur 9,1°C und 25 Jahre später 8,6°C. im Jahre 2012. 1989 war sie 9,5 Grad und unter Einberechnung des WI wäre sie 2013 nur 8,1C, deswegen die fallende Tendenz am Schluss. Dazwischen gab es Phasen von leichten Abkühlungen, aber auch Erwärmungen, momentan liegt wieder ein Abkühlungstrend vor. (gezeichnet in rot nach den Originalangaben des DWD und den von Leistenschneider berechneten WI-Werten in blauer Farbe).

Auch auf 25 Jahre betrachtet, macht sich der WI- Effekt bereits leicht bemerkbar, schließlich werden täglich 108 ha in Deutschland überbaut und der kühlenden Vegetation entzogen. Besonders bemerkenswert ist in diesem Zusammenhang die Entwicklung der Wintertemperaturen. KOWATSCH/KÄMPFE hatten in ihrem Aufsatz http://www.eike-klima-energie.eu/klima-anzeige/winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/ nachgewiesen, dass die Winter in Deutschland wieder deutlich kälter geworden sind- der sehr milde Winter 2013/14 ist da nur eine zirkulationsbedingte Ausnahme, denn die in Deutschland fehlende Kälte war dafür umso reichlicher anfangs im Nahen Osten, dann in Nordamerika zu finden, siehe unter anderem „Extremwetter einmal anders:

In Kairo fiel nach 112 Jahren wieder Schnee bei http://www.eike-klima-energie.eu/klima-anzeige/extremwetter-einmal-anders-in-kairo-faellt-nach-112-jahren-wieder-schnee/ . Selbst die Wochenzeitung „DIE ZEIT“, normalerweise immer darauf bedacht, die katastrophale Klimaerwärmung herbeizuschreiben, gab, wenngleich wohl "zähneknirschend" und auf den hinteren Seiten im Wirtschaftsteil platziert, die winterliche Abkühlung in einem Artikel über die Probleme der alpinen Skigebiete zu: http://www.zeit.de/2013/52/ski-luxus-guenther-aigner

Somit erhalten wir Ergebnis 7 

                                                                                                                                                                     Unter Berücksichtigung eines WI-Korrekturfaktors sind in den letzten 25 Jahren die tatsächlichen Vergleichstemperaturen in Deutschland leicht gesunken.

  

Die letzten 17 Jahre:

 

Wie sehen nun die letzten 16/17 Jahre aus, die bereits ohne WI fallende Temperaturen zeigen? Und wohin geht der weitere Trend?

Das Jahr 1997 wird beim DWD  mit 8,9C und 1998 mit 9,1 Grad in der Statistik geführt,  und 2013 war mit 8,7C unwesentlich kälter.

Ob ein Trend nach oben oder nach unten geht, darüber entscheiden die Jahre dazwischen. Ab 1997 stiegen zunächst noch die Temperaturen bis zur Jahrtausendwende. Das Jahr 2000 war laut DWD-Statistik das wärmste Jahr in Deutschland in den letzten 150 Jahren. Das haben ich wir uns vom Deutschen Wetterdienst auch schriftlich bestätigen lassen: „Weltweit war 1998 das wärmste Jahr und in Deutschland ist es das Jahr 2000. Das ist kein Geheimnis und das darf auch jeder wissen.“ (Teil1) Doch seit diesem Temperaturwendepunkt zur Jahrtausendwende waren alle Jahre kälter, und das bedeutet für die Statistik einen abnehmenden Trend.

 

Abb 13:  Die Deutschlandtemperaturen der letzen 17 Jahre. (Quelle: DWD-Werte Offenbach), mit und ohne WI-Betrachtung. Die von Excel errechnete Trendlinie sinkt um 0,7°C in den letzten 17 Jahren. Vorhergesagt war eine Erwärmung um +0,4°C.

Dass wir in Deutschland auf keiner "Insel" leben, dürfte jedem klar sein. So sinken nicht nur in unserem Land seit 17 Jahren die Temperaturen, sondern auch in Zentralengland, Abb.14.

 

Abb. 14: Ähnlich wie in Deutschland (Teil 1, Abb. 4) sind auch in Zentralengland die Temperaturen in den letzten 17 Jahren deutlich gefallen. Der Rückgang war hier sogar noch etwas deutlicher, und diese CET- Werte sind nicht WI- bereinigt!   Datenquelle http://www.metoffice.gov.uk/climatechange/science/monitoring/CR_data/Daily/HadCET_act.txt

Ergebnis 8:   

                                                                                                                     

Es ist wieder kälter in Deutschland geworden. Vor allem in der freien Fläche, weitab den Wärmeinseln bestätigen gute Naturbeobachter diese Aussage sofort. In der freien Fläche hat auch 2013 der Mai wieder die Bäume grün gemacht wie schon vor 250 Jahren als unsere Maienlieder entstanden sind und das wird auch 2014 so bleiben. http://www.youtube.com/watch?v=RJzXw-s3rCY

Nach dem deutlichen Absinken der Temperaturen seit der Jahrtausendwende, haben wir in der freien Fläche außerhalb der Wärmeinseln wieder die Temperaturen wie zu Mozarts Zeiten erreicht. Seit 250 Jahren gibt es ein Auf und Ab, es hat sich aber grundlegend am Klimaverlauf Deutschlands nichts geändert. Die gegenwärtige vergleichsweise hohe Schwankungsbreite in den Temperaturen ist dabei typisch für einen Wechsel von einer wärmeren Zeitspanne zu einer kühleren Phase, wie Leistenschneider bereits 2011 in seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“, Teil 8  gezeigt hat.  Abb.15 entstammt dieser.

 

Abb. 15, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien).

“Anhand der solaren Aktivitätsschwankungen, dem derzeitigen und weiteren Rückgang der solaren Aktivität, sowie der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen deutlich, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie wir es übrigens auch gegenwärtig wieder erleben, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte…

Obwohl die Untersuchungen anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering sind, um eine abschließende Aussage treffen zu können, zeigt sie, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen. (“ EIKE, Teil 8 .“Dynamisches Sonnensystem“)

 

Raimund Leistenschneider – EIKE

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar

 

Bildmaterial zu Kommentar 59

 

Die folgende Bilderserie zeigt anschaulich, dass es sich bei der DWD-Station auf der Zugspitze um keine naturbelassene Messstation handelt. Im Gegenteil, sie befindet sich in einer vom Menschen stark beeinflussten und umbauten Umgebung. Quelle: http://www.panoramio.com/photo/21499625 und http://www.planet-wissen.de/laender_leute/berg_und_tal/zugspitze/erschliessung.jsp und http://www.top-wetter.de/themen/zugspitze.htm 

 

 

 

 

 

 

 

 

Schlimmer noch, auch natürliche Einflüsse machen die Station ungeeignet für Vergleichsmessungen. Wie der Name "Zugspitze" es bereits sagt, liegt die Station auf der Spitze eines Berges. Diese topographischen Orte sind jedoch immer Orte, die starken Einflüssen von Thermik ausgesetzt sind. Jeder weiß dies, der schon einmal Großvögel beobachtete, die die Thermik (sie ist nichts anderes als Energie) benutzen, um an Höhe zu gewinnen. Die Station liegt also an der Oberseite eines Kamins, an dem bei Sonnenscheindauer zusätzliche Energie nach oben fließt und die Station mehr beeinflusst, als Stationen ohne Thermik-Einflüsse. Thermik entsteht nur bei Sonnenscheindauer. Nun ist aber in den Alpen (Abb.16) eine stetige Zunahme der Sonnenscheindauer zu verzeichnen, so dass die Station auf der Zugspitze, zu den menschengemachten Veränderungen, auch noch den Fehler beinhaltet, dass sie durch die Zunahme der Sonnenscheindauer vermehrt mit Energie beaufschlagt wird und diese Zusatzenergie (die Station befindet sich, wie gesagt, am Oberrand eines Kamins) als Fehler in ihre Vergleichsmessungen eingeht. Dies alles zeigt, dass die DWD-Station ungeeignet für Vergleichsmessungen und keine Station ohne WI ist. R.L.

Abb.16 zeigt die prozentuale Änderung der mittleren Sonnenscheindauer im Zeitraum von 1884 – 2007, bezogen auf den Mittelwert von 1961 – 1990. Die blaue Kurve zeigt die Jahreswerte, rot ist der dynamische Trend und grün der Anstieg über die gesamte Zeitdauer. Im Zeitraum lag der Tiefstwert der Sonnenscheindauer 1912 und der Höchstwert im Jahre 2003, der interessanterweise mit dem Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus zusammen fällt.