Klimawandel – FakeNews in SRF1 RUNDSCHAU am 26. April 2017

und hier:

Es ist an den beiden Screenshots zur Sendung bereits zu erkennen, wie die SRF RUNDSCHAU „Klima(schutz)“ mit „Umweltschutz“ gleichsetzt, obwohl beides nur sehr wenig miteinander zu tun hat. Aber das ist nicht der einzige Kritikpunkt, der in dem nun folgenden Blogtext thematisiert wird:

Dieser Bericht „Klimalügner: Trumps Kampf gegen den Umweltschutz (Länge: 8 min 38sek, inkl. Anmoderation) wurde am 26. April 2017, ab 20:55 als letzter von drei TV-Beiträgen in dieser gebühren-finanzierten, investigativen Schweizer TV-Sendung auf SRF1 ausgestrahlt. Es ist auch die Anmoderation durch den Moderator und Redakteur  Sandro Brotz kritisch zu erwähnen …

RUNDSCHAU Frontmann Sandro Brotz

… weil Sandro Brotz durch seine Anmoderation eine irreführende Suggestion beim Zuschauer aufgebaut hat, die in dem dann nachfolgenden TV-Beitrag von Peter Düggeli nicht bestätigt worden ist. Denn Sandro Brotz behauptete in seiner Anmoderation folgendes:

Mit Trump als [US-]Präsident ist nun auch den Wissenschaftlern das Lachen im Hals stecken geblieben. Hunderttausende haben sich am Wochenende weltweit an einem Marsch für die Freiheit der Forschung beteiligt. Trump glaubt nicht daran, dass der Mensch für die globale Erwärmung verantwortlich ist. Vielleicht sollte er mal zu den Everglades in Florida hinfahren, wie es unser Korrespondent Peter Düggeli getan hat. Alternative Fakten hin oder her. Dort zeigt sich wie real der Klimawandel schon ist.

Mit dieser Anmoderation hat Sandro Brotz eine Erwartungshaltung aufgebaut, die beim Zuschauer den Eindruck vermittelte, der dann nachfolgende Bericht von Peter Düggeli aus den Everglades in Florida würde eindeutige Beweise für die menschliche Schuld am Klimawandel bzw. die menschliche Schuld an der angeblich globalen Erwärmung liefern.

Es ist zusätzlich zu kritisieren, dass Sandro Brotz nur den verkürzten Begriff „Klimawandel“ in seiner Anmoderation verwendet hat, aber damit die angeblich „menschliche Schuld am Klimawandel“ gemeint hat, für die es aber bis heute keinen einzigen wissenschaftlichen Beweis gibt, sondern lediglich ein CO2-Anstieg als Parameter für eine angebliche Erwärmungs-Ursache in linear-mathematisch-programmierte Computerklimamodelle eingegeben worden ist. Einzig und allein auf dieser zweifelhaften Grundlage existiert die Hypothese vom angeblich CO2-bedingten Klimawandel. Und diese sachlich-korrekte Information ist kein „Alternativer Fakt“.

Dieser fehlende wissenschaftliche Beweis für die menschliche Schuld am angeblich CO2-Klimawandel zeigte sich dann auch konkret in dem knapp 8-minütigen SRF1 „RUNDSCHAU“ TV-Beitrag von Peter Düggeli:

00:57: Der Florida – Panther


Nachdem in den ersten Sekunden im TV-Beitrag von Peter Düggeli schöne Landschafts- und Tier-Aufnahmen aus den Everglades gezeigt wurden, mit einer weiblichen Offstimme und beruhigender Chillout-Musik untermalt wurden, wurde ca. bei Minute 00:57 des TV-Beitrags vom 26.04.2017 folgendes durch eine weibliche Offstimme wörtlich behauptet:

Doch was heute noch Idylle ist, könnte schon morgen nicht mehr da sein.

Aha, plötzlich wird behauptet: „könnte schon morgen nicht mehr da sein.“

Aus der propagierten Tatsache, die Sandro Brotz in seiner Anmoderation dem Zuschauer vermittelt hatte, wird nun dem Zuschauer erstmalig durch einen Konjunktiv

könnte schon morgen…

klar, dass die angeblichen Fakten, die Sandro Brotz in der Anmoderation suggestiv behauptet hatte, in Wirklichkeit alternative Fakten, besser: gar keine Fakten sind, sondern in Wahrheit fiktive Zukunftsszenarien sind,  von denen niemand wirklich weiß, ob diese Szenarien auch wirklich eintreffen werden.

Als nächstes wurde dann der O-Ton eines Bob Johnson, Direktor des Wissenschaftszentrum Süd-Florida, gesendet:

01:06: Bob Johnson


der bei Minute 01:06 dann im amerikanischen Originalton mit einer deutschen Übersetzung behauptete:

Diese Zone am südlichen Ende von Florida wird verschwinden, weil die Meeresspiegel steigen. Tiere, wie Alligatoren werden nicht mehr da sein.

Auch diese Behauptung von Bob Johnson ist keine Tatsache, sondern eindeutig ein subjektives Zukunftsszenario des Bob Johnson, denn er sagt:

wird verschwinden…

und

werden nicht mehr da sein…

Das heisst mit anderen Worten: Aktuell ist aber noch alles vorhanden. Es ist also bis heute nix in den Everglades verschwunden und/oder zerstört !!

An dieser Stelle ist bereits nach den ersten Sekunden zu Beginn des Beitrags von Peter Düggeli  jedem halbwegs-intelligenten Zuschauer klar geworden, dass Sandro Brotz mit seiner Anmoderation mit einer falschen Suggestion den TV-Zuschauer in die Irre geführt hatte. Denn Sandro Brotz hatte ja in seiner Anmoderation dem US-Präsidenten Donald Trump empfohlen – und damit suggestiv  auch jedem SRF1 RUNDSCHAU-TV-Zuschauer, er solle doch zu den Everglades fahren, denn dort könne man die Auswirkung des Klimawandels bereits sehen, so Sandro Brotz.

Stattdessen aber stellt sich nun bereits in den ersten Sekunden im Beitrag von Peter Düggeli heraus: Wenn ein TV-Zuschauer in die Everglades fährt, und dort die angeblich schon sichtbaren Auswirkungen des (angeblich menschgemachten) Klimawandels sehen will, dann sieht der Zuschauer dort nix dergleichen. Denn in Wirklichkeit/Wahrheit spielen sich die von Sandro Brotz propagierten „Tatsachen“ nur als  Zukunftsszenarien in den Köpfen der von Peter Düggeli interviewten Protagonisten ab, in diesem Fall im Kopf eines Bob Johnson.

Und die weibliche Off-Stimme im RUNDSCHAU-Betrag bestätigt dann sogar auch dieses Zukunftszenario im Kopf des Bob Johnson, ab Minute 01:19:

Bob Johnson der Direktor des Wissenschaftszentrum Süd-Floridas warnt seit Jahren, dass der Klimawandel die Everglades zerstören könnte.

Auch an dieser Stelle wieder keine Tatsache, kein Fakt, sondern nur ein fiktiver Konjunktivkönnte“ als subjektives Zukunftsszenario im Kopf einer einzelnen Person mit Namen Bob Johnson:

zerstören könnte

Und die weibliche Rundschau-Offstimme behauptet bei Minute 01:27 sogar weiter:

Deshalb fahren wir dorthin, wo sich die Bedrohung zeigt.

Oh ja, bitte, denkt sich jeder kritische und halbwegs-intelligente TV-Zuschauer, vielleicht wird ja jetzt in den nächsten Sekunden endlich ein „Beweis“ für die propagierte „Bedrohung“ gezeigt, dass menschlicher Einfluss den CO2-Klimawandel bewirkt.

01:37: Mit Peter Düggeli (rechts) und Bob Johnson fahren mit einem Schnellboot durch die Seen-und Mangroven-Landschaft der Everglades in Florida.


Der Rundschau-Zuschauer sieht nun, wie SRF Autor Peter Düggeli mit Bob Johnson in einem Schnellboot durch die Seenlandschaft der Everglades fährt …
….und die weibliche Offstimme behauptet nun bei Minute 01:37:

Florida Bay, das Mündungsgebiet zwischen den Everglades und dem Atlantik. Viele kleine Inseln mit Mangroven-Bäumen. Matt [der Fahrer des Schnellbootes] zeigt uns, wo das Meer jetzt schon bei Ebbe die Inseln  anfrisst.

01:51: Bob Johnson zeigt eine in Zukunft überflutete Insel (was aber der TV-Zuschauer nicht wirklich sieht)


Dann kommt – angeblich unmittelbar vor einer solchen „angefressenen Insel“ – bei Minute 1:51 wieder Bob Johnson zu Wort und er behauptet in amerikanisch mit deutscher Off-Stimmen-Übersetzung:

Es braucht nicht viel und die Insel ist überflutet. Laut Prognosen wird das Wasser bis 2100 um ein Meter ansteigen. Dann ist DAS offenes Meer. Die Inseln werden verschwunden sein.

Dem TV-Zuschauer wurde mit diesem O-Ton von Bob Johnson suggeriert, dass das, was er auf dem TV-Bildschirm gesehen hat, durch angeblich „menschgemachten Klimawandel“ verursacht sei.

Aber es war auf dem TV- Bildschirm in diesem SRF1 RUNDSCHAU-TV-Beitrag in Wahrheit garnichts zu sehen, was die Behauptungen von Bob Johnson und der Offstimme belegen würde. Es wurde stattdessen dem TV-Zuschauer die bildliche und sprachliche Behauptung eines Gezeiten-Wechsels von Ebbe und Flut als angeblich „menschverursacht“ eingeredet. Mehr war an angeblichen „Beweisen“ in dieser Film-Sequenz nicht auszumachen. Oder sehen Sie, lieber Blog-Leser, das anders?

Zur Erinnerung:

Im Herbst 2013 hatte das Schweizer Fernsehen in einer TV-Dokumentation in ähnlicher Weise wörtlich behauptet, ein Dorf auf einer Südsee-Insel von Kiribati sei angeblich durch den Klimawandel zerstört worden. Unsere Beschwerde beim SRF-Ombudsmann hatte damals die korrekten Zusammenhänge und Ursachen ans Licht gebracht.

Hinzu kommt, dass die aktuelle Behauptung vom 26.04.2017 in der SRF1 RUNDSCHAU,

das Wasser würde bis [zum Jahr] 2100 um einen Meter ansteigen

KEINE PROGNOSE ist, sondern faktisch (!) ein Computerszenario in Form einer szenarienbedingte Projektion, die in einem linear-mathematisch-programmiertem Computerklimamodell eingegeben worden ist, in dem CO2 ein maßgeblicher Parameter (Variable) ist. In der Realität, d.h. auf der Erde, konnte ein solcher Temperaturanstieg bedingt durch CO2 noch nicht nachgewiesen werden. Der angebliche „Temperaturanstieg“ durch CO2 findet nur in Computerklimamodellen statt.

Und: Wir haben in unseren zahlreichen Videos schon mehrfach durch einschlägige Zitate der Klima(folgen)forschung belegt und dokumentiert, dass auch die offizielle Klima(folgen)forschung bestätigt und zugibt, dass KEINE KLIMAPROGNOSEN erstellt werden. Das gilt auch für ein Szenario (= Computerspiel) eines angeblichen Meeresspiegelanstiegs bis zum Jahr 2100.

Und die „Krönung“ der #FakeNews:
Bei Minute 02:09 behauptet dann die weibliche Offstimme:

Die beiden sind immer wieder perplex, wie viele Leute nicht an die Mitschuld des Menschen am Klimawandel glauben. Dass sie z.B. die Werte von Messstationen ignorieren. Als Beamter muss Bob sich aber vorsichtig äußern.

Und Bob Johnson behauptet dann noch ab Minute 02:25 mit der Messstation im Hintergrund:

02:27: Bob Johnson mit im Hintergrund einer Meeresspiegel-Messstation


Wir müssen es halt immer wieder erklären. Wenn jemand DAS HIER sieht, ist es schwierig alles zu leugnen.

Frage von einem kritischen, halbwegs-intelligenten Zuschauer:

Wann und wo wurden denn am 26.04. im TV-Bericht von Peter Düggeli die angeblichen „Messwerte der Messstationen“ gezeigt, die von der weibliche Offstimme ab Minute 2:09 erwähnt wurden?

Der TV-Beitrag zeigt stattdessen parallel zu diesem obigen Zitat „Messwerte der Messstationen“ nur  eine im Wasser stehende Messstation, ohne aber zusätzlich statistische Datenreihen von dieser Messstation dem Zuschauer zu zeigen, die eindeutig belegen können, dass der Meeresspiegel in den letzten Jahren und Jahrzehnten an dieser Stelle oder in den gesamten Everglades bzw. an den Küsten Floridas angestiegen ist.

Die Einblendung eines solchen Belegs mit einer glaubwürdigen Messreihe wäre die elementarste journalistische Pflicht und Aufgabe des TV-Journalisten Peter Düggeli und letztendlich auch der verantwortlichen SRF1 RUNDSCHAU-Redaktion rund um Sandro Brotz gewesen, anstatt dem Zuschauer lediglich das Standbild einer in den Everglades stehenden Messstation zu zeigen und dem Zuschauer zu suggerieren, damit wäre der Beweis erbracht, dass der Mensch eine angebliche (Mit-)schuld am CO2-Klimawandel hätte.

Hallo?

Wir haben haben daraufhin selbst im Internet Messreihen über die Pegelstände in Florida in den letzten 27 Jahren recherchiert und haben festgestellt, dass definitiv seit mindestens 27 Jahren, seit 1990, kein Meeresspiegelanstieg an Floridas Messstationen festzustellen ist:



Recherchieren Sie selbst: Weitere Messstations-Grafiken aus Florida bei dieser Quelle (Aber Achtung: Lassen Sie sich dort nicht durch die Trendgrafiken täuschen).

Die SRF „RUNDSCHAU“-Redaktion würde gut daran tun, wenn sie eine mindestens 30-jährigen Messreihe mit Messwerten der im TV-Beitrag eingeblendeten Messstation vorlegen könnte…

02:21: Messstation in den Everglades


… ähnlich der drei Grafiken, wie sie – oben zu sehen – von drei Orten in Florida (Mayport, Pensacola, Key West) von unserer Seite ohne großen Aufwand im Internet recherchiert werden konnten.

Danach folgt im SRF1 RUNDSCHAU TV-Beitrag ein sekundenlanges „Trump-Bashing“, wo US-Präsident Donald Trump mit seinen altbekannten Zitaten als angeblicher „Klimaleugner“ dargestellt wird, mit dem abschließenden Zitat der weiblichen Offstimme bei Minute 03:13:

02:44 Der neue US-Präsident Donald Trump als angeblicher „Klimaleugner“.


 

Trump verhöhnt die Wissenschaft, schürt Unglauben und Verwirrung

Danach kommt ein Ken Kimmell von der HARVARD-Universität zu Wort:

03:24 Ken Kimmell


Er ist wohl parallel in der „Gewerkschaft für besorgte Wissenschaftler“ und sein O-Ton wird ab Minute 03:24 von der deutschen Offstimmen-Übersetzungen wie folgt übersetzt:

Was ist, wenn die US-Regierung eine Kehrtwende macht und nur die verrückten Wissenschaftler unterstützt, die den Klimawandel anzweifeln und versuchen andere Gründe dafür zu finden? Was, wenn die [US-] Regierung eine Propaganda-Maschine gegen den Klimawandel wird und nichts mehr dagegen unternimmt?

Zu beachten ist, dass Ken Kimmell zu Beginn seines Statements wörtlich gesagt hatte:

The fear I have that the United States government…

und diese Eingangsworte von Ken Kimmell ins DEUTSCHE wie folgt übersetzt wurden:

Was ist, wenn die US-Regierung…

Wollte man von Seiten der SRF RUNDSCHAU-Redaktion die „Angst“ der Wissenschaftler in dieser deutschen Übersetzung ausblenden, dass diese Wissenschaftler, wie Ken Kimmell, „Angst“ um ihre Forschungsgelder haben, wenn nur noch „die Wissenschaftler der Gegenseite“ mit Forschungsgeldern unterstützt werden?

Es wäre noch zusätzlich interessant zu erfahren, was Ken Kimmell im US-amerikanischen Original-Interview anstelle der Begriffe

verrückte Wissenschaftler…

und

Propaganda-Maschine…

gesagt hatte. Aber leider sind die amerikanischen Original-Worte aus dem Interview nicht deutlich genug herauszuhören.

Ab Minute 03:50 wurden dann in der SRF1 RUNDSCHAU vom 26.04.2017 Ausschnitte vom sog. „March for Science“ vom 22.04.2017 in Washington DC gezeigt, wo angeblich 40’000 Wissenschaftler „für ihre Glaubwürdigkeit“ und „gegen Trump“ auf die Straße gegangen sind:

03:50: Wissenschaftler beim „March for Science“ in Washington DC


Das folgende Zitat bei Minute 04:18 dieses angeblichen Wissenschaftlers ist als „Hohn schlechthin“ zu bewerten, wenn Sie sich in Erinnerung rufen, was wir in den obigen Zeilen über diese aktuelle SRF1 RUNDSCHAU-Berichterstattung vom 26.04.2017 recherchiert haben:

04:18 Wissenschaftler über Trump


 

Trump fehlen die Berater, die ihm helfen, wissenschaftliche Fakten zu verstehen. Er bildet sich seine Meinung nur von dem, was er im TV sieht.

Interessant, „was er im TV sieht„: Es wird Trump unterstellt, er würde sich seine Informationen nur aus dem TV holen. Jeder soll sich mal fragen, wie viele „dumme“ Menschen durch diesen grob-fehlerhaften und suggestiven  SRF1 RUNDSCHAU-TV-Beitrag vom 26.04.2017 wieder „glauben“ werden, die Everglades würden versinken, wenn wir diese perfiden medialen Suggestionen, „Halbwahrheiten“ und Falschbehauptungen nicht durch diesen Blogtext hier offenlegen und entlarven würden?

Oder auch dieses Zitat dieser angeblichen Wissenschaftlerin beschreibt genau das Gegenteil, was als wissenschaftliche Wahrnehmung festzustellen ist:

04:29 eine Wissenschaftlerin über Trump


 

Er versetzt den Planeten in Angst und Schrecken. Dagegen kämpfe ich an.

Dabei sind es die Klimawissenschaftler, die seit über 30 Jahren das Horrorszenario einer drohenden Klimakatastrophe heraufbeschwören.

Danach setzt der SRF RUNDSCHAU TV-Beitrag die Berichterstattung in den Everglades fort und die weibliche Offstimme behauptet bei Minute 04:42:

04:42 Peter Düggeli mit Bob Johnson zurück in den Everglades

Bob [Johnson] zeigt uns, wie sich die Landschaft wegen des Klimawandels verändert.

Kritische und intelligente TV-Zuschauer werden daraufhin wieder gespannt auf „Beweise“ warten, die den [menschgemachten] Klimawandel belegen. Sie warten vergeblich, denn Bob Johnson zeigt bei Minute 04:50 in die Mangroven- und Sumpf-Landschaft und behauptet:

04:50 Bob Johnson zeigt auf den „Klimawandel“

Dahinten sehen wir Mangroven-Bäume, die mehr ins Landesinnere wandern. Wegen der steigenden Meeresspiegel durchdringt das Salzwasser die Böden. Aus Everglades wird so marines Mündungsgebiet.

Und erinnern Sie sich noch: Die Offstimme behauptete bei Minute 04:42 doch

Bob Johnson zeigt uns

Außer dem Zeigen von „Mangroven-Bäumen dahinten“ wurde dem Zuschauer nix „Faktisches“ gezeigt, was objektiv einen menschgemachten Klimawandel wissenschaftlich belegen würde. Stattdessen „zeigte“ die SRF RUNDSCHAU wieder nur einen Behauptungs-Monolog eines Bob Johnson.

Und der Autor Peter Düggeli schlug dann bei Minute 05:10 journalistisch geschickt den Bogen nach Miami, in dem er die Frage stellte:

05:10 Peter Düggeli schlägt geschickt den Bogen in Richtung Miami


 

Und was passiert in der Stadt Miami, wenn das Meer steigt?

Bob Johnson antwortete daraufhin:

Wir müssen die Stadt [Miami] verändern. Straßen erhöhen und Wasser zurück ins Meer pumpen.

Daraufhin zeigt die SRF RUNDSCHAU Bilder und Stimmen aus Miami, die die angebliche Bedrohung durch den angeblich steigenden Meeresspiegel belegen würden.

06:02 Miami von oben


Die weibliche Offstimme behauptet dann bei Minute 06:02 als Zusammenfassung auf diese angebliche „Bedrohung“, zusammen mit Luftbildern auf die Kernstadt Miami:

Miami, allein die Kernstadt hat 500.000 Einwohner. Das Gebiet ist durch den Wasseranstieg bedroht.

Bemerkenswert: Die weibliche Offstimme behauptet „Wasseranstieg“ und eben nicht „Meeresspiegelanstieg“.

Denn die recherchierbaren Pegelstände über den Meeresspiegelanstieg weisen ebenfalls seit 27 Jahren in Miami Beach keinen Meerespiegelanstieg aus, schauen Sie selbst:

Wohl deshalb hat man dann bereits seit ca. 1983 die Pegel-Messungen in Miami Beach eingestellt.  Denn es ist ja auch wohl auch „einfacher“, einen fiktiven Trend durch eine Linie einzutragen und damit zu behaupten, es gäbe angeblich einen Meeresspiegelanstieg, schauen Sie mal:

Kein Witz: Auch diese Grafik mit den Trendlinien können Sie so – mit den von der NOAA eingezeichneten Trendlinien – auf der Webseite der NOAA abrufen. So wird offenkundig durch eine „gewünschte“ Trendlinie ein angeblicher Meeresspiegelanstieg „konstruiert“.

Unglaublich !!

Dieser Sachverhalt war in diesen Tagen ohne viel Mühe im Internet zu recherchieren. In der SRF RUNDSCHAU vom 26.04.2017, die mit Gebührengeldern finanziert wird, erfährt der TV-Zuschauer darüber nix.

Verstehen Sie jetzt, warum Donald Trump auch zurecht darüber nachdenkt, diese merkwürdige Ozean-Behörde NOAA abzuschaffen?

Stattdessen setzt die SRF  Rundschau am 26.04. das Klimawandel-Leugner-Bashing gegen die US-Regierung fort und kritisiert nun den neuen Chef der US-amerikanischen Umweltbehörde EPA, Scott Pruitt. Die Offstimme behauptet bei Minute 06:13:

06:22 Der neue Chef der US-Umweltschutzbehörde EPA: Scott Pruitt


 

Aber ausgerechnet der Chef der US-Umweltschutzbehörde zweifelt an der maßgeblichen Schuld des Menschen am Klimawandel.

Scott Pruitt wird dann in einem Fernsehinterview – journalistisch ausgewogen – mit seiner kritischen Auffassung ab Minute 06:22 zitiert:

Der Einfluss des Menschen aufs Klima nachzuweisen ist sehr schwierig. Ich glaube nicht, dass er [der Mensch] ein Haupttreiber der globalen Erwärmung ist.

Danach kommen im SRF RUNDSCHAU TV-Beitrag erneut Wissenschaftler, diesesmal aus Chicago, zu Wort, die Trinkwasser analysieren und die angeblich von den 30%-Kürzungen in der US-Umweltbehörde EPA betroffen sein werden. Merkwürdig: Die SRF RUNDSCHAU lässt nun Umweltwissenschaftler (!), die Trinkwasser analysieren, zu Wort kommen, obwohl Trumps Kritik an der EPA sich vornehmlich gegen überbordende Klimaschutz-Maßnahmen richtete. Die SRF RUNDSCHAU wirft also „Umweltschutz“ und „Klimaschutz“ fälschlich in einem Topf. Das gipfelte dann in der Erwähnung eines Trinkwasser-Skandals in der US-amerikanischen Stadt Flint, wo vor Jahren Trinkwasser durch Blei vergiftet worden war. Der intelligente TV-Zuschauer fragt sich zurecht:

Was hat so ein Umweltskandal um verseuchtes Trinkwasser mit „Global Warming“ zu tun?

06:56 Peter Düggeli (Mitte) mit den beiden EPA-Umweltwissenschaftlern Wayne Wipple (rechts) und Frank Lagunas (links)


Es ist dadurch deutlich erkennbar, wie die SRF RUNDSCHAU dem TV-Zuschauer zu suggerieren versuchte, die Klima(folgen)forscher würden in der gleichen löblichen Art und Weise agieren, wie die beiden Trinkwasser-Analytiker aus Chicago, die den Trinkwasserskandal in der Stadt Flint aufgedeckt haben.
Die Realität und die „Aufgabe“ der Klima(folgen)forschung sieht aber vollkommen anders aus, was auch schon Ottmar Edenhofer vom PIK in Potsdam bereits vor Jahren zugegeben und bestätigt hatte:

Ottmar Edenhofer wiederholte seine obige These über das „Umverteilen von Weltvermögen per Klimaschutz“ auch noch einmal im Februar 2011.

Die SRF RUNDSCHAU ließ dann am 26.04.2017 durch einen O-Ton die Behauptung verbreiten, die von Donald Trump geplanten Kürzungen bei der EPA würden in Zukunft die Aufdeckung solcher Umweltskandale nahezu unmöglich machen.

Frank Lagunas von der EPA, Chicago behauptet bei Minute 07:55:

07:55: Frank Lagunas


 

Zu wissen, dass Leute krank werden können, oder sogar sterben, nur weil Budgetkürzungen unsere Mittel einschränken, das ist herzzerreißend.

Dann werden von SRF RUNDSCHAU drei ehemalige Twitter-Behauptungen  von Donald Trump eingeblendet, die sich aber in Gänze auf Kritik an der Klimawissenschaft beziehen:

08:14


08:17


08:21

Beachten Sie:

Global Warming“ in den Twitter-Meldungen von Donald Trump wurde von der SRF RUNDSCHAU-Redaktion durchweg fälschlich ins Deutsche mit „Klimawandel“ übersetzt.

Die Behauptung/These, die US-amerikanischen Atomwaffentests nach dem 2. Weltkrieg hätten Einfluss auf das Klima gehabt, gab es wirklich. Und es wurde von „Klimapapst“ Schellnhuber auch schon mit dem 2. Weltkrieg als mögliche Erklärung für die globale Abkühlung von 1945 bis 1965 spekuliert:

Die weibliche Offstimme behauptet dann zum Ende des sehr beanstandungswürdigen SRF RUNDSCHAU-Beitrages von Peter Düggeli, während die Kamera über die schöne Sumpf-Landschaft der Everglades fährt:

08:27: Das „Schlusswort“ der weiblichen Offstimme, oder: „Das Wort zum Sonntag“


 

Umwelt und Natur in den Everglades. In Amerika. In dem ganzen Globus. Sie sind jetzt auch dem Klimaskeptiker Trump ausgeliefert.

Fazit:
Übelste Klimawandel-Propaganda in der SRF RUNDSCHAU am 26.04.2017

Fassen wir noch einmal die oben im Detail geschilderten Kritikpunkte in Kurzform zusammen:

  • Fälschliche Suggestion in der Anmoderation durch Sandro Brotz, es gäbe in den Everglades (Florida) angeblich Beweise für den menschgemachten Klimawandel. Denn die von Sandro Brotz suggerierten „Fakten“ entpuppen sich im TV-Bericht von Peter Düggeli dann als „Konjunktive“ und subjektive „Zukunftsszenarien“.

  • Behauptungen (Szenarien) über einen angeblichen Meeresspiegelanstieg bis zum Jahr 2100 werden fälschlich als „Prognosen“ bezeichnet.

  • Küstenerosionsvorgänge, die nur als natürliche Ebbe- und- Flut-Vorgänge auszumachen sind, werden suggestiv als „vom Klimawandel verursacht“ ausgewiesen.

  • Anstatt glaubwürdige Pegelstatistiken über einen angeblichen Meeresspiegelanstieg vorzulegen, wird nur ein Standbild einer Everglades-Messstation  gezeigt.

  • „Klimaschutz“ wird fälschlicherweise mit „Umweltschutz“ gleichgesetzt.

  • Mehrere (bewusst?) falsche Übersetzungen aus dem Amerikanischen ins Deutsche.

Wir informieren über diesen Blogtext auch Sandro Brotz und die RUNDSCHAU-Redaktion. Wir erwarten bis zum 7. Mai 2017 eine dezidierte Stellungnahme durch die SRF RUNDSCHAU Redaktion, bevor wir über weitere Schritte (Beschwerde beim SRF OMBUDSMANN) entscheiden werden. Die 20-Tagesfrist für eine solche Ombudsmann-Beschwerde läuft am 16. Mai 2017 ab.

Sollten wir eine Stellungnahme der SRF RUNDSCHAU REDAKTION erhalten, werden wir hier in unserem Blog darüber informieren.

Es steht jedem Leser dieses Blogtextes frei, ebenfalls jederzeit eine Beschwerde beim Schweizer Ombudsmann einzureichen.

————————————————–
Dieser Beitrag wurde übernommen von: https://www.klimamanifest-von-heiligenroth.de/wp/klimawandel-fakenews-in-der-srf-rundschau-am-26-april-2017/




Bemerkungen zur April-Kältewelle in Mitteleuropa

Während des vergangenen Winters lag der hemisphärische Kältepol wie auch während der Vorwinter im kanadisch-grönländischen Sektor der Arktis. Auffällig dabei war, dass die jahreszeitlich bedingte Abschwächung desselben verzögert war. Selbst derzeit werden über der nördlichen Hudson-Bay im 850-hPa-Niveau immer noch großräumig Temperaturwerte unter -25°C angetroffen. Immer wieder erfolgten daraus Kaltluftvorstöße über Nordskandinavien hinweg bis nach Russland. In Nordskandinavien dürfte es also eines der kältesten Frühjahre jemals gegeben haben, aber weil das dem Establishment nicht passt, hört man davon nichts.

Der Kältepol ist aber immerhin kleiner geworden. Und dennoch, schon zu Anfang des Monats, als noch niemand etwas Böses ahnte, hatte sich der Autor Sorgen gemacht, ob nicht ein solcher Kaltluftvorstoß direkt nach Mitteleuropa erfolgen könnte. Das ist im April natürlich völlig normal, und es war keine Frage, OB es dazu kommt, sondern WANN. Es war aber klar, dass ein solcher Kaltluftausbruch nach Mitteleuropa in diesem Jahr besonders intensiv ausfallen würde. Infolge des bis dahin recht warmen Frühjahres war die Natur viel weiter mit dem Austrieb als in anderen Jahren. Frostschäden waren also unvermeidlich. Im Garten des Autors hatte die Apfelblüte bereits eingesetzt, besondere Schäden konnte er aber nicht feststellen (Temperatur in seinem Garten am Morgen des 21. April 2017 etwa -3°C bis -4°C). Anders sah es beim Walnussbaum aus. Auch der hatte bereits ausgetrieben samt der Pollenträger, aber ausnahmslos alle grünen Spitzen hingen am nächsten Tag schwarz und schlaff herab. Das war diesmal das dritte Jahr nacheinander, dass dieser Baum abgefroren ist.

Die Wetterlage vom 20. bis 23. April 2017

Bild 1 zeigt die Wetterlage vom 23. April, 00 Uhr UTC (02 Uhr MESZ; Quelle). Der zugehörige 500-hPa-Trog (links) ist stark ausgeprägt, im 850-hPa-Niveau (rechts) zeigen sich Temperaturwerte unter -10°C. Der Trogvorstoß erfolgte direkt von Norden her über Skandinavien hinweg. Die Kaltluft konnte also den kürzestmöglichen Weg nehmen und hat sich daher auf dem Weg nach Süden kaum erwärmt. Außerdem lag in Skandinavien noch recht viel Schnee, wie Bild 2 zeigt:

Bild 2: Schneebedeckung Nordeuropa vom 23. April 2017. Quelle.

Rekordwerte – wirklich?

Kurz gesagt: Ja und nein! (Wenn es in der Wissenschaft doch nur so eindeutige „Ja“- und „Nein“-Antworten gäbe, wie es uns die Alarmisten immer vorgaukeln!). Zunächst einmal: In der mittleren Troposphäre war der Höhepunkt des Kaltluftvorstoßes am 23. April schon überschritten. Aber erst der nachfolgende Hochkeil brachte verbreitet Aufklaren und fast Windstille, so dass die Ausstrahlung erst in der Nacht zum 23. April die Temperatur in Bodennähe auf das Niveau von Rekordwerten sinken ließ (wo war eigentlich der CO2-Deckel, von dem Politik und Medien immer schwafeln?). Für einen 23. April mögen es Rekordwerte gewesen sein, aber das ist völlig unerheblich. Zu erinnern ist hier an einen von der Wetterlage her ähnlichen Kaltluftvorstoß von Norden her – aber erst um den 10. Mai – also genau pünktlich zu den Eisheiligen. Schauplatz ist das Jahr 1978, als zwei Wochen später im Frühjahr (!) ähnliche Absolutwerte der Temperatur wie dieses Jahr im April aufgetreten waren. Der Erinnerung des Autors nach war aber damals das Frühjahr ziemlich kalt ausgefallen, so dass die Natur etwa auf dem Stand dieses Jahres gewesen sein dürfte. Aber: Es geht sogar noch kälter!

Bild 3 zeigt die Wetterlage vom 11. Mai 1978, 00 Uhr UTC. Diese Karten waren jedoch nur bei Wetterzentrale.de verfügbar, daher die ganz andere Darstellung. Man erkennt aber auch hier das Muster: Ein mit hochreichend kalter arktischer Luft angefülltes Höhentief zog genau über Deutschland hinweg, also etwas weiter westlich als der diesjährige Trog. Über Berlin wurde am 11. Mai 1978 im 850-hPa-Niveau eine Temperatur von -12,3°C gemessen – und das war ein absoluter, weder davor noch danach je wieder erreichter Rekord. In der Re-Analyse erscheint der Temperaturgegensatz zwischen der Trogkaltluft und der umgebenden wärmeren Luft verwischt, so dass die -10°C-Isotherme nicht ganz bis nach Ostdeutschland reicht.

Bild 3: Wetterlage vom 11. Mai 1978. Quelle

Der beschriebene Vorgang ist natürlich Wetter – und nicht Klima. Auffällig war, dass in den medialen Wetterberichten, also am Wochenende um den 16. April, in keiner Weise auf den drohenden Frost hingewiesen worden ist. Es hieß nur, es „wird kälter“. Dem Autor ist in diesem Zusammenhang ein Blog aufgefallen, auf dem bereits eine Woche im Voraus auf diesen Kaltluftvorstoß hingewiesen worden war. Der Beitrag zeichnete sich wie alle Beiträge auf diesem Blog durch eine eindrucksvolle Zusammenstellung aller relevanten Karten und Graphiken aus. Der Beitrag steht hier. (Der Autor empfiehlt, immer mal wieder auf dem Blog vorbeizuschauen (https://wobleibtdieglobaleerwaermung.wordpress.com/).

Fazit: Es war sicher sehr kalt, aber es war sicher keine Rekordkälte. Und genauso normal oder anomal wie die Hitze im Jahre 1968 (!), als um diese Zeit im April bereits Heiße Tage mit Maxima über 30°C aufgetreten waren.

Im Übrigen: Eigentlich hätte doch die Klimaille in Politik und Medien laut jubeln müssen über die Kälte! Schließlich soll doch die Wärme die große Katastrophe sein…

Aktualisierung vom 27.4.2017:

Dem beschriebenen Kaltluftvorstoß von Norden her über Skandinavien hinweg folgte gleich noch ein zweiter, diesmal aber mehr aus Nordwest über die Nordsee hinweg. Infolge des maritimen Einflusses war es nicht ganz so kalt, aber für Nachtfrost in klaren Nächten in Norddeutschland hat es wieder gereicht.

Anders war die Lage diesmal in Süddeutschland. Dieser neue Kaltluftausbruch stieß auf schon recht warme Luft über Südosteuropa. Diese Wetterlage führt oft zur Entwicklung der so genannten Vb-Tiefs (hier steht eine gute Erklärung, was das ist), was im Frühjahr durchaus vorkommt. In diesem Falle kam zwar die Kaltluft, wie gesagt, über die Nordsee, doch war deren Ursprungsgebiet der gleiche extrem kalte Kaltluftkörper über Nordeuropa.

Die entsprechende Wetterlage zeigt Bild 4. Es bildete sich eine sehr markante, von Südwest nach Nordost verlaufende Luftmassengrenze, wobei dynamische Hebungsantriebe in Süddeutschland für lang anhaltende Aufgleitprozesse sorgten, d. h. die warme Mittelmeerluft glitt auf die Kaltluft auf. Ein eigenständiges Tiefdruckgebiet löste sich jedoch diesmal nicht ab, so dass der Prozess mehrere Tage lang über Süddeutschland stationär verharrte. Dabei sank die Schneefallgrenze schließlich unter 500 m, was bei dem schon recht weit fortgeschrittenen Pflanzenaustrieb zu erheblichem Schneebruch führte.

Wie die numerischen Rechnungen zeigen (Stand: 29.4.2017) ziehen die nächsten Wettersysteme von Westen und Südwesten heran. Nach kurzer Pause dürfte sich also das niederschlagsreiche Wetter fortsetzen, wenngleich jedoch auf einem deutlich höheren Temperaturniveau. Auch im westlichen Deutschland, das im Frühjahr von den ganzen Niederschlagsvorgängen außen vor gelassen wurde, dürfte es dann ergiebiger regnen.

Zum Schluss noch zwei Bilder aus dem Garten des Autors am Morgen des 28. April 2017. Es sah dort recht marode aus, aber weder der Frost noch der nachfolgende Schnee richteten Schäden an. Der blühende Apfelbaum auf dem Bild links hat den ganzen Vorgang ohne erkennbare Schäden überstanden.

Schlussbemerkung: Wie unter dem o. g. Link erläutert, ist dieser Typ Wetterlage häufig mit erheblichen Niederschlagsmengen verbunden. Im Garten des Autors waren es während der drei Tage fast 70 Liter pro Quadratmeter, was aber eher am unteren Ende der aufgetretenen Mengen liegen dürfte. Der Schneebruch ist zwar ein Ärgernis, aber hätte die Schneefallgrenze deutlich höher gelegen, hätte es mit Sicherheit trotz der durch das bislang trockene Frühjahr niedrigen Wasserstände zu erheblichem Hochwasser mit einer deutlich höheren Schadensbilanz geführt.

Dipl.-Met. Hans-Dieter Schmidt




CO2 neutral in die Zukunft der Armut zurück segeln

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Wie inzwischen in der Politik, wird auch dort jeder neue Messias zuerst einmal frenetisch bejubelt, wie es der Redakteur schon fast wie bei einer Stelle im Neuen Testament beschrieb:
WESERKURIER: [3] … Lauter Jubel brandet drauf. Die Menschen stehen am Ufer des Europahafens und applaudieren, rufen, jauchzen. Der Ökofrachtsegler „Avontuur“ fährt in den Hafen der Bremer Überseestadt ein.

Der Durchbruch im Ökotransport: Frachtsegler

Was war dazu der Anlass? Ein Durchbruch in der Ökogeschichte! Der leibhaftige Beleg, dass ein Frachtsegler (wieder) von Mittelamerika bis nach Bremen segeln kann, und das erstmals in der jüngeren Weltgeschichte wieder mit Bioware.
WESERKURIER: [3] … „Wir haben doch gerade bewiesen, dass es möglich ist, eine Fracht klimafreundlich über weite Seestrecken zu transportieren“… Mit dem Segelschiff „Avontuur“ erreichte nach Angaben der Verantwortlichen des Projekts Timbercoast erstmals ein Segelschiff mit Biokaffee die Stadt,
… diesmal sogar erweitert um den über lange Zeit verschmähten und nur noch aus sehr alten Filmen und fernen Ländern bekannten, ökogerechten „human power“-Weitertransport an Land:
WESERKURIER: [3] … Kurz vor 14 Uhr wurde dann auch der erste 69 Kilogramm schwere Kaffeesack der Bremer Marke Slokoffie mit einem Seilnetz an Land gehoben. In Kooperation mit dem Fahrrad-App-Anbieter „Bremen Bike it!“ wurden die Kaffeebohnen entladen und in die Rösterei Vollers am Speicherhof gebracht. Zahlreiche Freiwillige transportierten mit antiken Sackkarren aus dem Hafenmuseum und Lastenrädern die Säcke ins Lager. Muskelkraft statt Maschinen und Motoren …

Warum man die Möglichkeiten der über Jahrhunderte erfolgreich durchgeführten Segelschifffahrt neu mit einem uralten Frachtsegler beweisen muss, wird sich nicht jedem erschließen. Beim Klimawandel und der Ökofortbewegung scheint man aber zu viel an altbekannter Erfahrung verloren zu haben, weshalb auf diesem Gebiet so ziemlich alles neu erforscht und mit viel Aufwand ausprobiert werden muss. Gut, der anschließende Landtransport mit Lastenrädern gilt inzwischen auch amtlich als super-modern und dass antike Sackkarren mit dem Slogan „Muskelkraft statt Maschinen und Motoren“ unterstützen, kann ein Vorgriff auf eine noch kommende „Öko-Erneuerer Bewegung“ sein. Nicht unwahrscheinlich, dass Frau Hendricks diese neue Öko-Transport-Idee für den wirklich ganz CO2-freien Transport zum Klimaschutz als förderwürdig aufnimmt, zuerst ganz genau mit vielen Studien erforschen lässt um ihn dann flächendeckend zu sponsern.

Man mag zu dieser klimarettenden Tat stehen wie man will, doch ob es das ist, was sich der deutsche Bürger als Zukunft vorstellt, soll anhand einer kapitalistischen Betrachtung ergründet werden.

Hinweis: Eine solche Betrachtung wurde bereits im Artikel:
EIKE 25.04.2017: [6] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr,
durchgeführt. Anhand dieser soll nur wieder ergänzend gezeigt werden, welcher offensichtliche Kostenirrsinn in den Klimaaktivitäten hinterlegt ist und diese sich vom Bau von Kirchtürmen zur Hagelabwehr in keiner Weise unterscheidet.

Kostenschätzung der halben Reise mit Lastentransport

Der Frachtsegler war mit 15 Personen Besatzung 8 Monate unterwegs. Auf der Rückfahrt hat er von Honduras 20 Tonnen Bio-Kaffeebohnen und 2 Fässer Rum sowie weitere mit Gin nach Kiel transportiert.
Für die Abschätzung wird weggelassen, dass alleine das Herrichten des Frachtseglers durch 160 Freiwillige 1,6 Millionen EUR gekostet hat [5], also nicht wenig Verzinsung bindet. Auch der wegweisende, CO2-freie Weitertransport in Kiel durch Muskelkraft vieler Freiwilliger mit antiken Sackkarren wird kostenmäßig nicht berücksichtigt. Sehr wohlwollend werden auch die erheblichen Aufwendungen für die Hinfahrt nach Honduras weggelassen, denn man hätte da auch schon Fracht transportieren können.

Doch auch ohne dies ist das Ergebnis ökonomisch ein Desaster und zeigt überdeutlich, warum diese Art der Frachtsegelei schon vor längerer Zeit sofort aufgegeben wurde, als Alternativen aufkamen.

Für die Rücksegeltour bleiben an Aufwendungen:
-Gesamtreise: 15 Personen, Reisedauer 8 Monate = 120 MM
-Rückreisedauer der Lastsegel-Fahrt: 60 MM, zzgl. anteiligem Jahresurlaub von 4 Wochen, ohne Krankheitszeiten
-Mindestlohn: 8,84 EUR/h
Netto-Lohnkosten der Rückreise-Lastsegel-Fahrt: 60 MM x 30 Tage x 10 h x 8,84 EUR/h = 159.120 EUR

Lässt man den Schnaps als Beiladung beiseite, dann ergeben alleine die gesetzlichen Mindestlohnkosten für jedes Kilo Kaffee einen Betrag von 8,9 EUR / kg. Man darf also von wahren Frachtkosten im Bereich erheblich über 10 EUR / kg, weit realistischer jedoch von erheblich über 20 EUR / kg Kaffee ausgehen.

Der CO2-Nutzen

Spaßeshalber ist anbei der CO2- Ausstoß der Transportfahrt mit einem Tanker gelistet:

Bild: CO2-Ausstoß einer Frachtfahrt von Honduras nach Bremen. Quelle: ARKTIK CO2-Logistikrechner

Man betrachte die Genauigkeit der CO2-Berechnung auf fünf Stellen und Cent. Es ist eine besondere Eigenschaft der Klimawandel-Forscher, dass ihre Ergebnisse extrem genau sind (da Computer ohne extra Einstellung nicht runden und in dieser Zunft eine unübertroffene Computergläubigkeit herrscht), obwohl beispielsweise der CO2-Forcingwert aktuell eine gelistete Spanne zwischen 0,15 und 6 Grad pro CO2-Verdopplung ausweist und in inzwischen bei unter, oder bis zu ca. 1 °C vermutet wird (Anm.: „offiziell“ gilt der Sensitivitätswert aufgrund alter IPCC-Berichte von 3°C) .

Bild: Spanne der CO2-Sensitivität nach aktuellen Studien. Quelle: [7]

Es wird auf 4 t CO2 aufgerundet und mit dem viel zu hohen IPCC-Forcingwert von 3°C gerechnet. Damit berechnet sich der „Klimawandel-Einfluss“:

4 Tonnen CO2 entsprechen 0,51 x 10-9 ppm Atmosphärenbestandteile.
Auf 1 Millionen Luft-Moleküle mit anteilig 400 CO2-Molekülen wären durch einen kraftstoffgebundenen Seetransport also 0,0000005 Stück CO2-Moleküle dazu gekommen.
Der „Klimanutzen“ der alternativ durchgeführten Segelfracht beträgt rein rechnerisch:
5,5 x 10-12 °C, ausgetippt: 0,000000000005 °C (mit dem wahrscheinlichen Forcingwert davon etwa 1/3).
Und somit zeigt sich wieder, was im Artikel zur Berliner Stadtreinigung [6] bereits ausgeführt wurde: Beim Klimawandel gibt es keine Logik mehr, sondern Nachplappern und blanke Hysterie, verbunden mit einer tiefen Ökogläubigkeit:
WESERKURIER: [3] … Der Kaffeetransport mit der „Avontuur“ produziere übrigens mindestens 90 Prozent weniger Kohlenstoffdioxid gegenüber den herkömmlichen Lieferwegen per Flugzeug oder Containerschiff

Wirklich niemand hat etwas davon, außer ein paar Aktivisten ein ruhigeres Gewissen

Alleine damit ist wieder der Unsinn dieser Art Ökoidealismus belegt. Niemand hat davon wirklich etwas. Weder die Bauern in Honduras, denen schon ein geringer Teil der horrenden Frachtkosten weit mehr helfen würde, noch die vielen Transportmitarbeiter (sofern sie und ihre Familien sich davon ernähren müssten und es nicht nur als „Öko-Lustfahrt“ betrachten). Das Klima schon gar nicht und dem Eigner kann man sowieso die baldige Pleite vorhersagen, sofern sich dafür nicht schnell zusätzliche Sponsoren finden.

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Dafür ist Armut eine Verheißung [4], welche von Medien und (vielleicht) auch Bürgern inzwischen – noch mangels Erkenntnis – begrüßt wird.
WESERKURIER: [3] … die neben Abenteuern den nachhaltigen Handel auf See erlernen. Sie verbinde die Begeisterung für das Projekt des emissionsfreien Seetransports und vor allem die Nachhaltigkeit. Die See hat die Besatzungsmitglieder gezeichnet: Sie sind braun gebrannt, die Haare durch die Seeluft wuschelig und das Salzwasser heller geworden, mehrere Männer tragen Vollbart.
Leider beschreibt und erklärt dies viel (über den Zeitungsredakteur), aber bestimmt nicht das wahre Frachtsegelleben. Wer dieses wirklich erfahren möchte, sollte in alten Biografien nachlesen, was für eine schlimme Zeit es für die einfachen Matrosen war, vergleichbar den früher am Existenzminimum lebenden Knechten (und Mägden) bei den Bauern.

Dank an ScienceScepticalBlog für den Hinweis: [1] Avontuur: Die Zukunft der Frachtschifffahrt?

Quellen

[1] Science ScepticalBlog: Avontuur: Die Zukunft der Frachtschifffahrt?

[2] FOCUS ONLINE: Kaffee, Gin und Rum: Ökosegler „Avontuur“ wieder in Bremen

[3] WESERKURIER: Ökosegler „Avontuur“ legt am Europahafen an

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] NDR.DE: Ahoi: Öko-Frachtsegler „Avontuur“ sticht in See

[6] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[7] Climate Etc: Climate models versus climate reality




Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Beeinflussungs­grad der deutschen Jahresmittel­temperatur durch städtische Wärme­inseln erstmals flächen­deckend quanti­fiziert

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017.

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Erkennung anthropogen verursachter Anomalien der Temperatur in der Luft, am Boden und im Grundwasser in Deutschland

Menschliche Aktivitäten beeinflussen direkt die umgebenden Luft-, Oberflächen- und Grundwasser-Temperaturen. Das bekannteste Phänomen dieser Art ist der städtische Wärmeinsel-Effekt, welcher vor allem in großen und dicht besiedelten Städten untersucht worden ist. Diese Studie erkundet den anthropogenen Einfluss auf das thermische Regime nicht nur in ausgesuchten Stadtgebieten, sondern im landschaftsweiten Maßstab für Datensätze mittlerer jährlicher Temperaturen in Deutschland in drei verschiedenen Bereichen: gemessene Lufttemperatur, gemessene Temperatur des Grundwassers und aus Satellitenbeobachtungen abgeleitete Temperatur der Landoberfläche. Zieht man nächtliche Beleuchtung als Indikator ländlicher Gebiete heran, kommt die anthropogene Wärmeintensität ins Spiel. Diese ist auf jeden Datensatz anwendbar und zeigt die Differenz zwischen gemessenen lokalen Temperaturen und der mittleren ländlichen Hintergrundtemperatur. Dieses Konzept ist analog der etablierten städtischen Wärmeinsel-Intensität und anwendbar auf jeden Messpunkt oder Pixel innerhalb eines großen, sogar globalen Untersuchungsgebietes.

Für alle drei untersuchten Datensätze gilt: die anthropogene Wärmeintensität nimmt mit zunehmender nächtlicher Beleuchtung zu, sie nimmt ab bei zunehmender Vegetation. Die Bevölkerungsdichte hat dagegen nur geringe Auswirkungen. Die oberflächennahe anthropogene Wärmeintensität kann im untersuchten Gebiet (1 km X 1 km) nicht mit bestimmten Landschaftsformen und Klassifizierungsystemen in Verbindung gebracht werden. Aber sowohl Luft als auch Grundwasser zeigen gesteigerte Wärmeintensitäten bei künstlichen Oberflächen. Alles in allem scheint die Temperatur des Grundwassers am stärksten auf menschliche Aktivitäten zu reagieren, obwohl die unterschiedlichen Bereiche teilweise durch nicht in Relation stehende Prozesse beeinflusst werden. Anders als die Temperaturen an der Landoberfläche und der bodennahen Luftschichten ist die Grundwasser-Temperatur in kultivierten Gebieten ebenfalls erhöht. Die höchste anthropogene Wärmeintensität in Deutschland findet sich mit 4,5 K an einem Braunkohle-Tagebau bei Jülich, gefolgt von drei großen Städten (München, Düsseldorf und Nürnberg) mit jährlichen mittleren anthropogenen Wärmeintensitäten >4 K. Alles in allem lassen sich anthropogene Wärmeintensitäten > 0 K und damit städtische Wärmeinseln in Gemeinden bis hinab zu einer Bevölkerungsdichte finden.

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Abstract am Ende Chris Frey EIKE