CO2 neutral in die Zukunft der Armut zurück segeln

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Wie inzwischen in der Politik, wird auch dort jeder neue Messias zuerst einmal frenetisch bejubelt, wie es der Redakteur schon fast wie bei einer Stelle im Neuen Testament beschrieb:
WESERKURIER: [3] … Lauter Jubel brandet drauf. Die Menschen stehen am Ufer des Europahafens und applaudieren, rufen, jauchzen. Der Ökofrachtsegler „Avontuur“ fährt in den Hafen der Bremer Überseestadt ein.

Der Durchbruch im Ökotransport: Frachtsegler

Was war dazu der Anlass? Ein Durchbruch in der Ökogeschichte! Der leibhaftige Beleg, dass ein Frachtsegler (wieder) von Mittelamerika bis nach Bremen segeln kann, und das erstmals in der jüngeren Weltgeschichte wieder mit Bioware.
WESERKURIER: [3] … „Wir haben doch gerade bewiesen, dass es möglich ist, eine Fracht klimafreundlich über weite Seestrecken zu transportieren“… Mit dem Segelschiff „Avontuur“ erreichte nach Angaben der Verantwortlichen des Projekts Timbercoast erstmals ein Segelschiff mit Biokaffee die Stadt,
… diesmal sogar erweitert um den über lange Zeit verschmähten und nur noch aus sehr alten Filmen und fernen Ländern bekannten, ökogerechten „human power“-Weitertransport an Land:
WESERKURIER: [3] … Kurz vor 14 Uhr wurde dann auch der erste 69 Kilogramm schwere Kaffeesack der Bremer Marke Slokoffie mit einem Seilnetz an Land gehoben. In Kooperation mit dem Fahrrad-App-Anbieter „Bremen Bike it!“ wurden die Kaffeebohnen entladen und in die Rösterei Vollers am Speicherhof gebracht. Zahlreiche Freiwillige transportierten mit antiken Sackkarren aus dem Hafenmuseum und Lastenrädern die Säcke ins Lager. Muskelkraft statt Maschinen und Motoren …

Warum man die Möglichkeiten der über Jahrhunderte erfolgreich durchgeführten Segelschifffahrt neu mit einem uralten Frachtsegler beweisen muss, wird sich nicht jedem erschließen. Beim Klimawandel und der Ökofortbewegung scheint man aber zu viel an altbekannter Erfahrung verloren zu haben, weshalb auf diesem Gebiet so ziemlich alles neu erforscht und mit viel Aufwand ausprobiert werden muss. Gut, der anschließende Landtransport mit Lastenrädern gilt inzwischen auch amtlich als super-modern und dass antike Sackkarren mit dem Slogan „Muskelkraft statt Maschinen und Motoren“ unterstützen, kann ein Vorgriff auf eine noch kommende „Öko-Erneuerer Bewegung“ sein. Nicht unwahrscheinlich, dass Frau Hendricks diese neue Öko-Transport-Idee für den wirklich ganz CO2-freien Transport zum Klimaschutz als förderwürdig aufnimmt, zuerst ganz genau mit vielen Studien erforschen lässt um ihn dann flächendeckend zu sponsern.

Man mag zu dieser klimarettenden Tat stehen wie man will, doch ob es das ist, was sich der deutsche Bürger als Zukunft vorstellt, soll anhand einer kapitalistischen Betrachtung ergründet werden.

Hinweis: Eine solche Betrachtung wurde bereits im Artikel:
EIKE 25.04.2017: [6] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr,
durchgeführt. Anhand dieser soll nur wieder ergänzend gezeigt werden, welcher offensichtliche Kostenirrsinn in den Klimaaktivitäten hinterlegt ist und diese sich vom Bau von Kirchtürmen zur Hagelabwehr in keiner Weise unterscheidet.

Kostenschätzung der halben Reise mit Lastentransport

Der Frachtsegler war mit 15 Personen Besatzung 8 Monate unterwegs. Auf der Rückfahrt hat er von Honduras 20 Tonnen Bio-Kaffeebohnen und 2 Fässer Rum sowie weitere mit Gin nach Kiel transportiert.
Für die Abschätzung wird weggelassen, dass alleine das Herrichten des Frachtseglers durch 160 Freiwillige 1,6 Millionen EUR gekostet hat [5], also nicht wenig Verzinsung bindet. Auch der wegweisende, CO2-freie Weitertransport in Kiel durch Muskelkraft vieler Freiwilliger mit antiken Sackkarren wird kostenmäßig nicht berücksichtigt. Sehr wohlwollend werden auch die erheblichen Aufwendungen für die Hinfahrt nach Honduras weggelassen, denn man hätte da auch schon Fracht transportieren können.

Doch auch ohne dies ist das Ergebnis ökonomisch ein Desaster und zeigt überdeutlich, warum diese Art der Frachtsegelei schon vor längerer Zeit sofort aufgegeben wurde, als Alternativen aufkamen.

Für die Rücksegeltour bleiben an Aufwendungen:
-Gesamtreise: 15 Personen, Reisedauer 8 Monate = 120 MM
-Rückreisedauer der Lastsegel-Fahrt: 60 MM, zzgl. anteiligem Jahresurlaub von 4 Wochen, ohne Krankheitszeiten
-Mindestlohn: 8,84 EUR/h
Netto-Lohnkosten der Rückreise-Lastsegel-Fahrt: 60 MM x 30 Tage x 10 h x 8,84 EUR/h = 159.120 EUR

Lässt man den Schnaps als Beiladung beiseite, dann ergeben alleine die gesetzlichen Mindestlohnkosten für jedes Kilo Kaffee einen Betrag von 8,9 EUR / kg. Man darf also von wahren Frachtkosten im Bereich erheblich über 10 EUR / kg, weit realistischer jedoch von erheblich über 20 EUR / kg Kaffee ausgehen.

Der CO2-Nutzen

Spaßeshalber ist anbei der CO2- Ausstoß der Transportfahrt mit einem Tanker gelistet:

Bild: CO2-Ausstoß einer Frachtfahrt von Honduras nach Bremen. Quelle: ARKTIK CO2-Logistikrechner

Man betrachte die Genauigkeit der CO2-Berechnung auf fünf Stellen und Cent. Es ist eine besondere Eigenschaft der Klimawandel-Forscher, dass ihre Ergebnisse extrem genau sind (da Computer ohne extra Einstellung nicht runden und in dieser Zunft eine unübertroffene Computergläubigkeit herrscht), obwohl beispielsweise der CO2-Forcingwert aktuell eine gelistete Spanne zwischen 0,15 und 6 Grad pro CO2-Verdopplung ausweist und in inzwischen bei unter, oder bis zu ca. 1 °C vermutet wird (Anm.: „offiziell“ gilt der Sensitivitätswert aufgrund alter IPCC-Berichte von 3°C) .

Bild: Spanne der CO2-Sensitivität nach aktuellen Studien. Quelle: [7]

Es wird auf 4 t CO2 aufgerundet und mit dem viel zu hohen IPCC-Forcingwert von 3°C gerechnet. Damit berechnet sich der „Klimawandel-Einfluss“:

4 Tonnen CO2 entsprechen 0,51 x 10-9 ppm Atmosphärenbestandteile.
Auf 1 Millionen Luft-Moleküle mit anteilig 400 CO2-Molekülen wären durch einen kraftstoffgebundenen Seetransport also 0,0000005 Stück CO2-Moleküle dazu gekommen.
Der „Klimanutzen“ der alternativ durchgeführten Segelfracht beträgt rein rechnerisch:
5,5 x 10-12 °C, ausgetippt: 0,000000000005 °C (mit dem wahrscheinlichen Forcingwert davon etwa 1/3).
Und somit zeigt sich wieder, was im Artikel zur Berliner Stadtreinigung [6] bereits ausgeführt wurde: Beim Klimawandel gibt es keine Logik mehr, sondern Nachplappern und blanke Hysterie, verbunden mit einer tiefen Ökogläubigkeit:
WESERKURIER: [3] … Der Kaffeetransport mit der „Avontuur“ produziere übrigens mindestens 90 Prozent weniger Kohlenstoffdioxid gegenüber den herkömmlichen Lieferwegen per Flugzeug oder Containerschiff

Wirklich niemand hat etwas davon, außer ein paar Aktivisten ein ruhigeres Gewissen

Alleine damit ist wieder der Unsinn dieser Art Ökoidealismus belegt. Niemand hat davon wirklich etwas. Weder die Bauern in Honduras, denen schon ein geringer Teil der horrenden Frachtkosten weit mehr helfen würde, noch die vielen Transportmitarbeiter (sofern sie und ihre Familien sich davon ernähren müssten und es nicht nur als „Öko-Lustfahrt“ betrachten). Das Klima schon gar nicht und dem Eigner kann man sowieso die baldige Pleite vorhersagen, sofern sich dafür nicht schnell zusätzliche Sponsoren finden.

Doch wenn es der Klimarettung dient, gelten solche Betrachtungen nicht. Dafür ist Armut eine Verheißung [4], welche von Medien und (vielleicht) auch Bürgern inzwischen – noch mangels Erkenntnis – begrüßt wird.
WESERKURIER: [3] … die neben Abenteuern den nachhaltigen Handel auf See erlernen. Sie verbinde die Begeisterung für das Projekt des emissionsfreien Seetransports und vor allem die Nachhaltigkeit. Die See hat die Besatzungsmitglieder gezeichnet: Sie sind braun gebrannt, die Haare durch die Seeluft wuschelig und das Salzwasser heller geworden, mehrere Männer tragen Vollbart.
Leider beschreibt und erklärt dies viel (über den Zeitungsredakteur), aber bestimmt nicht das wahre Frachtsegelleben. Wer dieses wirklich erfahren möchte, sollte in alten Biografien nachlesen, was für eine schlimme Zeit es für die einfachen Matrosen war, vergleichbar den früher am Existenzminimum lebenden Knechten (und Mägden) bei den Bauern.

Dank an ScienceScepticalBlog für den Hinweis: [1] Avontuur: Die Zukunft der Frachtschifffahrt?

Quellen

[1] Science ScepticalBlog: Avontuur: Die Zukunft der Frachtschifffahrt?

[2] FOCUS ONLINE: Kaffee, Gin und Rum: Ökosegler „Avontuur“ wieder in Bremen

[3] WESERKURIER: Ökosegler „Avontuur“ legt am Europahafen an

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] NDR.DE: Ahoi: Öko-Frachtsegler „Avontuur“ sticht in See

[6] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[7] Climate Etc: Climate models versus climate reality




Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Beeinflussungs­grad der deutschen Jahresmittel­temperatur durch städtische Wärme­inseln erstmals flächen­deckend quanti­fiziert

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017.

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Erkennung anthropogen verursachter Anomalien der Temperatur in der Luft, am Boden und im Grundwasser in Deutschland

Menschliche Aktivitäten beeinflussen direkt die umgebenden Luft-, Oberflächen- und Grundwasser-Temperaturen. Das bekannteste Phänomen dieser Art ist der städtische Wärmeinsel-Effekt, welcher vor allem in großen und dicht besiedelten Städten untersucht worden ist. Diese Studie erkundet den anthropogenen Einfluss auf das thermische Regime nicht nur in ausgesuchten Stadtgebieten, sondern im landschaftsweiten Maßstab für Datensätze mittlerer jährlicher Temperaturen in Deutschland in drei verschiedenen Bereichen: gemessene Lufttemperatur, gemessene Temperatur des Grundwassers und aus Satellitenbeobachtungen abgeleitete Temperatur der Landoberfläche. Zieht man nächtliche Beleuchtung als Indikator ländlicher Gebiete heran, kommt die anthropogene Wärmeintensität ins Spiel. Diese ist auf jeden Datensatz anwendbar und zeigt die Differenz zwischen gemessenen lokalen Temperaturen und der mittleren ländlichen Hintergrundtemperatur. Dieses Konzept ist analog der etablierten städtischen Wärmeinsel-Intensität und anwendbar auf jeden Messpunkt oder Pixel innerhalb eines großen, sogar globalen Untersuchungsgebietes.

Für alle drei untersuchten Datensätze gilt: die anthropogene Wärmeintensität nimmt mit zunehmender nächtlicher Beleuchtung zu, sie nimmt ab bei zunehmender Vegetation. Die Bevölkerungsdichte hat dagegen nur geringe Auswirkungen. Die oberflächennahe anthropogene Wärmeintensität kann im untersuchten Gebiet (1 km X 1 km) nicht mit bestimmten Landschaftsformen und Klassifizierungsystemen in Verbindung gebracht werden. Aber sowohl Luft als auch Grundwasser zeigen gesteigerte Wärmeintensitäten bei künstlichen Oberflächen. Alles in allem scheint die Temperatur des Grundwassers am stärksten auf menschliche Aktivitäten zu reagieren, obwohl die unterschiedlichen Bereiche teilweise durch nicht in Relation stehende Prozesse beeinflusst werden. Anders als die Temperaturen an der Landoberfläche und der bodennahen Luftschichten ist die Grundwasser-Temperatur in kultivierten Gebieten ebenfalls erhöht. Die höchste anthropogene Wärmeintensität in Deutschland findet sich mit 4,5 K an einem Braunkohle-Tagebau bei Jülich, gefolgt von drei großen Städten (München, Düsseldorf und Nürnberg) mit jährlichen mittleren anthropogenen Wärmeintensitäten >4 K. Alles in allem lassen sich anthropogene Wärmeintensitäten > 0 K und damit städtische Wärmeinseln in Gemeinden bis hinab zu einer Bevölkerungsdichte finden.

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Abstract am Ende Chris Frey EIKE




Klima und CO2: Ich hätte da mal ein paar Fragen…

Nun ist es eine Binsenweisheit, wenn man nicht weiter weiß: wo steht etwas dazu geschrieben, und wen kann man fragen. Geschrieben steht viel, allerdings auf Deutsch außer auf diesem und sehr wenigen anderen Blogs nichts, was einem weiterhilft, im Gegenteil. Darum übersetze ich ja so gerne Texte für das EIKE, denn in der angelsächsischen Blogosphäre steht viel.

Aber leider häufig so fachlich, dass es nicht kurz und schon gar nicht griffig darzustellen ist, Also stelle ich jetzt mal ein paar Fragen:

1. Das Leben auf unserem Planeten beruht auf drei grundlegenden Säulen. Wenn nur eine dieser Säulen wegbricht, wird das Leben auf der Erde sehr schnell verschwinden/vernichtet/aussterben. Sauerstoff gehört nicht dazu, denn bei der Entstehung des Lebens gab es den noch gar nicht.

Die drei Säulen sind: a) Sonnenlicht, b) Wasser und c) Kohlenstoff. Die Säulen Sonnenlicht und Wasser sind sicher über alle Diskussionen erhaben. Anders sieht es mit Kohlenstoff aus, wie man weiß.

Darum lautet meine erste Frage:

Kohlenstoff ist eine der tragenden Säulen des Lebens auf der Erde insgesamt. Er steht dem Leben aber nur in der Luft in gebundener Form als CO2 zur Verfügung. Warum wird dieser Urstoff des Lebens als Giftstoff bezeichnet? Und noch schlimmer: Warum wird dies schon unseren Kindern in der Grundschule eingetrichtert?

2. Das bringt uns natürlich gleich zum Thema Klima, oder genauer Klimawandel. In Politik und Medien taucht sehr oft der Baustein „…in Zeiten des Klimawandels…“ auf. Darum lautet meine zweite Frage:

Seit wann haben wir denn „Zeiten des Klimawandels“? Etwa erst, seitdem der CO2-Gehalt der Atmosphäre nach einem lebensbedrohenden Minimum wieder etwas gestiegen ist? In der Schule haben wir doch alle gelernt, dass der Klimawandel so alt ist wie die Erde selbst.

3. Die Dämonisierung des Kohlenstoffes im Boden erreicht ja immer neue Höhepunkte. „Lasst es im Boden“ ist ein gängiges Schlagwort. Aber da erhebt sich für mich die dritte Frage:

Wie ist dieser Kohlenstoff (in welcher Form auch immer; Kohle, Öl, Gas…) überhaupt in den Boden gekommen? Bei der Entstehung der Erde war er doch in dieser Form noch nicht vorhanden.

Wo war er denn vorher?

4. Ich hätte gedacht, er war zu Beginn des Lebens in gebundener Form als CO2 in der Luft. Daraus folgt, dass der CO2-Gehalt zu Beginn der Entwicklung des Lebens viel höher gewesen sein muss.

Damit hängt meine vierte Frage zusammen:

Warum ist die Erde damals eigentlich nicht übergekocht, sondern hat den Grundstein für die Entwicklung des Lebens gelegt? Und warum soll sie heute bei einem viel geringeren CO2-Gehalt der Luft überkochen?

5. Vor dem Hintergrund der jüngsten Kältewelle in diesem April 2017 ergibt sich dabei eine fünfte Frage:

Es gab verbreitet handfesten Nachtfrost. Obstbauer und Gärtner mussten zu teuren Schutzmaßnahmen greifen, um ihre bereits begonnene Blüte dagegen zu sichern. Aber die Alarmisten aller Couleur verteufeln die Wärme als ultimative Katastrophe. Wo war denn deren Jubelgeschrei darüber, dass es nun endlich mal wieder kalt war?

Dabei möchte ich es erst mal belassen. Wie gesagt, Antworten auf diese Fragen habe ich nicht und erwarte ich nicht. Was ich erwarte, ist wieder sehr viel Wortgeklüngel. Aber anstatt von Antworten wäre das oder auch keine Antwort doch auch schon eine Antwort – oder?

Chris Frey, EIKE-Übersetzer




Schnee statt Frühlings­wärme- geht der Klima­erwärmung nun auch im April die Puste aus? Teil 1

Eine Grafik des Schnittes der ersten vier Monate über die letzten 30 Jahre ergibt folgendes Bild. Die Daten sind die Originaldaten des Deutschen Wetterdienstes, also gespickt mit Messstationen wie Frankfurt, die ausgesprochenen von Menschenhand geschaffenen Wärmeinseln stehen und keinesfalls die Temperaturen der freien Fläche, das sind immerhin über 85% der Gesamtfläche Deutschlands, messen.

Grafik 1: Temperaturentwicklung der ersten vier Monate über die letzten 30 Jahre

Dieser April erweckte heuer mit sommerlichem Auftakt die Aprilblüher der Reihe nach vorzeitig zum Blühen. Doch der eiskalte Absturz folgte prompt. Folgendes Gedicht beschreibt in Anlehnung an Goethes Osterspaziergang den „Aprilwinter“ 2017:

„Mit Schnee wieder bedeckt sind Bäume und Sträucher durch des Winters herben, eisigen Hauch,

der junge Frühling in seiner Schwäche, verging in Schall und Rauch.

Es faseln die Grün- Aktivisten

vom Klimawandel und so,

doch schau‘ ich aus meinem Fenster,

dann frag‘ ich, wo bleibt er bloß, wo?“

Aber wo ordnet sich der April 2017 langfristig ein, ist er tatsächlich „zu warm“ gewesen, wie der Deutsche Wetterdienst (DWD) regelmäßig behauptet? Steht ein erneuter Hitzerekord bevor? Die nächste Grafik anhand einer Langzeitreihe des Hohenpeißenberges soll uns dies beantworten: Der HPB im Voralpenland, gute 40 km nördlich der Zugspitze gelegen, ist ein Vorzeigeberg des DWD und die Wetterstation, anfangs bei einem Kloster an höchster Stelle kann auf über 200 jährige Aufzeichnungen zurückblicken. Ab 1934 wurde der Standort der Wetterstation allerdings durch bauliche Maßnahmen verlegt und wärmend verändert, so dass die Werte der letzten Jahrzehnte geringfügig zu hoch sind im Vergleich mit dem früheren kälteren Standort. Trotzdem ist die Antwort eindeutig.

Grafik 2: Wo ist die stets behauptete Klimaerwärmung, vor der wir uns in Acht nehmen müssten? Der wärmste Aprilmonat auf dem HPB war zu Goethes Zeiten. Die letzten 30 Jahre lagen lediglich etwas über dem 200-Jahresschnitt.

Wie es weitergeht mit den Apriltemperaturen, weiß niemand, da das CO2 in den letzten 200 Jahren keinerlei wärmende Wirkung zeigte. Der Name Treibhausgas ist eine Worterfindung. Noch in keinem einzigen Versuch konnte diese angebliche CO2-Erwärmungswirkung gezeigt werden. Die einzige menschliche Einwirkung entsteht aus der Schaffung (Naturzerstörung) neuer, großflächiger Wärmeinseln auf der Erde. Die ständige Urbanisierung in die einst freien Naturflächen hinein erzeugt die Erwärmung bei den Messstationen. Schon der Begründer des CO2-Erwärmungsglaubens, Svante Arrhenius hatte deshalb entnervt seine Hypothesen aufgegeben. Doch falsche Glaubenseinstellungen halten sich auch in der Wissenschaft hartnäckig, vor allem, wenn sie zu einem Geschäftsmodell und damit Selbstbedienungsladen geworden sind.

Aprilbetrachtung kürzerer Zeiträume:

In den letzten Jahren hatten wir den April noch als eine Ausnahme beschrieben, endlich ein Monat, der die versprochene Klimaerwärmung in der Trendlinie zeigte, siehe: https://eike.institute/2016/04/15/waermerer-april-grund-zur-freude-oder-ein-vorzeichen-der-klimakatastrophe/. Das schien sich heuer auch in den ersten 14 Tagen zu bestätigen. Doch nach der Kältephase in der 2.ten Hälfte wurde es ein normaler April wie auch schon letztes Jahr. Es bleibt jedoch ein wesentlicher Unterschied zur Temperaturentwicklung der ersten drei Anfangsmonate. Diesen wollen wir mit dieser Zeitgrafik nach den Daten des Deutschen Wetterdienstes für den Deutschlandschnitt zeigen:

Grafik 3: Auch die Temperaturkurve des Monates April verläuft nicht gleichmäßig, sondern in Form einer Wellenlinie. Während des Krieges hatte der April einen Temperaturwellenberg, der dann in eine allmähliche Abkühlung überging. Nach einer erneuten Erwärmung erreichte der Monat dann 2009 mit 11,8 C einen Temperaturhöhepunkt. Seitdem wird der Monat wieder kälter.

Der wichtigste Unterschied zu den anderen drei Anfangsmonaten ist: Der Monat April hatte seine Temperaturdepression 10 bis 20 Jahre später als die drei Anfangsmonate, also erst um 1975. Die Temperatur-Welle verläuft entsprechend versetzt auch gegenüber den meisten anderen Monaten. Doch inzwischen geht auch der April-Temperaturverlauf in eine Abkühlungsbewegung über.

Nach 10 Jahren Abkühlung haben wir uns nun dieses Jahr erstmals entschieden, auch diesen Monat als eine Bestätigung der beginnenden Abkühlungsphase und nicht länger als Ausnahme für eine weitere Erwärmung zu sehen. Die Apriltemperaturen werden sich eher nicht mehr weiter denen des Mai annähern.

Der April macht also keinesfalls was er will, sondern er folgt genauso wie die anderen Monate einem vorgegebenen Schwingungsverlauf. Wie aus dem polynomen Trend-Linienverlauf der Deutschlandgrafik 3 leicht ersichtlich ist, zeigt der Frühlingsmonat deshalb über 30 Jahre immer noch eine deutlich steigende Trendlinie, da die gegenwärtigen Apriltemperaturen noch deutlich über dem Minimum um 1975 liegen. Ein Hinweis sei uns gestattet: Der DWD-Vergleichszeitraum von 1961 bis 1990 füllt fast genau die Zeit einer Abkühlungsphase aus. Ironischerweise wird dieses Kälteloch dann als „Normaltemperatur“ in den DWD-Veröffentlichungen bezeichnet. Fast jeder April kann uns somit amtlicherseits als „zu warm“ und als Fortsetzung der Klimaerwärmung verkündet werden. Ein Kälteloch als Normalzustand! Welcher Irrsinn.

Weil der DWD-Temperaturhöhepunkt im Jahre 2009 war, zeigt der Temperaturverlauf erst seit 20 Jahren einen gleichmäßigen Verlauf im DWD-Deutschland mit ebener Trendlinie.

Grafik 4: 10 Jahre rauf, 10 Jahre runter, macht über 20 Jahre betrachtet einen ausgeglichenen Temperaturverlauf des Monats April in Deutschland. Anzumerken ist, dass der 20 Jahresschnitt mit 9°C über dem DWD-Vergleichsschnitt von 1961 bis 1990 liegt. Wir befinden uns immer noch auf einem relativ warmen April-Temperaturplateau.

Die Temperaturaufzeichnungen des Deutschen Wetterdienstes sind jedoch nicht wärmeinselbereinigt. Aufgrund der ständigen Bebauung und der sich fortsetzenden weiteren Urbanisierung in die Natur hinein steigt der Temperaturunterschied zwischen kaum vom Menschen beeinflussten Flächen und den verstädterten Gebieten (weniger die Zentren der alten Städte, aber durch neue Siedlungen, Verkehrsanlagen, Entwässerungsmaßnahmen, Wind- und Solarparks) weiter an, was jedermann leicht mit dem Autothermometer überprüfen kann. In früheren Artikeln haben wir gezeigt, dass diese Stadt-Land Temperaturunterschiede in den Monaten April bis Juni besonders hoch sind

Grafik 5: Von 1981 bis 2010 gefundene UHI- Differenzen in Kelvin, gebildet aus den Mitteln dreier urbaner Stationen in Berlin und dreier ländlicher Stationen in Brandenburg. Hohen, verstädterungsbedingten Differenzen von über 0,8 K im April stehen geringere im Spätsommer/Frühherbst gegenüber. Die jahreszeitlich bedingten UHI- Effekte sind in Berlin eng mit geänderten Sonnenscheinverhältnissen- und Großwetterlagenhäufigkeiten verknüpft.

Um deshalb einen wirklichkeitsnäheren Klimaverlauf besprechen zu können, müssen wir die DWD-Temperaturreihen entweder um einen Wärmeinselfaktor korrigieren oder auf ländliche Stationen zurückgreifen, deren weite Umgebung sich weniger verändert hat als der Gesamtschnitt Deutschlands. Eine solche Station wäre Goldbach bei Bischofswerda im Osten Sachsens auf 320 m Höhe. Der Stationsleiter, Herr Pscheidt hat uns gegenüber betont, dass außer dem Straßenneubau in dem kleinen Teilort, wenig an erwärmenden baulichen Veränderungen dazugekommen wäre.

Grafik 6: Wärmeinselarme Stationen wie Goldbach, ein kleiner Vorort von Bischofswerda im Osten Sachsens, dessen Umgebung sich in dem Betrachtungszeitraum kaum verändert hat, zeigen bereits seit 20 Jahren wieder eine April-Abkühlung. Auch in diesem kleinen Ort war wie im Deutschlandschnitt 2009 der wärmste April. Andere ländliche Stationen bestätigen diesen leichten Abkühlungstrend.

Bei anderen wärmeinselarmen ländlichen Stationen Deutschlands und erst recht in der freien Natur fallen die warmen Aprilmonate weniger warm aus und die kalten sind kälter, weil die Kälte weder von der Sonne noch von den Heizungen der Gebäude und von breiten Umgehungsstraßen weggeheizt werden können. Deshalb setzt die fallende Trendlinie auch einige Jahre früher als beim DWD-Deutschlandschnitt ein. Das zeigen wir anhand der Wetterstation Amtsberg, im kleinen Teilort Dittersdorf im Westen des Freistaates Sachsen im Vergleich zum wärmeinselbehaftetem DWD-Deutschlandverlauf:

Grafik 7: Die Wetterstation Amtsberg/Dittersdorf (blau) zeigt bereits seit 1992 eine noch nicht signifikante Abkühlungstendenz, während die DWD-Trendlinie aufgrund der vielen Messstationen in Wärmeinseln noch steigend ist.

Ein Blick in die USA: Deutschland ist nicht die Welt. Der Aprilverlauf in der ältesten Wetterstation in Virginia/USA bei einer Farm auf dem Lande zeigt diesen Verlauf.

Grafik 8: An der Ostküste der USA in Virginia mitten auf dem Lande verläuft der Monat April in geordneten Bahnen, außer den 2 Ausreißern vor über 100 Jahren haben sich die Temperaturen stabilisiert. Wo ist die Klimaerwärmung des Monates April auf dem Lande in Amerika? Der Verlauf von Washington- City würde freilich anders aussehen. Temperaturangaben hier in Fahrenheit. 50 Grad Fahrenheit entsprechen 10 Grad Celsius.

Kampf der Klimaerwärmung: Doch von welcher Erwärmung reden die Erwärmungserzähler überhaupt? Welche Erwärmungskatastrophe wollen diese Fantasieerzähler der Medien überhaupt bekämpfen? In der freien Fläche außerhalb der wärmenden Ansiedlungen bzw. in kleinen Ortschaften hat nun sogar der April in Mitteleuropa seine Erwärmungsphase seit gut 25 Jahren gestoppt. Ausgerechnet in einem Zeitraum, in welchem das Kohlendioxid stark zugenommen hat. Schon daraus wird ersichtlich, dass andere und zwar viele Gründe das Klima in Deutschland bestimmen und die Grafik 8 zeigt, dass in den USA wiederum andere Gründe vorherrschend sind. Die Jahre sind verschieden, der Trendverlauf bleibt ähnlich: Nichts, wovor wir uns fürchten müssten.

Doch wie verhält sich die Vegetation Anfang Mai in der freien Fläche Deutschlands außerhalb der Wärmezonen von Städten und Siedlungen? Diese Frage soll nun am Schluss beantwortet werden.

Vegetation: Die Aprilblüher wie Kirsche, Schlehen, Birnen waren diesmal verfrüht wegen der äußerst warmen beinahe schon sommerlichen letzten Märzwoche und der darauf folgenden ebenso warmen ersten zehn Apriltagen. Uns so kam es, dass Märzenveilchen, Anemonen, Scharbockskraut, Forsythie, Schlehen und Birnen gleichzeitig blühten. Komischerweise ließ sich die Traubenkirsche nicht von den Temperaturen leiten, die blühte Mitte April wie fast wie immer.
Jedenfalls haben wir im Ostalbkreis in den letzten 50 Jahren nicht erlebt, dass die Süßkirschen bereits am 10. April in voller Blüte standen. Siehe Foto:

Foto: Kowatsch

Doch aufgrund der stetigen Abkühlung ab dem 13. April verzögerte sich der bevorstehende Blütenbeginn von Kastanien und Apfelbäumen, so dass die April/Maiblüher fast im normalen Rhythmus erschienen sind. Immerhin blieb der Laubaustrieb der Bäume wegen des warmen Intermezzos zu Monatsbeginn um eine Woche verfrüht.

In Weimar (Thüringer Becken) begann der Vollfrühling 2017, markiert durch die ersten Blüten des Kornapfels, am 10. April und damit fast 10 Tage verfrüht. Insgesamt ist der geringe, seit 1990 zu beobachtende Verfrühungstrend der Apfelblüte nicht signifikant; der ihr vorausgehende Erstfrühling (Laubaustrieb der Wildstachelbeere) hat sich hingegen etwas verzögert:

Grafik 9: Trotz der relativ zeitigen Apfelblüte 2017 ist deren Verfrühungstrend- ebenso wie der der Haselblüte, welche diesmal eher spät einsetzte- nicht signifikant. Wechselhafte Witterung und das Pflanzenverhalten gleichen vieles aus.

Aber seit dem Kälteeinbruch herrscht fast Vegetationsstillstand, der bewirken dürfte, dass der Frühsommer (Blühbeginn des Schwarzen Holunders) wohl eher wieder um den normalen Termin herum (5. bis 15.Mai) eintreten dürfte- je nachdem, wie sich die Temperaturen verhalten werden. Auch in anderen Teilen Europas verlief der April ähnlich, nur mit krasseren Gegensätzen, in der Hautstadt Moldawiens blühten bereits die Kastanien, als der Winter nochmals Einzug hielt.

„Geparkte Fahrzeuge versinken in den Schneemassen. In den kommenden Tagen wird es in der Region wieder deutlich wärmer, dann drohen Überschwemmungen durch starkes Tauwetter.“ Quelle; Fotostrecken, Freitag, 21.04.2017 Moldawien versinkt im Schnee

Die einzelnen Stationsleiter des Deutschen Wetterdienstes arbeiten zuverlässig, ihre Daten sind vertrauenswürdig, genauso wie der Vegetationsbeginn in der freien Natur, außerhalb der von Menschen geschaffenen Wärmeinseln. Und wie in den Grafiken gezeigt, hat der April seine Erwärmungstendenz nun eingestellt, was eigentlich bei jedem CO2-Treibhausgläubigen zur Revision seines Glaubens führen müsste.

Die immer noch vorhandene Erwärmung in den Städten und an den Landebahnen der Flughäfen im Bereich der 600°C heißen Abgase ist eine vom Menschen hervorgerufene Wärmeinselerwärmung bei den Thermometern der dortigen Stationen.

Somit misst der Deutsche Wetterdienst das genaue Gegenteil dessen, was den Deutschen, vor allem den Politikern über die Medien vorgeschwätzt wird. Wie das Klima in der Zukunft sein wird, das kann niemand wissen, denn unsere Grafiken zeigen erneut, dass C02 gar keinen oder fast keinen Einfluss auf die Temperaturen haben kann.

Der Leser möge sich gerne die Frage stellen, wie warm die aktuell gemessenen Temperaturen tatsächlich wären, wenn Deutschland sich seit über 120 Jahren überhaupt nicht verändert hätte, also die gleiche Bevölkerungszahl wie im Kaiserreich, eine dünn besiedelte Landschaft, die gleiche primitive Lebensweise, sowie kalte Häuser mit einer Ein-Zimmerheizung in viel kleineren Städten, und wenn die Messstationen am gleichen kalten Ort wie früher stünden: Neben fast unbeheizten Klöstern, bei den Fischteichen in den kühlenden Feuchtwiesen rund um die Städte oder bei Förstern am Waldrand. Letztere stehen heute auf Flugplätzen an den Landebahnen der heißen Abgase, bei Einkaufszentren an den warmen Parkplätzen oder in den entstandenen Siedlungen der Vorstädte und werden oft sogar noch unter demselben Namen geführt.

Fazit:

1) Die ersten drei Monate des Jahres werden seit 30 Jahren geringfügig kälter, die März-Frühblüher sind etwas verspätet.

2) Der April hat außerhalb der Wärmeinseln seit über 25 Jahren einen auf hohem Temperaturniveau stagnierenden Verlauf in Deutschland, ist aber immer noch wärmer wie vor 40 bis 50 Jahren. Deshalb starten die April- Blüher etwas früher als noch vor 40 Jahren. Der April ist momentan zum eigentlichen Blütenmonat geworden, da sich auch die Märzen- Blüher noch fast alle zeigen.

3) Seit 20 Jahren deutet sich auch beim April eine Abkühlungstendenz an.

4) Will man den menschlichen Anteil an der Klimaerwärmung stoppen, dann müsste man die weitere Urbanisierung der freien Landschaft stoppen. Gebäude und Straßen, die zunehmende Bevölkerung mit ihrem Energiehunger sind die anthropogenen Beigaben der Klimaerwärmung. Sie wirken der momentanen Abkühlungsphase entgegen.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher