Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE




So heiß, dass man städtische Wärmeinseln vom Weltall aus sieht

Die Wärme der Rollbahnen des Flughafens Charles DeGaulle in Paris-Orly sind vom Weltall aus leicht erkennbar. (Ebenso wie alle anderen idealen Aufstell-Orte für Klimawandel-Thermometer). Die Rollbahnen des Flughafens Charles DeGaulle befinden sich (glaube ich) oben rechts auf der Wärmekarte.

Abbildung 1: Die Ökostress-Karte der NASA von Paris. Quelle: NASA/JPL-Caltech

Bitte um Handzeichen: Wer glaubt, dass die Thermometer im Jahre 1880 zu hohe Werte zeigten? Irgendwer?

Die Fotos wurden am frühen Morgen gemacht. Sie zeigen, wie es wegen des UHI in den Zentralbereichen einer jeden Stadt viel wärmer ist als in der umgebenden natürlichen Landschaft – eine Folge davon, dass Stadtflächen Wärme über den Tag speichern, die sie dann nur sehr langsam wieder abgeben.

Die Tatsache, dass die Temperatur am frühen Morgen 25 bis 30°C betragen hatte, zeigt, dass ein großer Teil der Wärme der Vortage gespeichert worden war von Oberflächen mit hoher Wärmekapazität (Asphalt, Beton und Gewässer). Diese Oberflächen waren nicht in der Lage, die Wärme bis zum nächsten Tag vollständig abzustrahlen. Die eingefangene Wärme resultierte an einigen Stellen in sogar noch höheren Mittagstemperaturen in den hohen 40-er Grad Celsius, als sich die Hitzewelle fortsetzte.

Zwar hatten all diese Wärmesenken die ganze Nacht Zeit, ihre Extra-Wärme loszuwerden, und doch strahlten sie immer noch – sogar noch am nächsten Tag zur Mittagszeit.

Abbildung 2: Ökostress-Wärmekarte von Rom. Quelle wie oben.

Nett, dass man die Flughäfen gekennzeichnet hat.

Hier noch die gleichen Karten von Mailand und Madrid:

Abbildung 3: Mailand, Ökostress-Wärmekarte. Quelle wie oben

Abbildung 4: Ökostress-Wärmekarte von Madrid. Quelle wie oben

Die COSTRESS-Sonde wurde im vorigen Sommer zur Weltraumstation geschossen und sammelte ihre ersten Daten schon wenige Tage nach der Installation. Das Instrument misst Variationen der Oberflächentemperatur bis auf wenige Zehntelgrad genau, und das mit beispiellosem Detailreichtum: Es kann Temperaturänderungen zu verschiedenen Tageszeiten auf Flächen von der Größe eines Football-Feldes erkennen. Diese Messungen helfen den Wissenschaftlern bei der Abschätzung des Wohlergehens von Pflanzen und Reaktionen auf Wasserknappheit, was ein Indikator für eine bevorstehende Dürre sein kann. Das Instrument kann auch zur Messung von Wärmetrends herangezogen werden, zum Aufspüren von Waldbränden und Steigerungen vulkanischer Aktivitäten.

Mehr zu ECOSTRESS findet man hier.

Link: http://joannenova.com.au/2019/08/we-can-see-the-urban-heat-islands-from-space/

Übersetzt von Chris Frey EIKE




Kinderpro­pheten und Missionare der Klima-Katastrophe

Die Rolle von Kindern in der Kultur des Klima-Katastrophismus‘

1. Ernste Szenarien für Kinder: real oder kulturell erzeugt?

1.1 Ängstigung unserer Kinder: Ab wann finden wir es akzeptabel, Kinder institutionell zu ängstigen? Während unser erster spontaner Gedanke lautet, dass das niemals geschehen sollte, gibt es in der Praxis mindestens zwei Szenarien, in denen genau das als moralisch akzeptabel eingeschätzt wird. Das erste Szenario ist, wenn gefährliche, harte Realitäten jenseits der Kontrolle von Erwachsenen es erforderlich machen, dann muss man den Kindern die Achtung vor derartigen Realitäten beibringen. Oftmals kann dies auch eine gewisse Ängstigung mit sich bringen in der Hoffnung, dass diese den Kindern hilft, sich sicher zu fühlen. Ein Beispiel hierfür ist das Training mit Gasmasken im 2. Weltkrieg, weil Erwachsene nicht sofort überall sein können, um den Kindern mit den Masken im Ernstfall zu helfen. Das zweite Szenario ist, wenn es moralisch akzeptabel ist, die Werte einer Kultur zu stützen, welche die moralische Landschaft definiert (oder eine neue aufstrebende Kultur, welche versucht, genau eine solche Landschaft zu definieren). In diesem zweiten Fall wird das Einträufeln erkannter Ängste als normativ angesehen, um ein bestimmtes soziales Verhalten zu erreichen, den Zugang zu Vorteilen zu gewähren und vermeintliche kulturelle Belohnungen zu erhalten. Ein Beispiel hierfür ist die Ängstigung von Kindern über Sünden oder die Hölle oder die Kreuzigung, um christliches, soziales Verhalten zu erzwingen und das Lockmittel auszubreiten, bei willfährigem Verhalten in den Himmel zu kommen (anstatt in die Hölle).

1.2 Protestierende Kinder: Wann finden Kinder zueinander, um zu versuchen, ihre gemeinsame Stimme des Protestes zu erheben, damit sie von der Gesellschaft gehört wird? Wie oben gibt es auch hier mindestens zwei Szenarien, unter denen das geschieht. Das erste Szenario ist eine Reaktion auf eine bestehende und weit verbreitete und irgendwie geartete ernste Benachteiligung von Kindern (und vielleicht auch von Erwachsenen). Das zweite Szenario ist eine Reaktion auf starke, an die Wand gemalte Gefahren kultureller Art, welche fälschlich interpretiert worden sind als eine reale und präsente Bedrohung oder Schädigung. In beiden Fällen werden Maßnahmen seitens der Erwachsenen erwartet, um das Problem abzuschwächen oder aus der Welt zu schaffen. Einige Erwachsene sind typischerweise involviert in die Organisation einer Kinder-Bewegung, wobei sie angeglichene Interessen haben; irgendetwas von echtem Schutz ihrer Kinder (oder der Interessen derselben) bis hin zu virtue signaling. Hierzu folgen später ein paar Beispiel-Szenarien.

1.3 Kinder in der Verantwortung: Wann befürworten die Führer einer Gesellschaft, dass wesentlichen politischen Anliegen von Kindern Ausdruck verliehen wird, und implementieren so etwas (oder versuchen es zumindest)? Und wieder gibt es mindestens zwei Szenarien, bei denen das geschieht. Im ersten Szenario geht es um eine weit verbreitete Benachteiligung wie im Abschnitt oben beschrieben, wobei für die soziale Führung ein repräsentatives Opfer-Kind an die Front geschoben wird, so dass der Schrei nach Wiedergutmachung besonders laut zu vernehmen ist. Egal ob Kinder nun wirklich ernsthaft benachteiligt sind oder psychologisch und/oder physisch unter diesen Nachteilen leiden oder nicht, egal ob unter den Ursachen kulturelle Elemente sind oder nicht, ist dies essentiell ein Thema harter Realität der gegenwärtigen Schädigung. Im zweiten Szenario sind Führer emotional behindert, um der Politik eines Kindes zu widerstehen oder zu widersprechen, selbst wenn die Auswirkungen wahrscheinlich insgesamt sehr negativ sind, weil dies einigen kulturell vorgegebenen Ängsten Ausdruck verleiht. Oder zumindest ist Widerstehen in einer neu aufkeimenden Kultur immer noch eine zentrale Herausforderung der Führung. Kultureller Bias macht die Menschen blind für Nachteile, und unsere in uns verwurzelten Instinkte, ein Stigma zu vermeiden, werden wahrscheinlich bei jenen verstärkend zum Tragen kommen, die ihre Führungsmacht erhalten wollen. Fehlende Unterstützung beschwört das Risiko eines ernsten kulturellen Stigmas herauf, einschließlich der Schande durch Nichtanerkennung eines moralischen Anspruchs durch ein ,benachteiligtes‘ Kind (benachteiligt jedenfalls dem akzeptierten kulturellen Narrativ zufolge). Beispiele hierfür folgen weiter unten.

1.4 Was ist was? Eine säkulare, vernünftige Gesellschaft sollte sich bemühen, die kulturellen Szenarien all dieser Fälle zu vermeiden, führen sie doch zu sinnlosen Ängsten, Traumata, falschen Hoffnungen und ungeeigneten sozialen Maßnahmen. Eine vernünftige religiöse Gesellschaft sollte sich bemühen, den Zusammenhang mit Kernwerten zu begrenzen, und verhindern, dass unsere emotionalen Gedanken für Kinder auf ein alarmistisches/extremistisches Niveau gehoben werden. Und sie sollte verhindern, dass Kinder, die zu mehr als einer schwachen religiösen Anteilnahme gezwungen werden, zu Schaden kommen.

Und doch, für jeden gegebenen Protest oder politische Vorgaben oder die Verbreitung von Ängsten – wie können wir erkennen, um welches Szenario es sich handelt? Wie sollen wir herausfinden, ob die unseren Kindern konstant eingeträufelte Angst bzgl. Klimawandel, die daraus folgenden KlimaStreiks der Kinder sowie die dramatischen, von einer Greta Thunberg geäußerten Bestrebungen in den Bereich Realität oder in den Bereich Kultur fallen? Basiert Gretas Auftritt vor den UN genauso auf Realität wie der Auftritt von Malala Yousafzai ebendort? Brauchen beide die gleiche weltweite Unterstützung für eine Änderung? Ist die Natur der Schul-Klimastreiks ultimativ genauso materiell und gerechtfertigt wie der Kinder-Kreuzzug im Jahre 1963, auch wenn die Bandbreite des Problems, welches heute den Kinderprotesten zugrunde liegt, drastisch teurer ist? Große Schichten der Bevölkerung stehen enthusiastisch hinter den Schulstreiks und Greta; sie werden die letzten beiden Fragen sicher mit ,ja‘ beantworten. Aber wie sieht der direkte Vergleich beider Ereignisse aus?

2.Vergleichbare Fälle von Kindern in der Verantwortung: Malala und Greta

In dem Artikel Child Soldiers in the Culture Wars [etwa: Kindersoldaten im Kulturkrieg] heißt es: Die von politisch aktiven Kindern repräsentierten Wertvorstellungen sind offensichtlich. Sensible Themen, die bei leidenschaftsloser Behandlung verkümmern, blühen auf, wenn diese Art der Analyse tabu ist. Hinzu kommt der emotionale Einfluss des Umstandes, dass Kinder mit ihrem Unschuldsanspruch besondere Einsichten/Wahrheiten haben, was die Überzeugungskraft dieser Mädchen mächtig verstärkt. (Trotz der Tatsache, dass dieser Umstand falsch ist und auch irrelevant bzgl. persönlicher Aspekte ist wie Gretas Asperger-Syndrom). Diese Faktoren erzeugen eine emotionale Nebelwand, welche die Irrationalität unserer Empfindungen verstärken kann. Um wie in Abschnitt 1 beschrieben herauszufinden, ob Realität oder Kultur die Auftritte dieser beiden Mädchen vor den Führern der Welt dominieren hinsichtlich grundlegender und komplexer sozialer Zusammenhänge, müssen ein paar Fragen gestellt werden:

a. Wird das Kind moralisch durch eine Kultur gestützt?

b. Falls ja, wurzelt der Auftritt des Kindes im Haupt-Narrativ dieser Kultur oder wird sie von demselben getrieben?

c. Repräsentiert der Auftritt einen Aspekt gegenwärtiger oder zukünftiger Nachteile? Zukunft bedeutet wahrscheinlich kulturell.

d. Diktiert das Kind eine bestimmte Lösung (innerhalb eines bestimmten Zeitrahmens)? Selbst bei großer Komplexität könnte eine Kultur das.

e. Falls ja zu Frage 4, und egal, wie man die Fragen 1 und 2 beantwortet – scheint diese Lösung irrational? Starke kulturelle Lösungen sind es jedenfalls.

f. Wie groß ist der Aufwand (bzgl. Änderung des Verhaltens oder von Infrastruktur). Kultureller Aufwand kann astronomisch sein.

(Das Niveau der Achtung ist ebenfalls von Interesse. Ein starker Glaube respektiert ultimativ keine Autorität außer seiner eigenen). Die Antworten sagen uns, ob eine emotionale Verstärkung einer schon etablierten Realität einen Zusatzschub verleiht, oder ob es sich um ein entscheidendes Mittel handelt, die Auslösung kultureller Ängste zu gewährleisten.

[Es folgt das Beispiel von Malala bei ihrem Auftritt vor den UN. Der Autor beschreibt detailliert ihr religiöses Umfeld und auch, dass sie selbst religiös motiviert ist {im Islam}. Ihre Forderungen nach Bildung für Mädchen und Frieden ist sicher kulturell getrieben, aber auch säkular, weil sie einen echten Notstand anprangert. Als Nächstes folgt das Beispiel von Greta Thunberg, deren Aktivitäten ganz anders gelagert sind. Als Drittes bringt der Autor noch das Beispiel eines Mädchens des Xhosa-Stammes in Südafrika, das hier der Länge wegen nicht übersetzt wird. – Anm. d. Übers.]

Die Kultur hinter Gretas Auftritt vor dem Machtapparat der Welt ist hier charakterisiert. Im Mittelpunkt dieser Kultur steht etwas, das seit Jahrzehnten von höchsten Machtapparaten der ganzen Welt propagiert wird, nämlich eine hohe Sicherheit einer baldigen (nach Jahrzehnten) globalen Klima-Katastrophe. Gretas Worte lassen keine Zweifel daran aufkommen, dass ihr Auftreten durch dieses Narrativ getrieben wird, so dass die Antwort zu b) lautet ,ja‘. Neben sekundären Behauptungen gegenwärtiger Schäden behandelt Greta hauptsächlich Ängste in der Zukunft und einen erheblich größeren Schaden, wenngleich sie auch das ,unmittelbar‘ betont (bis ,irreversibel‘). Also lautet c) ,Zukunft‘. Wenn das Hauptereignis bereits im Gange ist, kann dies keine kulturell erzeugte Angst sein; für eine projizierte zukünftige Angst kann es das aber sehr wohl sein. Hinsichtlich d) fordert Greta eine Lösung und gibt sogar den Zeitrahmen vor. Bei der Antwort zu e) kommen subjektive Ansichten ins Spiel. Greta bezeichnet die Klimakatastrophe, das ,Opfern der Zivilisation und der Biosphäre‘ als mit Sicherheit eintretend. Bei längeren Auftritten in UK und Frankreich zitiert sie das IPCC, welches diese Katastrophe bestätigt hätte. Aber die IPCC-Wissenschaft stützt nicht eine hohe Sicherheit des Eintretens einer globalen Klimakatastrophe innerhalb von Jahrzehnten. Dies bestätigt, dass ihr politisiertes, zentrales Narrativ des Katastrophismus‘ emotional getrieben, das heißt falsch ist. Folglich richtet sich Gretas Lösung an emotionale Inventionen und nicht an Realitäten. Das ist wirklich irrational; e) ist ein ,ja‘. Zu f), Greta tritt vor den Führern der Welt auf, und ihre Forderung an die Welt ist astronomisch. Um der unmittelbar bevorstehenden globalen Apokalypse zu entgehen, ist die größte Anpassung des Verhaltens und der Infrastruktur der Menschheit seit der industriellen Revolution erforderlich, vielleicht sogar seit des Aufkommens von Landwirtschaft, innerhalb kürzester Zeit. Was immer die Mainstream-Wissenschaft der Politik vorgibt, es rechtfertigt nicht diese Radikalität. Greta zeigt keinerlei Respekt vor den Führern und behauptet außerdem, dass sie alle lügen. Emotionale Überzeugung bzgl. der Katastrophe lässt diese als unvermeidlich erscheinen.

[…]

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

[…]

3. Vergleichbare Fälle von Kinderprotesten: Der Kreuzzug 1963 und die Schul-Klimastreiks

Hinsichtlich der Massenproteste von Kindern geben die Fragen in Abschnitt 2 auch Aufschluss darüber, ob die Ereignisse auf Realität oder auf kulturellen Säulen beruhen. Der Kinder-Kreuzzug im Jahre 1963 in Birmingham (USA, Alabama) war eingebettet in eine größere Kampagne zur Aufhebung der Rassentrennung in der Stadt und um dem Rassismus größere Aufmerksamkeit zuteil werden zu lassen. Obwohl der Protest nicht von Gewalt gekennzeichnet war, wurde das Auftreten von Kindern von Vielen kontrovers angesehen, einschließlich einiger Erwachsener in der Kampagne selbst. Am Ende war es für die Campaigner ein Glücksspiel, dass der geschützte soziale Status von Kindern, die Bloßstellung von Autoritäten sowie emotionale Reaktionen in potentiell breiteren Kreisen ihnen einen signifikanten Vorteil einräumen werden. Aber sie setzen die Kinder damit dem Risiko aus, dass falls das Vorgehen als zynisch bewertet wird, die Kritik vernichtend ist. Präsident Kennedy war dagegen, fügte aber hinzu, dass Missstände beseitigt werden müssen. Kirchen waren physikalische Stützpunkte und die Protestierer unterstützt durch ihren Glauben – es gab also einen kulturellen Sponsor. Und trotzdem, die Ziele des Kreuzzuges waren genau wie Malalas Auftritt säkularer Natur. Die Kinder waren selbst benachteiligt (ein entscheidender Faktor), während sie gegenwärtig nur für die Erwachsenen sprechen. Die damaligen Kinder waren keine Schachfiguren, sondern waren direkt und indirekt Ungerechtigkeiten ausgesetzt, und ihr Widerstand war echt. Sie forderten Verhandlungen und ultimativ eine spezifische Lösung, das Ende der Rassentrennung. Aus heutiger Sicht und im Vergleich zu den damaligen Prinzipien der USA und der Welt waren ihre Forderungen mit Sicherheit nicht irrational. Und definitiv nicht astronomisch, wenngleich auch von einer mächtigen Minderheit eine Änderung von deren Verhalten verlangt wurde.

Heute ist Greta die führende Sprecherin der Kinder-Klimastreiks, und ihre Antworten stehen ebenfalls für sie:

Würde ein Roboter vom Mars die gleichen Antworten finden? Das können wir nicht wissen, es ist unmöglich, uns selbst von Bias zu lösen. Die Klimastreik-Kinder sind größtenteils privilegiert und derzeit bestimmt nicht benachteiligt; ihre Furcht ist ein nicht von Erwachsenen abgewürgter Mythos. Es besteht für sie nicht das Risiko scharfer Reaktionen. Das allein validiert noch nicht ihre Causa, aber es scheint, als ob sie eine schon offen stehende kulturelle Tür einrennen. Es gab viel Unterstützung im globalen Maßstab seitens der Erwachsenen und praktisch keine formale Opposition seitens der Obrigkeit. Offene Türen einzurennen scheint für einen Protest paradox zu sein. Das ist so, weil kulturelle Ängste nicht real sind. … Sie sind im Wesentlichen emotionale Bekehrer eines kulturellen Narrativs, hier Klima-Katastrophismus, und diese Kultur wird sie als Keil in die Mächtigen treiben. Zum Vergleich: die Kinder von 1963 waren sehr harten Reaktionen ausgesetzt: Wasserwerfern, Hunden und Gefängnis. Sie rannten definitiv gegen verschlossene Türen an, was wir heute in der Rückschau als verschlossen von einer lokalen Subkultur ansehen. … Sie repräsentierten Gleichheit und Vernunft bzgl. etwas, das eine tief verwurzelte Subkultur des Rassismus‘ war. Die Historie hat gelächelt ob ihres Pokers damals im Jahre 1963, aber das kann man nicht vorhersehen.

[Im Folgenden führt der Autor sein Anliegen in weiteren langen Absätzen aus, die hier nicht übersetzt werden. Aber erzieht dann ein interessantes Schluss-Resumee:]

Heerscharen verängstigter Kinder und die Natur der Kinder-Klimastreiks, absolute Forderungen eines Kindes an die Führer der Welt, welches diese Führer instruiert, bzgl. einer unmittelbar bevorstehenden Apokalypse in Panik zu geraten (ohne diese wesentlich in Frage zu stellen) – diese Phänomene sollten mit einer großen roten Flagge versehen werden mit der Aufschrift ,Kultur‘. Aber jene Wissenschafts-Disziplinen, welche diese Phänomene studieren, scheinen in Massen das kulturelle Narrativ zu glauben, welches (ohne dramatische Gegenmaßnahmen) eine unmittelbar bevorstehende (Jahrzehnte) Klimakatastrophe propagiert, und zu glauben, dass es ein Ergebnis exakter Wissenschaft ist. Das ist falsch; die Mainstream-Wissenschaft stützt dieses Narrativ nicht. Die Gesellschaft ängstigt unnötigerweise Millionen Kinder.

Eine Frage erhebt sich angesichts des Jahrtausend-Aspektes einer katastrophischen Klima-Kultur und deren Kreuzzug, unser derzeitiges Verhalten und unsere derzeitige Klima-Infrastruktur im ,Notfall‘-Tempo zu ändern: „Unter welchem Stress stehen wir, dass derartige Maßnahmen rechtfertigt?“ Plus: „Wie viel davon ist real, und wie viel einfach nur wahrgenommen?“. Kulturen können potentiell künstlichen Stress hervorrufen und/oder reale/künstliche Ängste erzeugen.

Link: https://wattsupwiththat.com/2019/07/29/child-prophets-and-proselytizers-of-climate-catastrophe/

Übersetzt von Chris Frey EIKE




Warum man in Graphiken keine Trendlinien legen sollte

Wir sehen hier bei WUWT (und EIKE Anmerkung des Übersetzers) sehr viele Graphiken – alle Arten von Graphiken von vielen verschiedenen Datensätzen. Beispielhaft sei hier eine allgemein gezeigte Graphik der NOAA gezeigt, die aus einem Stück bei Climate.gov stammt und die Bezeichnung trägt „Did global warming stop in 1998?” von Rebecca Lindsey, veröffentlicht am 4. September 2018:

Die Details in dieser Graphik interessieren mich nicht – das Ganze qualifiziert sich selbst als „dümmlich“. Die vertikale Skala ist in Grad Fahrenheit angegeben und die gesamte Bandbreite über 140 Jahre liegt größenordnungsmäßig bei 2,5°F oder etwa 1,5°C. Interessant in der Graphik ist die Mühe, „Trendlinien“ über die Daten zu legen, um den Leser etwas über die Daten zu vermitteln, was der Autor der graphischen Repräsentation übermitteln will. Dieses „etwas“ ist eine Meinung – es ist immer eine Meinung – es ist nicht Teil der Daten.

Die Daten sind die Daten. Wenn man die Daten in eine graphische Darstellung zwängt, hat man bereits Meinung und persönliche Beurteilung einfließen lassen in Gestalt der Wahl von Anfangs- und Endzeitpunkt, vertikalen und horizontalen Skalen und, in diesem Falle, die Schattierung eines 15-Jahre-Zeitraumes an einem Ende. Manchmal übernimmt irgendeine Software die Entscheidung der vertikalen und horizontalen Skala – und nicht rationale Menschen – was sogar zu noch größerer Konfusion führt und manchmal zu großen Fehlinterpretationen.

Jeder, der die Daten in der oberen Graphik nicht eindeutig erkennt ohne die Hilfe der roten Trendlinie sollte sich ein anderes Studienfeld suchen (oder seinem Optiker einen Besuch abstatten). Die untere Graphik ist in ein Propaganda-Werkzeug verwandelt worden mittels Addition von fünf Meinungen in Gestalt von Mini-Trendlinien.

Trendlinien ändern die Daten nicht – sie können lediglich die Sichtweise auf die Daten verändern (hier). Trends können manchmal nützlich sein (bitte mit einem großen vielleicht versehen), aber sie bewirken in den Graphiken der NOAA oben nichts Anderes als zu versuchen, den vom IPCC sanktionierten Gedanken des „Stillstands“ zu verunglimpfen. Damit wollen der Autor und die Herausgeber ihre gewünschte Meinung bei Climate.gov unterstreichen. Um Rebecca Lindsey aber etwas gerecht zu werden – sie schreibt „wie viel langsamer der Anstieg erfolgt, hängt vom Kleingedruckten ab: nämlich welchen Datensatz der globalen Temperatur man betrachtet“ (hier). Dazu hat sie sicher das Recht. Hier folgt die globale mittlere Temperatur der unteren Troposphäre von Spencer an der UAH:

Man braucht hier keinerlei Trendlinien, um den Stillstand zu erkennen, welcher sich vom Ende des Super El Nino 1998 bis zum Beginn des El Nino 2015-2016 erstreckt. Dies illustriert zweierlei: Hinzugefügte Trendlinien liefern zusätzliche Informationen, die nicht Bestandteil des Datensatzes sind, und es ist wirklich wichtig zu wissen, dass es für jedwedes wissenschaftliches Konzept mehr als nur einen Datensatz gibt – mehr als eine Messung – und es ist entscheidend wichtig zu wissen „What Are they Really Counting?“, wobei der zentrale Punkt Folgender ist:

Also haben wir bei allen gezeigten Messungen, die uns als Informationen angeboten werden, besonders wenn sie von einer behaupteten Signifikanz begleitet werden – wenn man uns also sagt, dass diese Messungen/Zahlen dies oder das bedeuten – eine grundlegende Frage: Was genau registrieren sie da eigentlich?

Natürlich erhebt sich da eine Folgefrage: Ist das, was sie registriert haben, wirklich eine Messung dessen, über was sie berichten?

Jüngst kam mir ein Beispiel aus einem anderen Bereich vor Augen, wie intellektuell gefährlich die kognitive Abhängigkeit (fast schon eine Überzeugung) zu Trendlinien für die wissenschaftliche Forschung sein kann. Man erinnere sich, Trendlinien in aktuellen Graphiken sind oftmals berechnet und von Statistik-Softwarepaketen gezeichnet, und die Ergebnisse dieser Software werden viel zu oft als eine Art enthüllter Wahrheit angesehen.

Ich habe nicht den Wunsch, irgendeine Kontroverse loszutreten über das aktuelle Thema einer Studie, welche die folgenden Graphiken produziert hat. Ich habe die genannten Bedingungen in den Graphiken abgekürzt. Man versuche, mir zu folgen, aber nicht um die medizinische Thematik zu verstehen, um die es geht, sondern um die Art und Weise, mit der Trendlinien die Schlussfolgerungen der Forscher beeinflusst haben.

Hier folgt ein großer graphischer Datensatz aus den Begleitinformationen der Studie:

Man beachte, dass dies Darstellungen der Häufigkeits-Raten sind, also die Frage „wie viele Fälle dieser Krankheit pro 100.000 Menschen sind berichtet worden?“ – hier gruppiert um 10-Jahre-Altersgruppen. Man hat farbige Trendlinien hinzugefügt, wo sie glauben (Meinung!), dass signifikante Änderungen der Anzahl der Fälle aufgetreten sind.

(Einige wichtige Details, über die später noch gesprochen wird, können im Großbild eingesehen werden.)

Wichtige Anmerkung: Die in dieser Studie untersuchte Bedingung ist nichts, was irgendwie von Jahreszeiten oder Jahren abhängig ist wie etwa Grippe-Epidemien. Es ist eine Bedingung, die sich in den meisten Fällen über Jahre hinweg entwickelt, bevor sie entdeckt und besprochen werden kann – etwas, das nur entdeckt werden kann, wenn es beeinträchtigend wird. Es kann auch durch regelmäßige medizinische Untersuchungen entdeckt werden, welche nur bei älteren Menschen durchgeführt werden. Also könnte „jährliche Fallzahl“ keine ordentliche Beschreibung dessen sein, was registriert wurde – es ist tatsächlich eine Maßzahl von „jährlichen entdeckten und bekannt gemachten Fällen“ – nicht tatsächlich Häufigkeit, was etwas ganz Anderes ist.

In der veröffentlichten Studie erscheint eine kondensierte Version der Graphiken:

Die älteren Frauen und Männer sind in den Graphiken in der oberen Reihe gezeigt, wobei die Fallzahlen glücklicherweise seit den 1980-er Jahren bis heute rückläufig sind. Durch das mit Bedacht vorgenommene Hinzufügen farbiger Trendlinien steigen die Fallzahlen bei Frauen und Männern jünger als 50 Jahre ziemlich steil. Auf dieser Grundlage (und einer Menge anderer Überlegungen) ziehen die Forscher folgende Schlussfolgerung:

Schlussfolgerungen und Relevanz: Diese Studie fand ein zunehmendes Vorkommen von CRC-Diagnosen [= Darmkrebs] unter kanadischen Frauen und Männern unter 50 Jahren. Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren.

Noch einmal: Es geht mir in keiner Weise um das medizinische Thema hier … sie mögen ja recht haben aus Gründen, die hier keine Rolle spielen. Der Punkt, den ich herüber bringen möchte, ist vielmehr Folgender:

Ich habe zwei der Teilgraphiken mit Kommentaren versehen, in denen es um Fallzahlen bei Männern über 50 Jahre bzw. unter 50 Jahren geht. Über eine Datenlänge von 45 Jahren verläuft die Bandbreite bei Männern älter als 50 Jahre zwischen 170 und 220 Fällen pro Jahr mit einer Varianz von über 50 Fällen pro Jahr. Bei Männern jünger als 50 Jahre lagen die Fallzahlen ziemlich stetig zwischen 8,5 und 11 Fällen pro Jahr pro 100.000 Menschen über einen Zeitraum von 40 Jahren. Erst ganz zuletzt, bei den letzten 4 Datenpunkten, zeigte sich ein Anstieg auf 12 bis 13 Fälle pro 100.000 pro Jahr – eine Zunahme um ein oder zwei Fälle pro Jahr pro 100.000 Menschen. Es kann die Trendlinie für sich sein, die eine Art Signifikanz erzeugt. Für Männer älter als 50 Jahre zeigte sich zwischen 1970 und Anfang der 1980-er Jahre eine Zunahme um 60 Fälle pro 100.000 Menschen. Und doch wird die entdeckte und berichtete Zunahme um einen oder zwei Fälle bei Männern unter 50 Jahren als eine Sache „höchster Priorität“ eingestuft – was jedoch in der Realität tatsächlich signifikant sein kann oder auch nicht – und alles könnte sehr gut auch innerhalb der normalen Varianz der Entdeckung und Meldung dieser Art Krankheit liegen.

Die Bandbreite der Fallzahlen bei Männern unter 50 Jahren blieb von Ende der 1970-er Jahre bis Anfang der 2010-er Jahre gleich – das ist ziemlich stabil. Dann gibt es vier etwas höhere Ausreißer hintereinander – mit Zunahmen von 1 oder 2 Fällen pro 100.000 Menschen. Soweit die Daten.

Falls es meine Daten wären – und mein Thema – sagen wir die Anzahl von Monarchfaltern in meinem Garten pro Monat oder so, würde ich aus dem Paneel mit den sieben Graphiken oben entnehmen, dass die Trendlinien alles konfus machen. Hier noch einmal:

Falls wir mal versuchen, die Trendlinien zu ignorieren, erkennt man in der ersten Teilgraphik, dass die Fallzahlen im Alter von 20 bis 29 Jahren im derzeitigen Jahrzehnt gleich hoch sind wie in den 1970-er Jahren – es gibt keine Änderung. Die Bandbreite liegt hier unter 1,5 Fälle pro Jahr.

Betrachtet man die Untergraphik 40 bis 49 Jahre, erkennt man, dass die Bandbreite etwas gesunken ist, aber die gesamte Größenordnung der Bandbreite beträgt weniger als 5 Fälle pro Jahr pro 100.000 Menschen. In dieser Altersgruppe wurde eine Trendlinie gezogen, welche eine Zunahme während der letzten 12 bis 13 Jahre aufweist, aber die Bandbreite ist gegenwärtig niedriger als während der 1970-er Jahre.

In den übrigen vier Teilgraphiken erkennt man Daten mit der Form eines „Buckels“, welche über 50 Jahre in jeder Altersgruppe die gleiche Bandbreite zeigen.

Es ist wichtig, sich daran zu erinnern, dass es hier nicht um eine Krankheit geht, deren Ursachen bekannt sind oder für die es eine Präventionsmethode gibt, obwohl man behandelt wird, wenn die Krankheit früh genug erkannt wird. Es ist eine Klasse von Krebs, und dessen Vorkommen wird nicht durch Maßnahmen bzgl. der öffentlichen Gesundheit kontrolliert, um diese Krankheit zu verhindern. Derartige Maßnahmen führen nicht zu einer Änderung der Fallzahlen. Man weiß, dass es altersabhängig ist und öfter bei Männern und Frauen auftritt, wenn sie altern.

Es ist diese eine Teilgraphik der Altersgruppe von 30 bis 39 Jahren, welche eine Zunahme der Fallzahlen um 2 Fälle pro Jahr pro 100.000 Menschen zeigt, was den Faktor kontrolliert, durch welchen sich bei Männern jünger als 50 Jahre diese Zunahme zeigt:

Man erinnere sich, im Abschnitt Schlussfolgerung und Relevanz der Studie wurde dies so beschrieben: „Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren“.

In diesem Beitrag geht es nicht um das Vorkommen dieser Krebsart bei verschiedenen Altersgruppen – sondern es geht darum, wie statistische Software Trendlinien über die Daten legt, welche zu Konfusion und möglichen Missverständnissen der Daten selbst führen können. Ich gebe zu, dass es auch möglich ist, Trendlinien aus rhetorischen Gründen über die Daten zu legen (mit der Absicht, Eindruck zu schinden) wie im Beispiel von Climate.gov (und Millionen anderer Beispiele in allen Bereichen der Wissenschaft).

Unter dem Strich:

1. Trendlinien sind nicht Bestandteil der Daten. Die Daten sind die Daten.

2. Trendlinien sind immer Meinungen und Interpretationen, welche den Daten hinzugefügt werden. Sie sind abhängig von der Definition (Modell, statistische Formel, Software, was auch immer), der man den „Trend“ verpasst. Diese Meinungen und Interpretationen können valide sein oder auch nicht oder auch unsinnig (und alles dazwischen ebenfalls).

3. Trendlinien sind KEINE Beweise – die Daten können Belege sein, sind aber nicht notwendigerweise Belege für das, was behauptet wird (hier).

4. Trends sind keine Ursachen (hier), es sind Auswirkungen. Trends der Vergangenheit haben nicht die gegenwärtigen Daten erzeugt. Gegenwärtige Daten werden keine zukünftigen Daten erzeugen (hier).

5. Falls die Daten mittels statistischer Software bearbeitet werden müssen, um einen „Trend“ zu bestimmen, dann würde ich vorschlagen, dass man weitere oder andere Forschungen durchführt oder dass die Daten so hohes Rauschen aufweisen, dass ein Trend irrelevant wäre.

6. Berechneten Trends eine „Signifikanz“ zuzuordnen auf der Grundlage eines P-Wertes ist statistisch invalid.

7. Man lege keine Trendlinien in die Graphiken seiner Daten. Falls die Daten nach bestem Wissen valide sind, braucht es keine Trendlinien, um anderen die Daten zu „erklären“.

Link: https://wattsupwiththat.com/2019/08/06/why-you-shouldnt-draw-trend-lines-on-graphs/

Übersetzt von Chris Frey EIKE




Spätester Beginn der Hurrikan-Saison im Atlantik seit 2004

[*Im Original verwendet Watts den Terminus disaster porn. Anm. d. Übers.]

Abbildung: Graphik des National Hurricane Center NHC

Dass es gegenwärtig keine Gebiete gibt, in denen die Bildung eines Hurrikans zu erwarten ist, bedeutet, dass es mindestens seit 2004 nicht mehr zu einem so späten Beginn gekommen war. Damals war es der Hurricane Charley, der als erster Hurrikan am 9. August benannt worden war. In einer privaten E-Mail mit dem erfahrenen Hurrikan-Prognostiker Joe Bastardi stimmte dieser zu und fügte hinzu:

Es bestehen gute Aussichten, dass es auch gleichzieht mit dem August 1977 mit der geringsten ACE in einem August

ACE = Accumulated Cyclone Energy, ein Index zur Messung der von Tropical Storms/Hurricanes in die Atmosphäre freigesetzten Energie. 1977 war das Jahr mit der geringsten ACE innerhalb einer Saison.

Dem NHC zufolge ist nichts dergleichen während der nächsten Tage zu erwarten:

Tropical Weather Outlook
NWS National Hurricane Center Miami FL
800 AM EDT Wed Aug 7 2019

For the North Atlantic...Caribbean Sea and the Gulf of Mexico:

Tropical cyclone formation is not expected during the next 5 days.

$$
Forecaster Stewart

[Diese Meldung spricht für sich und wurde absichtlich unübersetzt gelassen. Anm. d. Übers.]

Abbildung 2

Unter der Annahme, dass sich bis zum 9. August keine neuen tropischen Zyklone bilden, würde der Beginn der Namensgebung bis zum Jahr 2001 zurückgehen, als am 14. August Tropical Storm Chantal benannt worden war.

Der Höhepunkt der Saison liegt aber noch vor uns, nämlich im September.

Abbildung 3: Graphik der Häufigkeit von Tropical Storms und Hurrikanen im Atlantik auf monatlicher Basis von 1851 bis 2017. Daten von der NOAA hier und von Chris Landsea am NHC. „Gesamte und mittlere Anzahl tropischer Zyklone nach Monaten (1851 bis 2017)“, NOAA, Atlantic Oceanographic and Meteorological Laboratory, Stand 1. September 2018. Graphik von Rcraig.

Link: https://wattsupwiththat.com/2019/08/07/slowest-start-to-atlantic-hurricane-season-since-2004/

Übersetzt von Chris Frey EIKE