Warum man in Graphiken keine Trendlinien legen sollte

Wir sehen hier bei WUWT (und EIKE Anmerkung des Übersetzers) sehr viele Graphiken – alle Arten von Graphiken von vielen verschiedenen Datensätzen. Beispielhaft sei hier eine allgemein gezeigte Graphik der NOAA gezeigt, die aus einem Stück bei Climate.gov stammt und die Bezeichnung trägt „Did global warming stop in 1998?” von Rebecca Lindsey, veröffentlicht am 4. September 2018:

Die Details in dieser Graphik interessieren mich nicht – das Ganze qualifiziert sich selbst als „dümmlich“. Die vertikale Skala ist in Grad Fahrenheit angegeben und die gesamte Bandbreite über 140 Jahre liegt größenordnungsmäßig bei 2,5°F oder etwa 1,5°C. Interessant in der Graphik ist die Mühe, „Trendlinien“ über die Daten zu legen, um den Leser etwas über die Daten zu vermitteln, was der Autor der graphischen Repräsentation übermitteln will. Dieses „etwas“ ist eine Meinung – es ist immer eine Meinung – es ist nicht Teil der Daten.

Die Daten sind die Daten. Wenn man die Daten in eine graphische Darstellung zwängt, hat man bereits Meinung und persönliche Beurteilung einfließen lassen in Gestalt der Wahl von Anfangs- und Endzeitpunkt, vertikalen und horizontalen Skalen und, in diesem Falle, die Schattierung eines 15-Jahre-Zeitraumes an einem Ende. Manchmal übernimmt irgendeine Software die Entscheidung der vertikalen und horizontalen Skala – und nicht rationale Menschen – was sogar zu noch größerer Konfusion führt und manchmal zu großen Fehlinterpretationen.

Jeder, der die Daten in der oberen Graphik nicht eindeutig erkennt ohne die Hilfe der roten Trendlinie sollte sich ein anderes Studienfeld suchen (oder seinem Optiker einen Besuch abstatten). Die untere Graphik ist in ein Propaganda-Werkzeug verwandelt worden mittels Addition von fünf Meinungen in Gestalt von Mini-Trendlinien.

Trendlinien ändern die Daten nicht – sie können lediglich die Sichtweise auf die Daten verändern (hier). Trends können manchmal nützlich sein (bitte mit einem großen vielleicht versehen), aber sie bewirken in den Graphiken der NOAA oben nichts Anderes als zu versuchen, den vom IPCC sanktionierten Gedanken des „Stillstands“ zu verunglimpfen. Damit wollen der Autor und die Herausgeber ihre gewünschte Meinung bei Climate.gov unterstreichen. Um Rebecca Lindsey aber etwas gerecht zu werden – sie schreibt „wie viel langsamer der Anstieg erfolgt, hängt vom Kleingedruckten ab: nämlich welchen Datensatz der globalen Temperatur man betrachtet“ (hier). Dazu hat sie sicher das Recht. Hier folgt die globale mittlere Temperatur der unteren Troposphäre von Spencer an der UAH:

Man braucht hier keinerlei Trendlinien, um den Stillstand zu erkennen, welcher sich vom Ende des Super El Nino 1998 bis zum Beginn des El Nino 2015-2016 erstreckt. Dies illustriert zweierlei: Hinzugefügte Trendlinien liefern zusätzliche Informationen, die nicht Bestandteil des Datensatzes sind, und es ist wirklich wichtig zu wissen, dass es für jedwedes wissenschaftliches Konzept mehr als nur einen Datensatz gibt – mehr als eine Messung – und es ist entscheidend wichtig zu wissen „What Are they Really Counting?“, wobei der zentrale Punkt Folgender ist:

Also haben wir bei allen gezeigten Messungen, die uns als Informationen angeboten werden, besonders wenn sie von einer behaupteten Signifikanz begleitet werden – wenn man uns also sagt, dass diese Messungen/Zahlen dies oder das bedeuten – eine grundlegende Frage: Was genau registrieren sie da eigentlich?

Natürlich erhebt sich da eine Folgefrage: Ist das, was sie registriert haben, wirklich eine Messung dessen, über was sie berichten?

Jüngst kam mir ein Beispiel aus einem anderen Bereich vor Augen, wie intellektuell gefährlich die kognitive Abhängigkeit (fast schon eine Überzeugung) zu Trendlinien für die wissenschaftliche Forschung sein kann. Man erinnere sich, Trendlinien in aktuellen Graphiken sind oftmals berechnet und von Statistik-Softwarepaketen gezeichnet, und die Ergebnisse dieser Software werden viel zu oft als eine Art enthüllter Wahrheit angesehen.

Ich habe nicht den Wunsch, irgendeine Kontroverse loszutreten über das aktuelle Thema einer Studie, welche die folgenden Graphiken produziert hat. Ich habe die genannten Bedingungen in den Graphiken abgekürzt. Man versuche, mir zu folgen, aber nicht um die medizinische Thematik zu verstehen, um die es geht, sondern um die Art und Weise, mit der Trendlinien die Schlussfolgerungen der Forscher beeinflusst haben.

Hier folgt ein großer graphischer Datensatz aus den Begleitinformationen der Studie:

Man beachte, dass dies Darstellungen der Häufigkeits-Raten sind, also die Frage „wie viele Fälle dieser Krankheit pro 100.000 Menschen sind berichtet worden?“ – hier gruppiert um 10-Jahre-Altersgruppen. Man hat farbige Trendlinien hinzugefügt, wo sie glauben (Meinung!), dass signifikante Änderungen der Anzahl der Fälle aufgetreten sind.

(Einige wichtige Details, über die später noch gesprochen wird, können im Großbild eingesehen werden.)

Wichtige Anmerkung: Die in dieser Studie untersuchte Bedingung ist nichts, was irgendwie von Jahreszeiten oder Jahren abhängig ist wie etwa Grippe-Epidemien. Es ist eine Bedingung, die sich in den meisten Fällen über Jahre hinweg entwickelt, bevor sie entdeckt und besprochen werden kann – etwas, das nur entdeckt werden kann, wenn es beeinträchtigend wird. Es kann auch durch regelmäßige medizinische Untersuchungen entdeckt werden, welche nur bei älteren Menschen durchgeführt werden. Also könnte „jährliche Fallzahl“ keine ordentliche Beschreibung dessen sein, was registriert wurde – es ist tatsächlich eine Maßzahl von „jährlichen entdeckten und bekannt gemachten Fällen“ – nicht tatsächlich Häufigkeit, was etwas ganz Anderes ist.

In der veröffentlichten Studie erscheint eine kondensierte Version der Graphiken:

Die älteren Frauen und Männer sind in den Graphiken in der oberen Reihe gezeigt, wobei die Fallzahlen glücklicherweise seit den 1980-er Jahren bis heute rückläufig sind. Durch das mit Bedacht vorgenommene Hinzufügen farbiger Trendlinien steigen die Fallzahlen bei Frauen und Männern jünger als 50 Jahre ziemlich steil. Auf dieser Grundlage (und einer Menge anderer Überlegungen) ziehen die Forscher folgende Schlussfolgerung:

Schlussfolgerungen und Relevanz: Diese Studie fand ein zunehmendes Vorkommen von CRC-Diagnosen [= Darmkrebs] unter kanadischen Frauen und Männern unter 50 Jahren. Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren.

Noch einmal: Es geht mir in keiner Weise um das medizinische Thema hier … sie mögen ja recht haben aus Gründen, die hier keine Rolle spielen. Der Punkt, den ich herüber bringen möchte, ist vielmehr Folgender:

Ich habe zwei der Teilgraphiken mit Kommentaren versehen, in denen es um Fallzahlen bei Männern über 50 Jahre bzw. unter 50 Jahren geht. Über eine Datenlänge von 45 Jahren verläuft die Bandbreite bei Männern älter als 50 Jahre zwischen 170 und 220 Fällen pro Jahr mit einer Varianz von über 50 Fällen pro Jahr. Bei Männern jünger als 50 Jahre lagen die Fallzahlen ziemlich stetig zwischen 8,5 und 11 Fällen pro Jahr pro 100.000 Menschen über einen Zeitraum von 40 Jahren. Erst ganz zuletzt, bei den letzten 4 Datenpunkten, zeigte sich ein Anstieg auf 12 bis 13 Fälle pro 100.000 pro Jahr – eine Zunahme um ein oder zwei Fälle pro Jahr pro 100.000 Menschen. Es kann die Trendlinie für sich sein, die eine Art Signifikanz erzeugt. Für Männer älter als 50 Jahre zeigte sich zwischen 1970 und Anfang der 1980-er Jahre eine Zunahme um 60 Fälle pro 100.000 Menschen. Und doch wird die entdeckte und berichtete Zunahme um einen oder zwei Fälle bei Männern unter 50 Jahren als eine Sache „höchster Priorität“ eingestuft – was jedoch in der Realität tatsächlich signifikant sein kann oder auch nicht – und alles könnte sehr gut auch innerhalb der normalen Varianz der Entdeckung und Meldung dieser Art Krankheit liegen.

Die Bandbreite der Fallzahlen bei Männern unter 50 Jahren blieb von Ende der 1970-er Jahre bis Anfang der 2010-er Jahre gleich – das ist ziemlich stabil. Dann gibt es vier etwas höhere Ausreißer hintereinander – mit Zunahmen von 1 oder 2 Fällen pro 100.000 Menschen. Soweit die Daten.

Falls es meine Daten wären – und mein Thema – sagen wir die Anzahl von Monarchfaltern in meinem Garten pro Monat oder so, würde ich aus dem Paneel mit den sieben Graphiken oben entnehmen, dass die Trendlinien alles konfus machen. Hier noch einmal:

Falls wir mal versuchen, die Trendlinien zu ignorieren, erkennt man in der ersten Teilgraphik, dass die Fallzahlen im Alter von 20 bis 29 Jahren im derzeitigen Jahrzehnt gleich hoch sind wie in den 1970-er Jahren – es gibt keine Änderung. Die Bandbreite liegt hier unter 1,5 Fälle pro Jahr.

Betrachtet man die Untergraphik 40 bis 49 Jahre, erkennt man, dass die Bandbreite etwas gesunken ist, aber die gesamte Größenordnung der Bandbreite beträgt weniger als 5 Fälle pro Jahr pro 100.000 Menschen. In dieser Altersgruppe wurde eine Trendlinie gezogen, welche eine Zunahme während der letzten 12 bis 13 Jahre aufweist, aber die Bandbreite ist gegenwärtig niedriger als während der 1970-er Jahre.

In den übrigen vier Teilgraphiken erkennt man Daten mit der Form eines „Buckels“, welche über 50 Jahre in jeder Altersgruppe die gleiche Bandbreite zeigen.

Es ist wichtig, sich daran zu erinnern, dass es hier nicht um eine Krankheit geht, deren Ursachen bekannt sind oder für die es eine Präventionsmethode gibt, obwohl man behandelt wird, wenn die Krankheit früh genug erkannt wird. Es ist eine Klasse von Krebs, und dessen Vorkommen wird nicht durch Maßnahmen bzgl. der öffentlichen Gesundheit kontrolliert, um diese Krankheit zu verhindern. Derartige Maßnahmen führen nicht zu einer Änderung der Fallzahlen. Man weiß, dass es altersabhängig ist und öfter bei Männern und Frauen auftritt, wenn sie altern.

Es ist diese eine Teilgraphik der Altersgruppe von 30 bis 39 Jahren, welche eine Zunahme der Fallzahlen um 2 Fälle pro Jahr pro 100.000 Menschen zeigt, was den Faktor kontrolliert, durch welchen sich bei Männern jünger als 50 Jahre diese Zunahme zeigt:

Man erinnere sich, im Abschnitt Schlussfolgerung und Relevanz der Studie wurde dies so beschrieben: „Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren“.

In diesem Beitrag geht es nicht um das Vorkommen dieser Krebsart bei verschiedenen Altersgruppen – sondern es geht darum, wie statistische Software Trendlinien über die Daten legt, welche zu Konfusion und möglichen Missverständnissen der Daten selbst führen können. Ich gebe zu, dass es auch möglich ist, Trendlinien aus rhetorischen Gründen über die Daten zu legen (mit der Absicht, Eindruck zu schinden) wie im Beispiel von Climate.gov (und Millionen anderer Beispiele in allen Bereichen der Wissenschaft).

Unter dem Strich:

1. Trendlinien sind nicht Bestandteil der Daten. Die Daten sind die Daten.

2. Trendlinien sind immer Meinungen und Interpretationen, welche den Daten hinzugefügt werden. Sie sind abhängig von der Definition (Modell, statistische Formel, Software, was auch immer), der man den „Trend“ verpasst. Diese Meinungen und Interpretationen können valide sein oder auch nicht oder auch unsinnig (und alles dazwischen ebenfalls).

3. Trendlinien sind KEINE Beweise – die Daten können Belege sein, sind aber nicht notwendigerweise Belege für das, was behauptet wird (hier).

4. Trends sind keine Ursachen (hier), es sind Auswirkungen. Trends der Vergangenheit haben nicht die gegenwärtigen Daten erzeugt. Gegenwärtige Daten werden keine zukünftigen Daten erzeugen (hier).

5. Falls die Daten mittels statistischer Software bearbeitet werden müssen, um einen „Trend“ zu bestimmen, dann würde ich vorschlagen, dass man weitere oder andere Forschungen durchführt oder dass die Daten so hohes Rauschen aufweisen, dass ein Trend irrelevant wäre.

6. Berechneten Trends eine „Signifikanz“ zuzuordnen auf der Grundlage eines P-Wertes ist statistisch invalid.

7. Man lege keine Trendlinien in die Graphiken seiner Daten. Falls die Daten nach bestem Wissen valide sind, braucht es keine Trendlinien, um anderen die Daten zu „erklären“.

Link: https://wattsupwiththat.com/2019/08/06/why-you-shouldnt-draw-trend-lines-on-graphs/

Übersetzt von Chris Frey EIKE




Spätester Beginn der Hurrikan-Saison im Atlantik seit 2004

[*Im Original verwendet Watts den Terminus disaster porn. Anm. d. Übers.]

Abbildung: Graphik des National Hurricane Center NHC

Dass es gegenwärtig keine Gebiete gibt, in denen die Bildung eines Hurrikans zu erwarten ist, bedeutet, dass es mindestens seit 2004 nicht mehr zu einem so späten Beginn gekommen war. Damals war es der Hurricane Charley, der als erster Hurrikan am 9. August benannt worden war. In einer privaten E-Mail mit dem erfahrenen Hurrikan-Prognostiker Joe Bastardi stimmte dieser zu und fügte hinzu:

Es bestehen gute Aussichten, dass es auch gleichzieht mit dem August 1977 mit der geringsten ACE in einem August

ACE = Accumulated Cyclone Energy, ein Index zur Messung der von Tropical Storms/Hurricanes in die Atmosphäre freigesetzten Energie. 1977 war das Jahr mit der geringsten ACE innerhalb einer Saison.

Dem NHC zufolge ist nichts dergleichen während der nächsten Tage zu erwarten:

Tropical Weather Outlook
NWS National Hurricane Center Miami FL
800 AM EDT Wed Aug 7 2019

For the North Atlantic...Caribbean Sea and the Gulf of Mexico:

Tropical cyclone formation is not expected during the next 5 days.

$$
Forecaster Stewart

[Diese Meldung spricht für sich und wurde absichtlich unübersetzt gelassen. Anm. d. Übers.]

Abbildung 2

Unter der Annahme, dass sich bis zum 9. August keine neuen tropischen Zyklone bilden, würde der Beginn der Namensgebung bis zum Jahr 2001 zurückgehen, als am 14. August Tropical Storm Chantal benannt worden war.

Der Höhepunkt der Saison liegt aber noch vor uns, nämlich im September.

Abbildung 3: Graphik der Häufigkeit von Tropical Storms und Hurrikanen im Atlantik auf monatlicher Basis von 1851 bis 2017. Daten von der NOAA hier und von Chris Landsea am NHC. „Gesamte und mittlere Anzahl tropischer Zyklone nach Monaten (1851 bis 2017)“, NOAA, Atlantic Oceanographic and Meteorological Laboratory, Stand 1. September 2018. Graphik von Rcraig.

Link: https://wattsupwiththat.com/2019/08/07/slowest-start-to-atlantic-hurricane-season-since-2004/

Übersetzt von Chris Frey EIKE




Klimakrise und Trockenheit: Waldsterben 2.0?

Unser Wald ist massiv geschädigt“ titelte SPON am 01.08.2019 und verkündete: „Der Wald in Deutschland ist in einem schlechten Zustand. 100.000 Hektar wurden seit 2018 von Stürmen, Dürren und Schädlingen beschädigt“. In einem weiteren Beitrag vom 25.7. zum gleichen Thema sagt Ulrich Dohle, Vorsitzender des Bundes Deutscher Forstleute (BDF), das Hauptproblem sei die Trockenheit. In vielen Wäldern habe es seit dem Frühjahr 2018 zu wenig geregnet. Die aktuell hohen Temperaturen von um die 40 Grad Celsius seien nicht das Problem. Selbst Buchen, die eigentlich als robust gelten, werfen vielerorts ihr Laub ab und drohen abzusterben. Sowohl alte als auch junge Bäume seien betroffen. „Das ist vor allem bei den jungen Bäumen tragisch, weil sie die nächste Waldgeneration bilden“, wird Dohle zitiert. Selbst naturbelassene Buchenmischwälder seien gefährdet.

Der Klimawandel wird zum Kernproblem erklärt

Zwar wird auch in den SPON-Artikeln eingeräumt, dass die Ursachen doch vielfältiger seien und die Schuld nicht nur am Klimawandel liegt. In Wahrheit geht es um ein ganzes Bündel von Ursachen wie Sturmschäden, Schädlinge sowie die Bepflanzung mit Monokulturen, die für unser Klima nicht optimal geeignet sind. Allerdings wird in beiden Artikeln sowie in Nachrichtensendungen des Fernsehens das Thema der angeblich klimabedingten Trockenheit in den Vordergrund gerückt. Diese klimabedingte Schwächung, so die Botschaft, sei im Verein mit Sturmschäden (die ja, so die ständig wiederholte Botschaft der Medien, als ebenfalls klimabedingte Wetterextreme einzustufen sind) der wesentliche Wegbereiter für die Schädlinge, welche jetzt dem Wald zusetzen. BDF-Chef Dohle sieht die Wälder gar „vor dem Kollaps“. Der Wald als der Klimaretter schlechthin werde aktuell selbst Opfer der Klimakatastrophe. Zur Untermauerung dieser These wurden in Nachrichtensendungen des Fernsehens Diagramme des Helmholtz-Zentrum für Umweltforschung GmbH – UFZ gezeigt, welche die aktuell schlimme Trockenheit in unseren Böden bis in eine Tiefe von 1,8 m in flammenden roten und gelben Farbtönen darstellen, Bild 2. Untermalt wird diese Botschaft durch eine Legende, deren Abstufungen ausschließlich von „ungewöhnlich trocken“ bis „extreme Dürre“ reichen.

Bild 2. In Fernsehnachrichten wurden Ende Juli 2019 Bilder wie dieses gezeigt, welche die schlimme Trockenheit unserer Böden selbst noch in einer Tiefe von 1,8 m belegen sollen (Bild: UFZ)

Die (Klima)-Wissenschaft hat festgestellt…

Beim Helmholtz Zentrum für Umweltforschung handelt es sich um eine staatlich unterstützte Großforschungseinrichtung mit rund 1.100 Mitarbeitern an mehreren Standorten, das sich u.a. mit den Ökosystemen der Zukunft sowie der Klimaforschung beschäftigt. Deshalb gilt auch hier automatisch der Grundsatz, dass die vermittelten Erkenntnisse dem aktuellen Stand der Wissenschaft entsprechen und höchstens von „Leugnern“ in Frage gestellt werden. Dennoch wollen wir hier die durch solche Diagramme vermittelte Klimakatastrophen-Botschaft einem Faktencheck unterziehen. Das oben gezeigte Diagramm entspricht der aktuellen Situation von Ende Juli 2019. Schauen wir deshalb einfach mal auf zwei „normale“ Jahresübersichten, nämlich die Zeitreihen der Dürredarstellungen der Jahre 2016 und 2017, Bild 3 und Bild 4.

Bild 3. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2016. Oben links = Januar (Grafik: UFZ)

Bild 4. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2017 (Grafik: UFZ)

Wie man sieht, zeigt die Karte für das Jahr 2016 über insgesamt fünf Monate hinweg überwiegend Warnfarben, wobei sich die Situation in den letzten vier Monaten stark verschlimmert. Dies setzt sich dann noch über die ersten sieben Monate des Jahres 2017 hinweg fort. Erst ab dem August des Jahres 2017 signalisiert die Zunahme weißer Farbe eine Besserung der Lage. Soweit die Wissenschaft. Grundlage der Diagramme sind übrigens, so wie in den Klimadisziplinen heute üblich, Berechnungen, die auf der Grundlage einer Modellierung erfolgen.

doch was sagen die Fakten?

Sucht man für die Jahre 2016 und 2017 die jeweiligen Regenmengen aus der Niederschlagsmengenstatistik des Umweltbundesamtes heraus, so findet man für 2016 eine Regenhöhe von 733 mm und für 2017 sogar den Wert 859 mm. Das Gesamtmittel der Jahre 1881 bis 2017 liegt bei 772 mm, wobei Extremwerte zwischen 552 mm (1959) und 1018 mm (2002) registriert wurden. Demnach liegt die Regenmenge des Jahres 2016 um lediglich 5 % unter dem Mittelwert, während der Niederschlag im Jahr 2017 sogar um mehr als 11 % darüber lag. Wenn man dies mit den Darstellungen von Bild 3 und Bild 4 vergleicht, drängt sich schon die Frage auf, ob diese Diagramme die Realität nicht ein klein wenig zu stark in Richtung Alarmismus verzerren.

Waldsterben 2.0 – was sagt die Statistik?

Auch beim Blick auf die in den SPON-Artikeln genannte Schadenshöhe von 100.000 Hektar seit 2018 lohnt es sich, die Försterklage genauer mit der Faktenlage zu vergleichen. Vor allem, wenn der Klimawandel ins Spiel gebracht wird. So betont der BDF-Vorsitzende Ulrich Dohle: „Bis vor einem Jahr hätte ich noch nicht von einem Waldsterben 2.0 gesprochen. Jetzt schon“. Es habe zwar auch in den vergangenen Jahrtausenden immer wieder Klimaschwankungen gegeben. Doch der Mensch beschleunige den Prozess, wodurch den langsam wachsenden Bäumen die Zeit fehle, um sich anzupassen.

Die aktuell genannten 100.000 Hektar, die sich zudem noch auf alle Ursachen – also Stürme, Dürren und Schädlinge – verteilen, sollte man zunächst mit anderen Schadensereignissen ins Verhältnis setzen. So ist beispielsweise vom Sturm „Lothar“ aus dem Jahr 1999 dokumentiert, dass er allein schon 60.000 Hektar Wald zerstört hat, d.h. allein dieser Sturm hat einen Schaden in fast vergleichbarer Größenordnung angerichtet hat wie die Kombination von Windbruch, Dürre und Schädlingsbefall aus den anderthalb Jahren seit Anfang 2018. Seitdem hat es zahlreiche weitere schwere Stürme wie Jeanett (2002), Gudrun (2005), Kyrill (2007), Paula (2008), Emma (2008), Klaus (2009), Xynthia (2010), Norina (2010), Christian (2013), Xaver (2013), Ela (2014), Niklas (2015), Axel (2017) und Xavier (2017) gegeben. Die bisher bekannten Schadenssummen aus diesen Unwettern summieren sich zu rund 33 Mrd. €. Das in den Betrachtungszeitraum fallende Sturmtief Burglind (2018) und der Orkan Friederike (2018) verursachten mit zusammen 2,6 Mrd. Schäden weniger als 10 % dieser Summe. Diese Zahlen mögen dabei helfen, die aktuellen Klagen der Waldbesitzer besser einzuschätzen. Natürlich hat der eine oder andere Kleinwaldbesitzer erhebliche bis existenzielle Schäden erlitten, doch auf die gesamte Branche bezogen erscheint die derzeitige Klagelautstärke doch recht hoch. Ganz auszuschließen ist ein Zusammenhang mit der Aussicht auf Gelder aus einem Fördertopf von ca. 800 Mio. natürlich nicht.…

Ein Blick in den Waldschadensbericht

Seit den denkwürdigen „Waldsterbens“-Aktionen der Grünen im letzten Jahrhundert wird der Waldzustand in Deutschland jährlich bundesweit erfasst. Zu den Kernstücken des Berichts gehört eine zusammenfassende Grafik. In dieser wird der Kronenzustand der Bäume in die drei Kategorien „ohne Verlichtung“, „Warnstufe“ und „deutliche Kronenverlichtung“ unterteilt, Bild 5.

Bild 5. Ergebnisse der Waldzustandserhebung aus den Jahre 1984 bis 2018 (Grafik: BMEL)

Der Blick auf diese Auswertung zeigt, dass es auch im Dürrejahr 2018 nicht zu außergewöhnlichen Schädigungen gekommen ist. Wie auch in anderen „trockenen“ Jahren wie 1991 und 2003/ 2004 stieg der Anteil der Bäume mit starker Kronenverlichtung auf um die 30 % an. Die Vergangenheit zeigt jedoch, dass sich der Wald danach stets schnell erholte. Den umgekehrten Trend zeigt naturgemäß der Anteil der Bäume ohne Kronenverlichtung. Insgesamt verlaufen alle drei Trends wenn, dann eher mit kleinen Schwankungen linear seitwärts. Bis auf eine geringfügige Zunahme des Anteils der Bäume in der Warnstufe ist seit etwa 1990 kein Negativtrend erkennbar. Von dem behaupteten „dramatischen“ Anstieg der Waldschäden, gar von einem Waldsterben 2.0 aufgrund von Klimaveränderungen, kann keine Rede sein. Zu beachten ist außerdem, dass es bei der Erfassung keine eindeutigen, wissenschaftlich exakt überprüfbaren Kriterien gibt. Stattdessen gibt es einen breiten individuellen Ermessenspielraum. Die Ergebnisse können daher kaum als belastbar angesehen werden.

Die Klimaentwicklung ist in Wahrheit der Freund des deutschen Waldes

Vollends haltlos werden alle Behauptungen über nachteilige Auswirkungen des Klimawandels beim Blick auf eine seit mehr als 135 Jahren sehr gut dokumentierte Statistik, nämlich die Entwicklung der Niederschlagsmengen, Bild 6.

Bild 6. Entwicklung der Niederschlagshöhe in Deutschland von 1881 bis 2019 nach Daten von UBA und Statista. Daten für 2019 auf der Grundlage des bisherigen Jahresverlaufs hochgerechnet (Grafik: Autor)

Aus der Niederschlagsstatistik geht nämlich hervor, dass jegliche Klimahysterie in Sachen Waldsterben völlig unangebracht ist. Seit 1881 ist das Klima in Deutschland nämlich nicht etwa trockener, sondern feuchter geworden, d.h. es fällt mehr Regen als früher. Damit sind Klagen über nachteilige Folgen des Klimawandels auf deutsche Wälder durch die Fakten widerlegt. Während die Vertreter der „Klimaerwärmung“ gerne behaupten, hinter ihnen stehe „die Wissenschaft“, lässt sich hier eindeutig beweisen, dass das Gegenteil der Fall ist. Seit 1881 ist die mittlere Regenhöhe in Deutschland von 728 mm/a um 63 mm/a bzw. fast 9 % auf inzwischen 791 mm/a angestiegen. Was wir dagegen in den vergangenen zwei Jahren hatten, waren die üblichen kurzfristigen Schwankungen, die für Wetter normal sind. Das Klima, der langfristige Trend dagegen, ist im Gegenteil positiv für unsere Wälder und auch für unsere Ernten. Es ist ein Jammer, dass unseren Journalisten hier wieder einmal die sonst so vielbeschworene investigative Motivation abhandenkommt, sobald das Stichwort „Klimawandel“ ins Spiel gebracht wird.


Bild 7. Im Dürrejahr 2018 trugen die Apfelbäume in der Region Stuttgart so reichlich saftige Früchte, dass vielfach die Äste abbrachen (Foto: Autor)




Der Juli 2019 war nicht der wärmste Juli jemals

Man würde denken, dass für eine solche Abschätzung nur die besten verfügbaren Daten herangezogen werden würden. Schließlich stammen die Angaben von offiziellen regierungsamtlichen Stellen (NOAA, WMO).

Aber die derzeitigen offiziellen Verkündigungen globaler Temperaturrekorde stammen von einer ziemlich limitierten Anzahl fehleranfälliger Thermometer, welche niemals dazu gedacht waren, globale Temperaturtrends zu ermitteln. Das globale Thermometer-Netzwerk weist drei große Probleme auf, wenn es um global gemittelte Temperaturwerte geht:

1) Der städtische Wärmeinseleffekt (UHI) hat zu einer graduellen Erwärmung der meisten Thermometer-Messstellen geführt wegen zunehmender Bebauung, der Einrichtung von Parkplätzen und Maßnahmen zu Air Conditioning, Autos usw. Diese Effekte sind lokaler Natur und nicht repräsentativ für die meisten globalen Festlandsgebiete (die zumeist weiterhin ländlich geprägt sind), und diese Erwärmung ist keinesfalls dem zunehmenden Kohlendioxid-Anteil in der Atmosphäre geschuldet. Weil die UHI-Erwärmung wie eine globale Erwärmung „aussieht“, ist es schwierig, diese aus den Daten zu entfernen. Tatsächlich sieht es so aus, als ob die Bemühungen der NOAA, UHI-kontaminierte Daten wie Daten aus ländlicher Umgebung aussehen zu lassen, den gegenteiligen Effekt hatten. Die beste Strategie wäre es, einfach die Daten der besten Thermometer-Standorte (in ländlicher Umgebung) heranzuziehen, aber genau das wird derzeit nicht gemacht.

2) Wassertemperaturen der Ozeane sind notorisch unsicher wegen wechselnder Messverfahren (vor langer Zeit Messungen mittels Eimer-Stichproben, dann Messungen der Temperatur in einströmendem Kühlwasser der Schiffsmotoren, Bojen und Satellitenmessungen erst seit 1983 usw.)

3) Sowohl Land- als auch Wassertemperaturen sind geographisch notorisch unvollständig. Wie kann man Temperaturen abschätzen in einem Gebiet von 1 Million Quadratmeilen, wo es keine einzige Messung gibt?

Es gibt bessere Möglichkeiten.

Ein vollständigeres Bild: Datensätze globaler Re-Analysen

An vielen Wettervorhersage-Zentren weltweit arbeiten Experten, welche eine Vielfalt von Daten aus allen möglichen Quellen auswerten und herausfinden, welche dieser Daten Wetterinformationen enthalten und welche nicht.

Aber wie können sie diesen Unterschied erkennen? Weil gute Daten zu guten Wettervorhersagen führen und schlechte Daten nicht.

Unter den Datenquellen sind Thermometer, Bojen und Schiffe (wie in den „offiziellen“ globalen Temperatur-Berechnungen), aber auch zusätzlich Daten von Wetterballonen, kommerziellen Flugzeugen und eine Vielfalt von Daten aus Satellitenmessungen.

Warum sollte jemand nicht von der Erdoberfläche stammende Daten verwenden, um bessere Messungen an der Oberfläche zu bekommen? Da das Wetter an der Oberfläche die Wetterbedingungen in der höheren Atmosphäre beeinflusst (und umgekehrt), kann man eine bessere Schätzung der globalen mittleren Temperatur erhalten, falls man Temperaturmessungen via Satelliten im globalen Maßstab in der freien Atmosphäre hat und auch in Regionen, in denen es gar keine Daten von der Oberfläche gibt. Aus Satellitendaten ableiten zu können, ob es sich um eine warme Luftmasse oder um eine kalte Luftmasse handelt, ist besser als überhaupt keine Daten zu haben.

Außerdem verlagern sich Wettersysteme. Und darin liegt auch der Sinn von Re-Analysen-Datensätzen: Weil all die verschiedenen Datenquellen sorgfältig durchforstet worden sind, um zu sehen, welche Mischung derselben zu den besten Wettervorhersagen führte (einschließlich Adjustierungen möglicher Instrumentenfehler und zeitlicher Verlagerung), wissen wir, dass die physikalische Konsistenz der verschiedenen eingehenden Daten ebenfalls optimiert waren.

Ein Teil dieses Verfahrens des Erstellens von Vorhersagen ist es, „Daten“ zu erhalten, wo es keine Daten gibt. Weil Wettersysteme unentwegt um die Welt ziehen, können die Gleichungen für Verlagerung, Thermodynamik und Feuchtigkeit herangezogen werden, um Temperaturwerte dort abzuschätzen, wo es keine Daten gibt, indem man vorhandene Daten in anderen Gebieten extrapoliert und dann beobachtet, wie sich das Wettersystem verhält, wenn es in Gebiete ohne Daten zieht. Darum wussten wir im Voraus, dass es in Frankreich einige außerordentlich heiße Tage geben würde, weil eine Luftmasse aus der Sahara bis nach Westeuropa vorankommen würde.

Diese Art der Extrapolation auf physikalischer Grundlage (nichts anderes ist Wettervorhersage) ist viel realistischer als beispielsweise die Temperaturen auf dem Festland rund um die Arktis zu messen und einfach zu raten, wie die Temperaturverhältnisse über dem kalten Meerwasser und dem Eis beschaffen sind, wo die Temperatur im Sommer selten deutlich über den Gefrierpunkt steigt. Tatsächlich ist dies eine der höchst fragwürdigen Verfahren von NASA GISS, um Daten aus datenfreien Gebieten zu erhalten.

Falls man denkt, dass das Re-Analyse-Verfahren fragwürdig klingt, weise ich nochmals darauf hin, dass genau dieses für die tägliche Wettervorhersage herangezogen wird. Zwar können wir uns über einige falsche Wettervorhersagen lustig machen, aber die objektiven Beweise zeigen, dass Vorhersagen für 2 bis 3 Tage im Voraus ziemlich genau sind, und sie werden mit der Zeit immer weiter verbessert.

Das Re-Analyse-Bild für den Juli 2019

Die einzigen Re-Analyse-Daten, die ich kenne und die fast in Echtzeit zu erhalten sind, stammen von WeatherBell.com und kommen vom Climate Forecast System der NOAA, Version 2 (CFSv2).

Die Graphik der Temperaturabweichungen vom Mittel des Zeitraumes 1981 bis 2010 zeigen für Juli 2019 eine globale mittlere Abweichung von lediglich etwas über 0,3°C über den Normalwerten:

Man beachte bei dieser Graphik, wie verzerrt die Berichterstattung in den Nachrichten war, als es um die vorübergehenden heißen Orte in Frankreich ging. Den Medienberichten zufolge sollen sie zur globalen mittleren Erwärmung beitragen. Ja, in Frankreich war es im Juli ungewöhnlich warm. Aber man betrachte die kalten Gebiete in Osteuropa und Westrussland. Wo gab es Berichte darüber? Was ist mit der Tatsache, dass es in den USA allgemein kälter als normal war?

Der Re-Analyse-Datensatz CFSv2 reicht nur bis zum Jahr 1979 zurück, und doch erkennt man, dass der Juli 2019 seit 41 Jahren an vierter Stelle der wärmsten Juli-Monate lag: in den Jahren 2016, 2002 und 2017 war es jeweils wärmer. Und eine Abweichung vom Mittelwert von +0,3°C ist nun wirklich nicht alarmierend.

Warum verwendet man bei der Verfolgung der globalen Temperaturen keine Re-Analyse-Datensätze?

Die Hauptbegrenzung der Re-Analyse-Datensätze liegt darin, dass sie meist nur bis 1979 zurück reichen, und ich glaube, dass mindestens einer bis 1950 zurückreicht. Da man bei der Berechnung globaler Temperaturtrends Daten so weit zurück reichend wie möglich haben will (zumindest bis zurück zum Jahr 1900 oder davor), können sie legitimerweise sagen, dass sie ihre eigenen Datensätze konstruieren wollen aus den längsten Datenreihen: von Thermometer-Messungen.

Aber der größte Teil der Erwärmung ereignete sich während der letzten 50 Jahre, und falls man versucht, die globale Temperatur mit Treibhausgas-Emissionen zu verlinken, scheint der Zeitraum seit 1979 ausreichend, da dies der Zeitraum mit den höchsten Treibhausgas-Emissionen ist.

Also schlage ich vor, dass man globale Re-Analyse-Datensätze heranzieht, weil diese ein genaueres Bild geben für Schätzungen globaler Temperaturänderungen zum Zwecke des Erkennens von Erwärmungstrends während der letzten 40 Jahre und diese zeitlich nach vorne zu extrapolieren. Es sind eindeutig die Datensätze mit der besten physikalischen Grundlage. Sie wurden optimiert, um die besten Wettervorhersagen zu erstellen und sind viel weniger anfällig für willkürliche Eingriffe in Gestalt von Adjustierungen und damit dafür, die vom Provider gewünschten Antworten zu liefern anstatt die Physik der Atmosphäre für diese Antworten zugrunde zu legen.

Link: https://wattsupwiththat.com/2019/08/02/july-2019-was-not-the-warmest-on-record/

Übersetzt von Chris Frey EIKE




„Gekonnte“ Statistik zeichnet sich dadurch aus, dass immer beweisbar ist, was bewiesen werden soll. Oder: Ein Beweis, dass es die mittelal­terliche Wärme­periode nicht gab

Beim Klimawandel gibt es nur eine Konstante: Es ist niemals etwas gewesen, was nicht sein darf

Der berühmte Hockeystick ließ alle „Ungereimtheiten“, das heißt Temperaturänderungen der letzten Jahrhunderte, hinter Algorithmen „verschwinden“. Das Mittelalter ist darin einfach ein fast horizontaler Strich, ein Effekt, der beim Mitteln von Daten, welche eher der Qualität eines Rauschens (neben anderen Mängeln) entsprechen, typisch ist.

Wie es damit konkret aussieht und dazu kommt, wurde bereits anhand eines berühmten“Proxi-Datensatzes referiert:
EIKE 11.05.2016: [5] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

Doch nun hat eine Studie anhand von genau diesem (grauslig schlechten) Proxi-Datensatz durch gekonnte Anwendung der Statistik herausbekommen (wollen), dass die (klimakritisch) wichtige, Mittelalterliche Warmzeit nur ein lokales Ereignis war und damit keinen globalen Einfluss hatte:
Studie: [2] No evidence for globally coherent warm and cold periods over the preindustrial Common Era
Eine Meldung, welche von praktisch allen Medien aufgenommen wurde und je nach deren „Qualitätsanspruch“ nur gelistet oder mit teils umfangreichen, redaktionellen Ergänzungen Verbreitung fand. Diesmal das Beispiel nicht aus der SZ, sondern vom Pendant im Norden, dem Berliner Tagesspiegel:
[4] Der Tagesspiegel, SINAN RECBER (Journalist | Umwelt & Wirtschaft | Psychologie): Studie widerlegt Argument der Klimaskeptiker 98 Prozent der Erde werden wärmer
Manche Menschen leugnen, dass der Klimawandel durch den Menschen verursacht wird. Doch Forscher zeigen, dass der Temperaturanstieg nichts Natürliches ist.
... Aber nun ja, in der Geschichte der Erde gab es schon immer wärmere und kältere Perioden. Dass die Durchschnittstemperaturen steigen, ist also nichts Neues – kein Grund zur Panik. So lautet ein populäres Argument von Klimaskeptikern, die den menschlichen Einfluss auf die globale Erwärmung bezweifeln.
Dass der derzeitige Klimawandel beispiellos ist, und keine natürliche Erscheinung, haben Schweizer Forscher nun durch eine Studie gezeigt, die im Fachmagazin „Nature“ veröffentlicht wurde. Die Temperaturanstiege der vergangenen 150 Jahre sind laut der Untersuchung fast auf der gesamten Welt gleichzeitig zu beobachten. Die Warm- oder Kaltzeiten der vergangenen zwei Jahrtausende seien hingegen immer nur auf bestimmte Gebiete beschränkt gewesen …

Der zum Artikel verantwortlich gelistete Journalist des Tagesspiegel, SINAN RECBER, postet auf seinem Twitter-Account Klimaalarm wie ein Wilder, bleibt mit 92 Followern jedoch nicht allzu bekannt. Zudem schreibt er auch fleißig Klimaalarm für die TAZ.

Seine fachliche Reputation dazu:
SINAN RECBER, taz: … Jahrgang 1995, schreibt gerne über Klimapolitik, Nachhaltigkeit und ökologische Themen. Er hat während seines Psychologie-Studiums in Wuppertal beim ZEIT Wissen Magazin in Hamburg hospitiert.

Die Mittelalterliche Wärmeperiode hat es nicht gegeben …

haben die Studienautoren ermittelt. Eine wichtige Belegdarstellung daraus zeigt Bild 2. Es zeigt laut den Autoren, dass es im Hochmittelalter keine MWP-Periode gab und Folge dessen die aktuelle unnatürlich-einzigartig sein muss. Bei dieser Darstellung ist zu beachten, dass das Bild keinen Temperaturverlauf, sondern den Anteil der positiven und negativen Temperaturanomalien (angeblich) über die gesamte Erde darstellt.

Bild 2 [2] Verteilung des Anteils von warmen und kalten Temperaturen (Proxis) über die Erde seit dem Jahr 0

Auf EIKE hat ein fleissiger Autor bereits über die neue Studie und ihre eklatanten Schwächen – zum Beispiel, dass die 2k-Proxis den Globus bei Weitem nicht abdecken -, berichtet:
EIKE 26.07.2019: [1] Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

und auch über das aktuelle MWP-Projekt von „kaltesonne“, welches die – bisher teils strittige -, globale Auswirkung der Mittelalterlichen Wärmeperiode anhand neuer Proxidaten immer deutlicher aufzeigt:
[1] Das KalteSonne-Projekt „Die Mittelalterliche Wärmeperiode“ zeigt also eindeutig, dass die Indikatoren für diese Warmzeit global auf allen Kontinente zu finden sind und es sich demnach um ein globales Ereignis handeln muss.
[1]
(Anmerkung: betrifft Bild 3) … Rote Punkte zeigen warme Bedingungen zur Zeit der MWP an, gelbe Punkte Trockenheit, grüne Punkte Feuchtigkeit. Blaue Punkte sind für Abkühlung während der MWP reserviert. Klicken Sie auf die jeweiligen Punkte, und es öffnet sich die Analyse des jeweiligen Papers. Ebenfalls aufrufbar ist die wichtigste Klimakurve der Arbeit.

Bild 3 kaltesonne MWP-Viewer

Die eklatanten Schwächen des Pages2k-Datensatzes sind bekannt. Da dieser aber die „richtige“ Klimarichtung, also wieder einen Hockeystick, ergibt, „stört“ es die „Klimawandel-„Wissenschaftler nicht:

Pages2k, NZZ: [3] Die globale Mitteltemperatur der letzten 2000 Jahre wurde mit sieben statistischen Methoden (M1–M7) rekonstruiert … (Anmerkung: betrifft Bild 4) Messungen (seit 1865)

Bild 4 [3] Quelle: Pages 2k Consortium, Nature Geoscience 2019 (dargestellt ist die Abweichung gegenüber dem Mittelwert der Jahre 1961 bis 1990) – Grafik: svt.

Also wird der Datensatz allseits hoch gelobt, zum Beispiel von Herrn Rahmstorf (PIK):
Rahmstorf: Paläoklima: Die Hockeyschläger-Debatte

So ganz konnte man sich der massiven Kritik nicht verschließen und musste einige der eklatanten – die „AGW-Wissenschaftler“ nicht wirklich störenden – Fehler doch korrigieren:
EIKE: [6] Nächste Pleite: ,Globale‘ Rekonstruktion PAGES 2K kann den ,Hockeyschläger‘ nicht bestätigen

Bild 5 [6] Letzter Stand? der Pages2k Temperaturrekonstruktion der letzten 2000 Jahre

Man hätte sich also vorstellen können, dass eine so große Studiengruppe in einer neuen Studie wenigstens ergänzend die neuen, mindestens die zusätzlichen Daten des kaltesonne-MWP-Projektes oder der vielen anderen neuen Studien ansehen würde:
Vorindustrieller Klimawandel in Südamerika: Das Mittelalter war warm, Gletscher geschrumpft (1.11.2018)
Schottland-Klima der letzten 800 Jahre: Vorindustrielle Wärmephasen geben Rätsel auf (7.10.2018)
Mittelalterliche Klimaanomalie und Kleine Eiszeit in Brasilien (25.8.2018)
Cyanobakterien als Zeitzeugen: Ostsee im Mittelalter möglicherweise wärmer als heute (22.8.2018)
Um Antwort wird gebeten: Weshalb schneidet AWI-Pressemitteilung das Mittelalter weg? (14.8.2018)
Wissenslücke schließt sich: Die Mittelalterliche Wärmeperiode auf der Südhalbkugel (2.11.2017)
Wissenschaftler warnen: Baumringe in kaltgemäßigten Klimazonen nur bedingt für Temperaturrekonstruktionen geeignet (14.9.2016)
Internationale Baumringexperten: Mittelalterliche Wärmeperiode war heißer als gedacht. Klimamodelle scheitern bei Simulation (12.4.2016)
Eine Moräne macht noch keinen Winter: Mittelalterliche Wärmeperiode behauptet sich im Faktencheck gegen plumpes Aktivistenpaper zur kanadischen Baffininsel (11.1.2016)
Ganzen Kontinent mit einem Datenpunkt erklären? Antarktische Außenseiter-Studien zur Mittelalterliche Wärmeperiode offenbaren große Literaturlücken (15.12.2015)
Die Mittelalterliche Wärmeperiode in Afrika (23.11.2015)
Den Nerv getroffen: Führende deutsche Klimainstitute verweigern die Aussage zur Mittelalterlichen Wärmeperiode (17.11.2015)
Zweiter Klimazustandsbericht zum Ostseeraum: Mittelalterliche Wärmeperiode war um ein halbes Grad wärmer als heute (9.6.2015)
Überraschende Wendung: Alaskas Gletscher waren zur Zeit der Mittelalterlichen Wärmeperiode so kurz wie heute (2.11.2014)
Neue chinesische Temperaturkurve der letzten zwei Jahrtausende überrascht: Es war bereits mehrfach wärmer als heute (4.3.2013)
Neues zur Mittelalterlichen Wärmeperiode: Die wundersame Wiederholung der Temperaturgeschichte (26.11.2012)
Kein nordatlantisches Phänomen: Mittelalterliche Wärmeperiode und Kleine Eiszeit in den Anden gefunden (13.10.2012)
Neues Paper in Quaternary Science Reviews: Mittelalterliche Wärmeperiode und Kleine Eiszeit in den chilenischen Anden nachgewiesen (3.7.2012)
Abrupter Temperaturanstieg von mehr als einem Grad um 980 n. Chr. in Island: Mittelalterliche Wärmeperiode mit enormer Erwärmungsrate (17.6.2012)

Das taten sie aber nicht. Bei pro-Klimahysterie-Ergebnissen nicht schlimm: Gelobt wird ja nicht für den Inhalt und Sorgfalt, sondern für das „richtige“ Ergebnis.
Und deshalb zeigt der Autor einmal ganz kurz und mit gleicher „wissenschaftlicher“ Sorgfalt, zu welchem Ergebnis seine Studie zur MWP anhand der Daten des Pages2k-Projektes kommt.

Autorenstudie: Pages2k Proxidaten und die Mittelalterliche Warmzeit

Eigentlich bräuchte man gar nicht neu „belegen“. Bild 5 mit der revidierten, „globalen“ 2k Temperaturkurve zeigt ja schon überdeutlich eine Mittelalterliche Warmzeit. Beachtet man dazu, dass es sich bereits bei den Proxidaten oft um gering auflösende und bereits im Proxi glättende Werte handelt, die dann in der Zusammenfassung nochmals geglättet werden, weiß man, dass diese Kurve immer noch die globale, vergangene Temperaturwirklichkeit mit ihren vielen, kurzzeitigen Extremen großteils unterdrückt, diese „Unterdrückung in den Endwerten ab ca. 1850 allerdings immer stärker wegnimmt und damit (sicher nicht zufällig) die gleiche, überproportionale Hervorhebung wie der ursprüngliche Hockeystick erzeugt.

Anhand der analytischen Darstellungen aus dem Projekt lassen sich jedoch weitere Aussagen treffen. Bild 6 zeigt die Verteilung der pages2k Proxi-Temperaturwerte über den Globus und über den Auswerte-Zeitraum.
Einmal sieht man die eklatante Datenlücke (Grau) genau während den wichtigen Zeiträumen. Doch wo die Lücken nicht (so groß sind, dass der Zeitraum grau hinterlegt wurde) sieht man über die Frühzeit und das Mittelalter umfangreiche, über lange Zeiträume reichende Wärmeperiode(n).

Auf die Idee, solche Wärmeperioden wäre(n) nicht global gewesen, würde man anhand dieses Bildes nicht kommen. Wollte man die Aussage jedoch kritisieren, könnte man nur eines aussagen: Der Datensatz ist für diesen Zeitraum nicht aussagefähig (was die kritisierte Studie nicht getan hat).

Bild 6 [7] aus dem pages2k-Projekt (vom Autor ergänzt)

Als Lösungsversuch kann man nun einzelne Proxis ansehen und versuchen, sich daraus ein wahrscheinliches Bild über den langfristigen Verlauf zu machen. Deshalb nun Proxis der verschiedenen Regionen, um die Temperaturen während der MWP abzuschätzen

Antarktis

Die Sichtung durch den pages2k-Viewer kommt zu dem Ergebnis, dass eine Warmperiode während der besagten, mittelalterliche Zeit dort stattgefunden hat und durch Proxis belegt ist.

Bild 7 pages2k Proxiverläufe Antarktis. Quelle: pages2k Viewer (Grenzlinien vom Autor ergänzt)

Proxi-Einzelverläufe lassen dies präzisieren:

Bild 8 Antarctic WD2006A. Quelle: pages2k Viewer

Bild 9 Antarctic WD2005A. Quelle: pages2k Viewer

Bild 10 Antarctic Plateau Remote/PR-B. Quelle: pages2k Viewer

Arktis

Hinweis: Die Proxis der Arktis liegen meistens an der Grenze zur Arktis. Deshalb gibt es so viele.
Das Globaldiagramm (Bild 11) lässt keinen Schluss zu, außer den, dass über die Zeiträume praktisch alles vorkam. Man ahnt es: Eine „gute“ Mittelwertbildung würde aus dem „Proxispaghetti“ unweigerlich einen horizontalen Strich erzeugen, der erst am Ende, wo die Proxi- und Messbedingungen sich ändern, unweigerlich zu einem Hockeystick führt.

Trotzdem lassen Einzelproxis daraus (Bilder 12 – 14) aber augenscheinlich eine mittelalterliche Warmperiode identifizieren.
Ein Beispiel, dass das schematische Anwenden statistischer Methoden bei ungeeigneten Datensätzen – wie es in der Klima(Wandel)Wissenschaft hemmungslos gemacht wird -, oft nicht zu sinnvollen Aussagen führt.

Bild 11 Arctic. Quelle: pages2k Viewer

Bild 12 Arctic GRIP Grönland. Quelle: pages2k Viewer

Bild 13 Arctic Gulf of Alaska. Quelle: pages2k Viewer

Bild 14 Arctic Devon Ice Cap. Quelle: pages2k Viewer

Asien

Das Proxi-Globalbild (Bild 16) zeigt wieder nichts, außer, dass auch dieses ein chaotisches „Spaghetti“ an Proxiverläufen beinhaltet, welche den Summennutzen von Rauschen haben. Jeder Vernünftige würde daraus ableiten: Entweder sind die Proxis in vielen Fällen falsch und damit unbrauchbar (recht wahrscheinlich); sollen sie allerdings doch stimmen, dann gibt es ganz einfach keinen Sinn für einen Mittelwert, weil dieser nur den Witz von den Füßen, deren einer in Eis und der andere in kochendem Wasser steht und der Kopf sich über ein angenehmes Mittel freut, erfüllt.
Man würde – und müsste – dann also auf eine Mittelung, oder die Verwendung solcher Proxis verzichten. Aber durch „Statistik“ kommt immer der wichtige, horizontale Strich bis zum Beginn genauerer Messdaten zustande, der als alarmistischer Klimaverlauf benötigt wird.
In Zeiten, in denen eine fremd-gesteuerte, mental kranke 16-Jährige Politik und (AGW-)Klima-Wissenschaft vor sich „hertreiben“ darf:
Merkur: Greta Thunberg ruft zum Generalstreik auf – eine deutsche Bank will mitmachen

entscheiden sich eben auch Wissenschaftler in der Schweiz für das Leichtere und Fördermittel versprechende: Stures Anbiedern und Mitlaufen mit dem Trend, wie es auch ein CSU-Ministerpräsident, Herr Söder, nun ganz Bayern aufoktroyiert:
SZ, 29. Juli 2019: Bayerns Ministerpräsident Söder will Klimaschutz im Grundgesetz verankern

Bild 16 Asien global. Quelle: pages2k Viewer

Doch auch für den Raum Asien lassen sich aus den wenigen Langzeitproxis welch, eine Mittelalterliche Warmperiode unterstützende, finden. Man beachte im Proxi-Bild 17 auch die enormen Änderungsgeschwindigkeiten, welche es angeblich in der Vergangenheit noch nie gab.

Bild 17 Asien WULANJ (China). Quelle: pages2k Viewer

Australien

Das Proxi-Globalbild ist alleine deshalb interessant, weil es ausgerechnet für die heutige Zeit belegt, dass etwas an den Proxis wohl nicht stimmen kann. Jedenfalls finden sich vom „Verbrennen“ bis zur Ansage einer beginnenden Eiszeit alle Schlussverläufe.
Und eine Warmperiode im Mittelalter lässt sich ebenfalls finden, wie auch wieder enorme Änderungsgeschwindigkeiten, welche mit er der aktuellen –angeblich noch nie dagewesenen – problemlos mithalten können. Die grauen Linien sind teils Fehlerbereiche und/oder Extremwerte. Daraus lässt sich zumindest ahnen, was vor Ort an kurzfristigen Temperaturschwankungen wirklich passiert sein könnte. Hätte es damals schon unsere Medien gegeben, wäre denen wohl die rote Alarmfarbe ausgegangen.

Bild 18 Australien global. Quelle: pages2k Viewer

Bild 19 Australien Oroko. Quelle: pages2k Viewer

Bild 20 Australien Mt Read. Quelle: pages2k Viewer

Bild 21 Australien Buckleys Change. Quelle: pages2k Viewer

Südamerika

Irgendwie ist der AGW-Klimawandel noch nicht bis Südamerika gekommen. Kein längerfristiger Proxiverlauf hat „Ihn“ dort gesehen. Doch wieder interessant die teils enormen, kurzfristigen Änderungen in der Vergangenheit.

Bild 22 Südamerika global. Quelle: pages2k Viewer

Bild 23 Südamerika Quelccaya. Quelle: pages2k Viewer

Bild 24 Südamerika Laguna Aculeo. Quelle: pages2k Viewer

Europa

Es ist naheliegend, dass – wenn es die MWP gab – sich diese in Europa findet. Entsprechend zeigen es 2k Proxis. Man beachte, wie Proxis den jüngsten Temperaturanstieg nicht abbilden. Warum sollten sie es dann in der Vergangenheit gemacht haben? Das Schweizer Studienteam kam nicht auf solche naheliegenden Fragen. Die Beantwortung wäre sicher sehr störend gewesen.

Bild 25 Europa global. Quelle: pages2k Viewer

Bild 26 Europa NSC 12 Finnland. Quelle: pages2k Viewer

Bild 27 Europa Tor92 Finnland. Quelle: pages2k Viewer

Bild 28 Europa Nsc12. Quelle: pages2k

Bild 29 Europa Swi06. Quelle: pages2k

Bild 30 Europa Alb12 (Albanien). Quelle: pages2k

Nordamerika

Von Nordamerika gibt es zwei Globalverläufe: Einen langen und einen kurzen. Erkennbar ist der kurze Datensatz (Bild 32) unbrauchbar – zumindest zur statistischen Bearbeitung -, weil es sich dabei in Summe um ein eher stochastisches Datengemenge handelt; und der lange Datensatz (Bild 31) zeigt eindeutig eine mittelalterliche Warmperiode.

Bild 31 Nordamerika global (Langzeitverläufe). Quelle: pages2k

Bild 32 Nordamerika global kurz (Baumringproxis „Trees“). Quelle: pages2k

Langzeitproxi Nordamerika mit deutlich ausgewiesener MWP:

Bild 33 Nordamerika Conifer/hardwood ecoregion. Quelle: pages2k:

Pages2k-MWP Studienergebnis des Autors

Der Autor setzt hier die These, dass sein Ergebnis mit weniger Aufwand nicht ungenauer ist, als das der „berühmten“, Schweizer Studienautoren, allerdings deren Ergebnis widerspricht. Denn er benutzt die IPCC-Statistik, nach der man etwas ansieht und dann mittels „Abstimmen unter den Beteiligten“ den Mittelwert und Vertrauen(sbereich) textlich festlegt. Das gilt in der Klima(Wandel)Wissenschaft inzwischen ja als „high-end“ an Bewertungs- und Aussagequalität.

Und so behauptet er, dass es sogar anhand der für diese Aussage eigentlich ungeeigneten, da die Welt zur damaligen Zeit bei Weitem nicht abdeckenden, zudem teils schauderhaft falschen ungenauen Proxidaten wesentlich wahrscheinlicher als unwahrscheinlich ist, dass es eine (wenn nicht sogar mehrere) Warmperiode im Mittelalter (und davor) gegeben hat.

Nachdem zusätzliche Proxis aus dem kaltesonne MWP-Projekt mit erheblich besserer Flächenabdeckung dies bestätigen, kann man ziemlich sicher sein, dass solche Warmperioden global – teils natürlich mit Verzögerungen – existierten, zumindest so lange, bis neue Proxis (nicht wiederholt unzulässig angewandte Statistik über die schlechten) das widerlegen. Das ist derzeit nicht in Sicht.
In Sicht ist allerdings, dass man die Proxis „verlässt“ und das (gewünschte) Belegergebnis durch Simulieren erzielt. Das hat auch den großen Vorteil, dass Simulieren in AGW-Kreisen als genauer gilt und nicht von jedem Laien einfach, penetrant und ätzend „zerlegt“ werden können.

Nachtrag

Wer sich bis hierher durchgelesen hat und diesen Nachtrag mit den Bildern der auf NoTricksZone hinterlegten Studienauszügen ansieht, wird sich fragen, wie die Studie aus der Schweiz das alles vollkommen ignorieren konnte. Wer sich mit „Klimawandel“ auskennt, fragt sich, wie lange es noch dauern kann, bis nicht einmal irgend-Jemand aus der Wissenschaft den Mut hat, solchen Studien-Betrug durch Unterlassung anzuprangern und sich Autoren mit solchen Studien anfangen, für solche Arbeiten zu schämen.
Lediglich ein Herr Trump hat es begonnen. Es wird werden, wie bei der Hexenverfolgung: Erst als das Entdecken kein (risikoloses) Geld mehr einbrachte, kamen die wissenschaftlich dafür Zuständigen drauf, dass es auch gar keine gibt.
Und angestoßen hatten diese „neue“ Erkenntnis wissenschafts-fremde Personen.
Trump hat demnach die Change, als ein großer „Wissensentdecker“ in die Klimageschichte einzugehen. Hoffentlich hält er damit auch durch, beziehungsweise sich lange genug an der Regierung.

Zwischenzeitlich hat auch Herr Lüdecke zu dieser Schweizer Studie etwas auf EIKE geschrieben;
EIKE 30. Juli 2019: Das blinde Auge der Klimaforscher an der Universität Bern
Und auf NoTricksZone ist eine Serie neuester Studien mit ihren Klimagraphiken hinterlegt, welche alle eine MWP ausweisen:
NoTricksZone: 12 New Papers Provide Robust Evidence The Earth Was Warmer During Medieval Times
… Claims that modern temperatures are globally warmer than they were during Medieval times (~800 to 1250 A.D.) have been contradicted by a flurry of new (2019) scientific papers
Daraus Bildbeispiele

Bild 34 Quelle: NoTricksZone

Bild 35 Quelle: NoTricksZone

Bild 36 Quelle: NoTricksZone

Bild 37 Quelle: NoTricksZone

Bild 38 Quelle: NoTricksZone

Bild 39 Quelle: NoTricksZone

Bild 40 Quelle: NoTricksZone

Bild 42 Quelle: NoTricksZone

Bild 43 Quelle: NoTricksZone

Quellen

[1] EIKE 26.07.2019: Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

[2] Studie: No evidence for globally coherent warm and cold periods over the preindustrial Common Era

[3] NZZ 24.07.2019: So rasch und grossflächig ist die Temperatur in den letzten 2000 Jahren noch nie gestiegen – Drei Klimastudien mit Beteiligung von Forschern aus Bern enthüllen Details über kalte und warme Episoden vor der Industrialisierung: Sie betrafen immer nur einen Teil des Erdballs.

[4] Der Tagesspiegel: Studie widerlegt Argument der Klimaskeptiker 98 Prozent der Erde werden wärmer

[5] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[6] EIKE: Nächste Pleite: ,Globale‘ Rekonstruktion PAGES 2K kann den ,Hockeyschläger‘ nicht bestätigen

[7] http://www.realclimate.org/index.php/archives/2013/04/the-pages-2k-synthesis/