Meeres­spiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt

Wie kommt man zu einem Anstieg des Meeresspiegel durch nichts?

Schauen wir mal, wie R. Steven Nerem von der CU Sea Level Research Group es fertig bringt, diesen Trick durchzuführen. In einem Report bei Nature.com heißt es:

Steve Nerem präsentierte eine bis jetzt unveröffentlichte Analyse auf einer Konferenz in New York City am 13. Juli, gesponsert vom World Climate Research Programme und der International Oceanographic Commission. … Nerems Team berechnete, dass die Rate des Meeresspiegel-Anstiegs von 1,8 mm pro Jahr im Jahre 1993 auf etwa 3,9 mm pro Jahr heute gestiegen ist als eine Folge der globalen Erwärmung.

Hmmm … schauen wir mal, was die NOAA dazu sagt, Stand: Januar 2018:

Nun, das ist seltsam. Das NOAA NESDIS-Star  (National Environmental Satellite, Data, and Information Service; Center for Satellite Applications and Research) zeigt nicht einmal ansatzweise eine plötzliche Beschleunigung von 1993 (3,0 ± 0,4 mm pro Jahr) bis heute – vielmehr zeigt sich exakt die gleiche Trendlinie, die gleiche Zahl wie im Titel genannt.

Also, Erstes zuerst – wer ist R. Steven Nerem?

Steve Nerem ist ein Alarm-Evangelist* des Meeresspiegel-Anstiegs – es gibt keine andere angemessene Beschreibung. Ich zweifle nicht daran, dass er wirklich an seine Causa glaubt, ist er doch im vorigen Jahr durch die Welt gereist mit immer dem gleichen Vortrag – immer mit identischem Abstract – in San Francisco (Dec 2016), Bologna (Feb 2017), New York  (July 2017),  Miami (Oct 2017) und New Orleans (Dec 2017). Nerem ist einer der Ko-Autoren des infamen Kommentars im Journal Global and Planetary Change, worin er versucht die Studie aus dem Jahr 2004 von Nils-Axel Mörner im gleichen Journal zu widerlegen. Im 3. Teil von SEA LEVEL: Rise and Fall schrieb ich über den Austausch Mörner/Nerem/Mörner.

[*Man merkt, dass sich der Autor in theologischen Dingen nicht auskennt. Das griechische Wort „Evangelium“ übersetzt sich mit „Frohe Botschaft“. Ein Evangelist ist {kirchlicherseits!} ein „Verkünder der Frohen Botschaft“. Das hat Autor Kip Hansen aber sicher nicht im Sinn gehabt. Nur mal so! Anm. d. Übers.]

Steve Nerem war auch Ko-Autor des schreiend alarmistischen Artikels in der Washington Post im Mai 2016 mit dem Titel „10 things you should know about sea level rise and how bad it could be”, in welchem gesagt wird dass „Wissenschaftler schätzen, dass wenn sich die Welt um 4 bis 5°C erwärmt, was für das Ende des Jahrhunderts projiziert wird, wenn wir keine Maßnahmen gegen den Klimawandel ergreifen, alles Eis wahrscheinlich schmelzen wird. Das würde einen Meeresspiegel-Anstieg um 70 Meter bewirken“.

Dr. Nerems Reise-Theater wird in Nature.com in einem Artikel im Juli 2017 beschrieben mit dem Titel „Satellite snafu masked true sea-level rise for decades” [etwa: Satelliten-Chaos maskierte seit Jahrzehnten den wahren Meeresspiegel-Anstieg]. Im Artikel finden sich dann Details aus Nerems oft zitierter Präsentation, darunter:

Das Schmelzen des grönländischen Eisschildes stützt den Anstieg des Meeresspiegels der Welt.

Die Zahlen spielten jedoch nicht mit. Selbst mit dem wärmer werden der Erde sowie dem Schmelzen von Gletschern und Eisschilden schienen Dekaden mit Satellitendaten zu zeigen, dass die Rate des Meeresspiegel-Anstiegs gleich blieb – oder sogar rückläufig war.

Inzwischen haben Wissenschaftler, nachdem sie sich Jahre lang mit dieser Diskrepanz befasst hatten, die Ursache derselben ausgemacht: Ein Problem mit einem Sensor auf dem ersten von vielen ins All geschossenen Satelliten, welcher die Höhe der Meeresoberfläche mittels Radar messen sollte. Adjustiert man die Daten unter Berücksichtigung dieses Fehlers zeigt sich, dass der Meeresspiegel tatsächlich jedes Jahr schneller steigt.

Nerems Team berechnete, dass die Rate des Anstiegs von etwa 1,8 mm pro Jahr 1993 auf etwa 3,9 mm pro Jahr heutzutage zugenommen hat als eine Folge der globalen Erwärmung. Zusätzlich zum Kalibrierungs-Fehler der Satelliten berücksichtigt seine Analyse auch andere Faktoren, die den Anstieg während der letzten Jahrzehnte beeinflusst haben könnten, als da wären der Ausbruch des Pinatubo 1991 und das jüngste El Nino-Ereignis.

Falls sich der Meeresspiegel-Anstieg mit der gegenwärtigen Rate weiter beschleunigt, sagt Nerem, würden die Ozeane der Welt im Laufe dieses Jahrhunderts um etwa 75 cm steigen. Das liegt auf einer Linie mit den Projektionen des IPCC aus dem Jahr 2013.

Falls dies stark danach klingt, was Nils-Axel Mörner die ganze Zeit gesagt hat, dass nämlich der SLR-Alarm seinen Ursprung in den ad hoc-Adjustierungen und ,Korrekturen‘ – nach den Messungen – hat, ist das wohl richtig.

Hier folgt die Graphik von der Nerem’schen CIRES faculty page:

Auf der Site heißt es: „Wir müssen auch sehr sorgfältig die Messfehler abschätzen sowie den Einfluss der dekadischen Variabilität in einer relativ kurzen Zeitreihe von 25 Jahren. Während wir daran immer noch arbeiten, scheint es so, als ob sich der langfristige SLR von etwa 2 mm pro Jahr Mitte der neunziger Jahre auf 4 mm pro Jahr 2017 beschleunigt hat“. Natürlich ist dieses Statement etwas ungenau ausgedrückt – scheint es doch so auszusehen, als ob der Trend im ersten Teil dieser Graphik etwa 2 mm pro Jahr beträgt. In Wirklichkeit meint er aber den langfristigen Trend des 20. Jahrhunderts auf der Grundlage von Tidenmessungen, welcher zu Beginn etwa 1,8 bis 2,0 mm pro Jahr beträgt und „etwa 3,9 mm pro Jahr“ in seiner unveröffentlichten Re-Analyse. Man beachte, dass die Trendlinie hier als ein gekrümmter Beschleunigungstrend daherkommt und nicht als die normale gerade Linie von 1993 bis heute.

Den allgemein akzeptierte Standpunkt dieser beiden Abbildungen zeigt dieses Bild:

Erst vor zwei Jahren fungierte Nerem als Ko-Autor einer Studie mit dem Titel „Is the detection of accelerated sea level rise imminent?“ (veröffentlicht im August 2016, gerade vier Monate vor seinem Vortrags-Kreuzzug). Das Abstract schließt mit den Worten „…eine erkennbare Beschleunigung wird sich wahrscheinlich im kommenden Jahrzehnt aus dem Rauschen herausschälen“ und weiter „Während der 23 Jahre langen Reihe zeigt sich, dass der globale mittlere Meeresspiegel um 3,3 ± 0,4 mm pro Jahr gestiegen ist, jedoch mit einer deutlichen Variabilität von Jahrzehnt zu Jahrzehnt. Unser gegenwärtiges best estimate der Raten im ersten (1993 bis 2002) und zweiten (2003 bis 2012) Jahrzehnt der Altimeter-Ära beträgt 3,5 und 2,7 mm pro Jahr. Es gibt viele Theorien zur Erklärung dieser Variabilität, aber hier präsentieren wir eine zusätzliche Erklärung mit bedeutenden Implikationen für die erwartete Beschleunigung in naher Zukunft“.

Sie waren wirklich fleißig und fanden jene Beschleunigung dem Report in Nature.com zufolge im Dezember 2016.

Wie haben sie das gemacht?

Offenbar ganz einfach. Im jüngsten Zeitraum der Meeresspiegel-Aufzeichnungen via Satelliten gibt es einfach keinen Spielraum mehr für größere Änderungen – es ist schwierig, die Daten zu ändern oder zu adjustieren – das Adjustierungs-Budget ist bereits ausgeschöpft. Bringt man trotzdem welche an, geht das einfach schief – also (nicht lachen!) haben sie erneut die Vergangenheit adjustiert.

Ich werde die Bilder der NOAA heranziehen, um zu zeigen, wie sie es gemacht haben:

Diese Wechselgraphik zeigt die üblicherweise betrachtete NOAA-NESDIS-STAR satellite SLR record graph bis Ende 2017, farbig dargestellt für die vier Satelliten-Missionen, welche die Daten gesammelt haben. Das zweite, darüber gelegte Bild [in der Einzeldarstellung rechts, Anm. d. Übers.] zeigt die jüngsten Daten des NASA JPL, welche die „Aktualisierungen“ enthält, von denen Nerem spricht. Wir sehen hier, dass er mittels einer Reihe von Adjustierungen das linke Ende der Graphik, die TOPEX Altimeter A-Daten, um etwa 3 bis 5 mm angehoben und die Altimeter-B-Daten geringfügig verändert hat. Das Anheben des linken Endes der Graphik – also im Zeitraum 1993 bis 1999 – gestattet es ihm, die Trendlinie mit einer Steigung von 3,0 mm pro Jahr auf eine solche mit 3,8 mm pro Jahr zu ändern.

Nachdem Nerem diese Art der Adjustierung durchgeführt hatte, benutzte er die gleichen adjustierten Daten, um einen gekrümmten Beschleunigungstrend zu zeichnen, welcher seiner Behauptung nach 3,9 mm pro Jahr zeigt.

Fünf Millimeter der maximalen Änderung jedweden Datenpunktes in der Aktualisierung! Die schreckliche, zu befürchtende Beschleunigung des Meeresspiegel-Anstiegs (SLR) ergibt sich ausschließlich aus zweifelhaften Korrekturen allein der TOPEX Altimeter A-Daten – ganze 5 mm bei sechs Jahren „schlechter Daten“ von 1993 bis 1999. Falls diese Daten wirklich schlecht sind, hätte man sie aussondern müssen, anstatt sie so zu frisieren, dass sie zu einem vorbestimmten Narrativ passen.

Keine wie auch immer gearteten Änderungen gibt es in den zuverlässigeren Daten von 1999 bis Januar 2018. Der NOAA zufolge wurde dies 19-jährige Reihe gar nicht verändert und zeigt immer noch genau den gleichen Trend, den sie immer gezeigt hat – etwa 3,0 ± 0,4 mm pro Jahr. Und nichts ändert die Tatsache, dass die jüngsten Altimeter-Daten des neuen, verbesserten JASON-3-Satelliten seit nunmehr über 2 Jahren überhaupt keinen SLR mehr zeigen – NULL. Wir werden abwarten müssen, was die Enthusiasten tun, um diesen Tatbestand passend für ihr Narrativ zu machen.

Sie haben eine Beschleunigung aus nichts erzeugt.

Anmerkung: Ich denke, ich sollte diese Ausführungen mit dem Jüngsten der NOAA beenden:

WTWT [?]:

Leider muss ich die Leserschaft darüber informieren, dass es schlimmer ist, als wir gedacht haben. Alle obigen Daten und Graphiken zur Bestimmung eines auf Satelliten basierenden SLR zeigen nicht wirklich einen Meeresspiegel-Anstieg. Das heißt, sie repräsentieren nicht (und haben das auch nie) einen tatsächlichen Anstiegs des Niveaus der Meeresoberfläche über das Geoid. Ein wirklicher Meeresspiegel-Anstieg wird reflektiert in der Global Mean Sea Surface Height. Aber ein globaler mittlerer SLR, wie er berechnet ist von der Sea Level Group in Colorado, der NOAA und anderen SLR-Gruppen ist ein Konzept – nicht eine Messung. Ich habe einmal den Terminus „imaginary number“ verwendet, um diese Art einer nicht-physikalischen Messgröße zu beschreiben – eine Zahl, von der man sagt, dass sie irgendetwas in der realen Welt repräsentiert, aber aktuell etwas vollkommen Anderes ist. Mehr dazu schreibe ich in einem Beitrag mit dem Titel „What Are They Really Counting“. SLR Satellitendaten enthalten auch Dinge wie eine „GIA-Adjustierung“ – also die Größe des SLR, welche es gegeben hätte falls das Ozeanbecken nicht an Volumen zugelegt hätte, und durch andere Hinzufügungen und Adjustierungen, die sich nicht manifestieren in jedweder Änderung der physikalischen Meeresoberfläche. Aber das ist eine andere Geschichte.

Unter dem Strich:

1. Alles in allem ist der Meeresspiegel seit dem Ende der letzten Eiszeit gestiegen, langsam und unaufhaltsam, mit einigen Sprüngen dazwischen. Im Allgemeinen wird das in absehbarer Zukunft auch so weitergehen – mit irgendwo zwischen 10 und 30 cm pro Jahrhundert. Diese Rate ist eine unmittelbare Bedrohung für besiedelte Gebiete, welche sich nominell auf der Höhe des heute existierenden Meeresspiegels befinden.

2. Es spricht nichts dafür, dass der Meeresspiegel gefährlich oder rapide steigt. Auch beschleunigt sich der Anstieg im globalen Maßstab nicht – wobei unsere Fähigkeit, globale Änderungen in diesen sehr kleinen Größenordnungen (millimeterweise) zu messen sehr fragwürdig ist.

3. Falls Mörner (und seine 101 Kollegen in der INQUA-Kommission) recht haben, gab es während der letzten 25 Jahre kaum einen tatsächlichen SLR (das ist die Altimeter-Satelliten-Ära).

4. Alles oben Gesagte könnte bedeuten, dass das konstante Trommelfeuer der Untergangs-Szenarien hinsichtlich eines steigenden Meeresspiegels auf der gleichen Art Computer-Hybris beruht, die uns eine „mittlere globale Temperatur-Anomalie“ beschert hat anstelle einer globalen mittleren Temperatur.

5. Die hinaus posaunte „Beschleunigung“ des SLR ist ein alarmistischer Punkt, hervorgebracht aus der Abkopplung zwischen Tidenmessungen, die nicht adjustiert sind hinsichtlich vertikaler Bewegungen der Landmassen an den Messpunkten und den Satelliten-Altimeter-Daten – ein Datensatz, der fast hoffnungslos vermengt ist durch Messungen und physikalische Elemente, welche um Größenordnungen größer sind als das gesuchte Signal selbst.

Schlussbemerkung des Autors:

Der Anstieg des Meeresspiegels ist eine wissenschaftliche Kontroverse, die immer noch im Gange ist. Dies bedeutet, dass man äußerste Sorgfalt walten lassen muss beim Betrachten und Interpretieren der Daten der Vergangenheit, bei neuen Studien und insbesondere der Berichterstattung in den Medien zu diesem Thema (einschließlich dieses Beitrags!). Bias und Verfechten sind zügellos, opponierende Kräfte werden immer wieder in der Presse angegriffen (in diesem Beitrag geht es um die jüngste Salve von Steve Nerem). Der Konsens könnte einfach nichts anderes sein als „eine genaue Maßzahl des vorherrschenden Bias‘ in diesem Bereich“ (h/t John Ioannidis).

Der SLR wird unverhohlen als Taktik der Panikmache herangezogen seitens der Propagandisten einer Katastrophalen Anthropogenen Globalen Erwärmung/Klimawandels. Der Anstieg des Meeresspiegels – von dem die allgemeine Öffentlichkeit inzwischen weiß, dass er weniger als 30 cm pro Jahrhundert beträgt – ist als Diskussionspunkt inzwischen verdrängt worden durch eine gefährliche SLR-Beschleunigung.

Link: https://wattsupwiththat.com/2018/01/09/sea-level-rise-and-fall-part-4-getting-a-rise-out-of-nothing/

Übersetzt von Chris Frey EIKE




Bis hierher und nicht weiter

[*Das Wort angst stand so im Original! Anm. d. Übers.]

So wird unsere höllische Welt aussehen, nachdem wir den 2°C-Kipp-Punkt der globalen Erwärmung überschritten haben

Rebecca Leber am 21. Dezember 2014

Die de-facto-Hypothese der Politik bzgl. Klimawandel ist, dass die Welt den Anstieg der globalen Temperatur auf 2°C über das präindustrielle Niveau begrenzen muss, wenn sie nicht das Risiko eingehen will, einen Kipp-Punkt zu überschreiten, jenseits dessen die Einwirkung unumkehrbar wird. Die Zahl geht zurück auf das Jahr 1975, als der Ökonom William Nordhaus die Prämisse in den Raum warf, dass eine Erwärmung um mehr als 2°C das Klima „außerhalb der Bandbreite der Beobachtungen bringen würde, welche während der letzten vielen hunderttausend Jahre herrschte“. Bis zum Jahr 1990 erregten diese 2°C die Aufmerksamkeit der wissenschaftlichen Gemeinschaft und danach der Politik, als der Europäische Rat im Jahre 1996 vorschlug, dass 2°C die rote Linie der UN bzgl. der globalen Erwärmung sein sollte. Aber erst vor vier Jahren verpflichteten sich Länder auf einer Klimakonferenz in Cancun „die Erwärmung der globalen mittleren Temperatur unter 2°C zu halten“.

Hier noch ein weiterer Ausschnitt, diesmal aus „The Conversation“ im Jahre 2017, zusammen mit der obligatorischen herzzerreißenden Abbildung (Hervorhebung von mir, Eschenbach):

David Tittley, 22. August 2017

Praktisch jeder Artikel über Klimawandel bezieht sich in irgendeiner Weise auf das „2°C“-Ziel. Dabei werden oftmals erhebliche Risiken an die Wand gemalt, falls das Klima über 2°C hinausgeht und sogar „katastrophale“ Folgen für unsere Welt mit sich bringen würde, wenn die Erwärmung über dieses Ziel hinausgeht.

Jüngst ist eine Reihe wissenschaftlicher Studien erschienen des Inhalts, dass wir eine Chance von 5% haben, die Erwärmung auf 2°C zu begrenzen. Zusätzlich zeigen jüngste Forschungen dass die Erwärmung schon 1,5°C betragen würde, selbst wenn wir auf magische Art und Weise unseren Kohlenstoff-Fußabdruck schon heute auf Null bringen könnten.

Und es gibt noch einen weiteren Korken: Welches ist die korrekte Grundlinie, die wir anwenden sollten? Das IPCC nennt oftmals eine Erwärmung relativ zur zweiten Hälfte des 19. Jahrhunderts, aber im Pariser Klima-Abkommen ist festgelegt, dass als Referenz die Temperatur des „vorindustriellen“ Niveaus herangezogen werden sollte, also vor 1850. Wissenschaftler haben gezeigt, dass eine solche Grundlinie uns im Endeffekt um weitere 0,2°C näher an die obere Grenze bringen würde.

[Es kostet Überwindung, einen solchen gefährlichen Unsinn zu übersetzen, hauptsächlich weil dieser Blödsinn ja die offizielle Doktrin ist. Aber weil Autor Eschenbach dies dann genüsslich zerpflückt, habe ich mit „Augen zu und durch“ übersetzt. Anm. d. Übers.]

Habt Angst … habt sehr viel Angst … das IPCC sagt, dass es nicht um 2°C wärmer werden sollte als Ende des 19. Jahrhunderts. Das Pariser Klima-Abkommen sagt, dass es nicht um 1,8°C wärmer werden sollte als Ende des 19. Jahrhunderts (was es als 2°C über „vorindustrtiell“ bezeichnet).

Anderenfalls, so wurden und werden wir wieder und immer wieder gewarnt … anderenfalls droht uns das Thermageddon, das sagenhafte Ende aller Zeiten. Mehr Überschwemmungen. Mehr Dürren. Mehr Hitzewellen. Mehr Kältewellen. Bei einer Erwärmung um 2°C geraten wir vermeintlich in erhebliche Schwierigkeiten. Pflanzen und Tiere schrumpfen immer mehr und sterben. Vögel fallen von den Ästen. Steckt eine Gabel in den Globus, wir werden getoastet.

Nun gibt es eine Art Binsenweisheit in den Studien zum globalen Klima. Man kann kein kontrolliertes Experiment hinsichtlich des globalen Klimas durchführen. Das ist eine Tatsache. Es gibt keinen anderen Planeten, den wir zu Kontrollzwecken betrachten können … und man kann das Experiment auch nicht variieren. Man kann den globalen Luftdruck nicht künstlich in die Höhe schrauben und dann sehen, was passiert.

Allerdings sollte uns diese fehlende Kontrollmöglichkeit nicht davon abhalten, Experimente durchzuführen. Obwohl es keine kontrollierten Experimente gibt, gibt es sehr wohl „natürliche Experimente“. Mir ist dieser Terminus schon vor einiger Zeit untergekommen, und zwar in einer Studie aus dem Jahr 1998 von Sherwood Idso. Man kann sie auf der Website von Warwick Hughes hier einsehen.

Also … auf welches natürliche Experiment könnten wir schauen hinsichtlich der gefürchteten 2°C-Grenze?

Nun, wir haben die globale Temperaturaufzeichnung von Berkeley Earth hier. Wie es bei allen Datensätzen der Fall ist, enthält er einige Probleme, von denen ich eines hier diskutiert habe. Aber es ist dem Vernehmen nach der beste Datensatz, den wir haben und unterscheidet sich nicht wesentlich von den anderen Datensätzen. Mit all dem als Prolog und ohne weitere Fanfare zeigte ich jetzt die Anomalie der globalen mittleren Lufttemperatur nach Berkeley Earth. Die monatliche Temperaturanomalie ist hellblau eingezeichnet, die gelbe und die schwarze Linie sind Gauss’sche Glättungen der monatlichen Temperaturanomalie über 6 Jahre.

Da haben wir unser natürliches Experiment. Ich bin sicher, dass man das Problem erkennt: Es ist bereits 2 Grad wärmer als in den fünfziger Jahren des 19. Jahrhunderts … und noch wärmer als zu Beginn desselben.

Meine Frage an die versammelten Massen lautet also: Da wir schon jetzt dieses ach so wichtige 2°C-Klimaziel gebrochen haben, wo sind die Leichen? Wo sind die ungewöhnlichen Katastrophen? Wo sind die Klima-bezogenen Katastrophen? Warum gibt es keine überfluteten Städte? Was ist mit den Gebieten, die vermeintlich unbewohnbar sein sollen? Wo sind die untergegangenen Atolle? Wo sind die versprochenen Millionen Klimaflüchtlinge – wo sind sie bloß?

Kurz gesagt, wo sind all die schrecklichen Ereignisse, vor denen man uns so gewarnt hatte, falls das 2°C-Ziel gerissen wird?

Im Ernst, wir haben das natürliche Experiment gerade durchgeführt. Die Welt hat sich um den gefürchteten Betrag erwärmt, und es gab keinerlei Zunahme hinsichtlich irgendwelcher Klima-bezogener Katastrophen.

Warum ist das so? Gute Frage. Teilweise liegt die Antwort in dem Umstand, dass der größte Teil der Erwärmung a) nachts, b) im Winter, c) in den subpolaren Regionen des Planeten mit niedrigen Temperaturen stattgefunden hat. Es mag dumm klingen, aber ich glaube kaum, dass sich irgendjemand in Boston oder Wladiwostok darüber beklagen wird, dass es in den Mittwinter-Nächten 1 Grad oder so wärmer ist, und das gilt vor allem für die Armen …

Ein anderer Teil der Antwort ist der Tatsache geschuldet, dass Wärme etwas Gutes ist, sowohl für Pflanzen als auch für Tiere. Längere Wachstumsphasen, weniger Eis auf den Flüssen, wärmerer Boden, weniger Frostbeulen bei den Obdachlosen, weniger Bedarf nach Isolierung und Heizung, jedes Insekt ist glücklich … es gibt einen Grund dafür, dass sich das Leben in den Tropen verschwenderisch und rasch entwickelt sowie langsamer nahe den Polen.

Ich denke, die beste Nachricht ist, dass das Schlimmste passiert ist, dass wir nichts tun können, dass wir dem Untergang geweiht sind. Wir haben den Krieg gegen das Thermometer verloren. Wir haben den Klima-Kipp-Punkt überschritten … also haben wir vielleicht endlich Zeit, uns einigen realen Problemen zu widmen.

Also … wo sind die Leichen?

————————–

Zusatzbemerkung: Traurigerweise verschleiert diese verrückte Besessenheit um Temperaturänderungen um einige Zehntelgrad die erstaunliche Stabilität des Klimasystems der Erde. Es ist diese immer wieder überraschende Stabilität, welche zuerst meine Aufmerksamkeit erregte und mich dazu brachte, mich eingehend mit dem Thema Klima zu befassen. Hinsichtlich dieser Stabilität würde ich gerne sofort erfahren wollen, dass die Temperatur des Systems durch irgendeine Kombination Temperatur regelnder Phänomene getrieben wird. Man bekommt diese Art der Stabilität nicht durch Zufall.

Also möchte ich hier schließen mit genau der Art von Daten, die man in der Graphik oben sieht, aber dieses Mal nach Art der Ingenieure, welche das Klima als eine weltweite Wärmemaschine ansehen:

Link: https://wattsupwiththat.com/2018/01/08/been-there-exceeded-that/

Übersetzt von Chris Frey EIKE




Offener Brief an Präsident Donald Trump

Sehr geehrter Herr Präsident,

Ich schreibe Ihnen diesen offenen Brief, um Sie aufzufordern, ihre Erkenntnisse bzgl. der UN-Bewegung eines vom Menschen verursachten globalen Erwärmung/Klimawandels bekannt zu geben, wie sie Premierministerin Margaret Thatcher in ihren Memoiren Statecraft aus dem Jahr 2002 beschrieben hat.

Zunächst zu meinem Hintergrund: Ich schreibe regelmäßig Beiträge für die „weltweit am häufigsten angeklickte Website zu globaler Erwärmung/Klimawandel“ mit der Bezeichnung WattsUpWithThat. Zu den normalerweise in meinen Beiträgen angesprochenen Themen gehören:

Klimamodelle simulieren nicht das Klima der Erde

Werden sie angemessen gezeigt, zeigen die Ergebnisse von Klimamodellen eindeutig, dass die klimawissenschaftliche Gemeinschaft immer noch nicht unterscheiden kann zwischen einer natürlich auftretenden und einer vom Menschen verursachten globalen Erwärmung, und

seit Anfang der achtziger Jahre zeigen die Temperaturdaten eindeutig und nachhaltig, dass sich die Oberflächen der globalen Ozeane erwärmt haben als Reaktion auf natürlich auftretende Wechselwirkungen zwischen Ozean und Atmosphäre, und nicht als Reaktion auf Treibhausgas-Emissionen.

In meiner jüngst veröffentlichten Kurzgeschichte Dad, Why Are You A Global Warming Denier?: A Short Story That’s Right for The Times habe ich über diese Themen geschrieben, und ich präsentierte auch ein Thema, welches für mich neu ist:

Die Politik hinter der internationalen Bewegung globale Erwärmung/Klimawandel scheint auf der Grundlage von Agenden zu stehen, die keinerlei Beziehung zu globaler Erwärmung oder Klimawandel haben.

Hinsichtlich der politischen Aspekte meiner Story stütze ich mich auf zahlreiche, auch längere Zitate aus den Memoiren von Margaret Thatcher Statecraft, welche unter der Überschrift „Hot Air and Global Warming“ enthalten sind. Hier folgen zwei dieser Zitate aus Statecraft:

Der erste Abschnitt unter der genannten Überschrift aus Statecraft lautet (Hervorhebung von mir, Tisdale):

Das bevorzugte Thema der Untergangs-Propheten unserer Tage ist Klimawandel. Dieses Thema ist für sie aus mehreren Gründen attraktiv. Erstens, die Wissenschaft ist extrem geheimnisvoll, so dass man sie nicht so leicht widerlegen kann. Zweitens, wir alle machen uns Gedanken hinsichtlich des Wetters: Traditionellerweise reden die Engländer zu Beginn kaum von etwas anderem. Drittens, da jedweder Plan zur Änderung des Klimas nur im globalen Maßstab betrachtet werden kann, stellt das Thema eine wunderbare Rechtfertigung für einen weltweiten, supra-nationalen Sozialismus dar.

Einer meiner Charaktere in meiner Kurzgeschichte greift diesen hervorgehobenen letzten Satz auf weltweiter, supra-nationaler Sozialismus? So etwas würde hier in den Staaten fliegen wie ein ,Lead Balloon‘.

Auch den nächsten Abschnitt in den Memoiren der Eisernen Lady dürften Sie interessant finden hinsichtlich Ihres Rückzugs aus dem Paris-Abkommen (Hervorhebung wieder von mir, Tisdale):

In der Sache hatte Präsident Bush sehr recht, das Kyoto-Protokoll abzulehnen. Sein Vorgänger hatte es wegen der internationalen Auswirkungen noch unterstützt, obwohl er wusste, dass die Bedingungen darin dieses zu hause zu einem toten Vogel machen würden: Der US-Senat hat hier einstimmig abgestimmt. Das Protokoll hätte die gesamte Last der CO2-Reduktion den entwickelten Ländern aufgebürdet, während die Entwicklungsländer – darunter China und Indien – weiterhin mit stark steigenden Wachstumsraten produzieren durften. Das amerikanische Ziel bzgl. Kürzungen war total unrealistisch – eine Reduktion der Gesamtemissionen um 7 Prozent unter das Niveau des Jahres 1990 von 2008 bis 2012. Und all das, bevor irgendjemand auch nur auf den Gedanken kam, die wissenschaftlichen Gründe zu betrachten, warum und bis zu welchem Ausmaß es zu einer globalen Erwärmung kommt. Kyoto war ein Anti-Wachstum-, Anti-Kapitalismus-, Anti-Amerika-Projekt, welches kein amerikanischer Führer, dem die nationalen Interessen seines Landes am Herzen lagen, hätte unterstützen dürfen.

Angesichts der Tatsache, dass die Eiserne Lady Margaret Thatcher das Kyoto-Protokoll als „anti-Wachstum, anti-kapitalistisch, anti-amerikanisch“ ansah und dass Präsident Bush recht hatte mit der Zurückweisung des Protokolls – glauben Sie, dass der geschätzte Premierminister ähnliche Gedanken haben würde hinsichtlich des den Wohlstand umverteilenden Paris-Abkommens und dass Sie, Herr Präsident, ebenfalls recht hatten mit dem Rückzug aus Paris?

Das bringt mich zu meiner zentralen Frage: „Stand die UN-Bewegung eines vom Menschen verursachten globalen Erwärmung/Klimawandel immer auf der Grundlage internationaler „Anti-Wachstum-, Anti-Kapitalismus-, Anti-Amerika-Agenden“?

Ich bin sehr interessiert an Ihren Standpunkten hierzu.

Zum Schluss darf ich Ihnen versichern, Herr Präsident, dass ich beim Verfassen meiner Kurzgeschichte oft an Sie gedacht habe.

Most respectfully

Bob Tisdale

Link: https://wattsupwiththat.com/2018/01/08/open-letter-to-president-donald-trump/




Graphen, Trends und Hypothesen

Warnung: Dieser Beitrag enthält die Aussage Trends können keine zukünftigen Werte prognostizieren und tun es auch nicht. Wem dieser Gedanke zuwider ist, sollte jetzt aufhören zu lesen.

Ich beginne diesen Beitrag mit einem früheren Kommentar auf den ersten, oben verlinkten Beitrag von Andrew C. Rifkin mit dem Titel „Warming Trend and Variations on a Greenhouse-Heated Planet” vom 8. Dezember 2014. Darin verlinkt er auch meine Erwiderung. Der folgende Kommentar stammt von Dr. Eric Steig. Dieser ist Professor des Fachbereiches Earth & Space Sci. an der University of Washington, wo er als Direktor des IsoLab fungiert. Auf der Website der Fakultät wird er als Gründungsmitglied und Beitragender zu der einflussreichen (deren Bezeichnung) klimawissenschaftlichen Website RealClimate.org gelistet. Steig sagt:

Kip Hansens „Kritik“ des Cartoons ist clever – und geht vollständig an der Sache vorbei. Ja, die Kommentatoren hätten nicht sagen sollen, „der Trend bestimmt die Zukunft“, das war schlecht formuliert. Aber der Klima-Antrieb (zumeist CO2) bestimmt doch den Trend, und der Trend (wo Herrchen läuft) bestimmt, wohin der Hund gehen wird, im Mittel. (Hervorhebung von mir, Hansen)

Ich glaube, dass Dr. Steig seine Erwiderung einfach „schlecht formuliert“ hat. Er meinte sicherlich, dass die Klimaantriebe, welche selbst nach oben tendieren, die zukünftigen Temperaturen bestimmen („wohin der Hund laufen wird, im Mittel“). Diese Meinung steht ihm zu, aber er irrt sich, wenn er darauf besteht, dass „der Trend (wo Herrchen läuft) bestimmt, wohin der Hund läuft“. Es ist diese wiederholte und fast überall benutzte, ungenaue Wortwahl, welche einen erheblichen Teil der Missverständnisse auslöst sowie Schwierigkeiten in der englischsprachigen Welt (und ich vermute, auch in anderen Sprachen nach einer direkten Übersetzung), wenn es um Zahlen, Statistiken, Graphiken und Trendlinien geht. Menschen, Studenten, Journalisten, Leser, Publikum … fangen an, tatsächlich zu glauben, dass der Trend selbst zukünftige Werte bestimmt.

Viele werden nun sagen „Unsinn! Niemand glaubt so etwas!“ Das glaubte ich auch, aber man lese die Kommentare zu meinen beiden Beiträgen zuvor, und man wird erstaunt sein.

Datenpunkte, Linien und Graphiken:

Betrachten wir zunächst die Definition einer Trendlinie: „Eine Linie in einer Graphik, welche die allgemeine Richtung anzeigt, in die eine Gruppe von Datenpunkten zu laufen scheint“. Oder eine andere Version: „Eine Trendlinie (auch die Linie des besten Fits genannt) ist eine Linie, die man einer Graphik hinzufügt, um die allgemeine Richtung anzuzeigen, in welche die Punkte zu gehen scheinen“.

Hier folgt ein Beispiel (zumeist mit Bildern):

Trendlinien werden Graphiken bestehender Daten hinzugefügt, um die „allgemeine Richtung zu zeigen, in welche die Datenpunkte zu laufen scheinen“. Genauer, zur Klarstellung, die Trendlinie allein zeigt tatsächlich die allgemeine Richtung, in welche die Datenpunkte gelaufen sind – und man könnte hinzufügen „bisher jedenfalls“.

Das sieht sehr pingelig aus, oder? Aber es ist sehr wichtig für das Verständnis, was ein Datengraph wirklich ist – nämlich eine Visualisierung bestehender Daten – also der Daten, wie wir wirklich haben – und die gemessen sind. Wir würden alle zustimmen, dass die Hinzufügung von Datenpunkten an beiden Enden des Graphen betrügerisch ist – Daten, die wir gerade erst bekommen haben und die nicht wirklich gemessen oder experimentell gefunden worden sind. Aber trotzdem haben wir kaum jemanden gesehen, der gegen „Trendlinien“ ist, die weit über die auf dem Graphen liegenden Datenpunkte hinausgehen – gewöhnlich in beide Richtungen. Manchmal ist es Bequemlichkeit bei der Erstellung der Graphik. Manchmal liegt aber auch die absichtliche (ungerechtfertigte) Implikation zugrunde, dass Daten in Vergangenheit und Zukunft auf der Trendlinie liegen. Aber klar gesagt: falls es keine Daten „vorher“ und „nachher“ gibt, dann kann und sollte eine solche Hypothese nicht aufgestellt werden.

Hier noch ein oder zwei kleine Argumente:

[Eggnog = Eierlikör]

Ich werde mit einer Graphik antworten:

Aber (gibt es nicht immer ein ,Aber‘?):

Fügt man den Datenpunkten auf einem Graphen Zwischenschritte hinzu, kann dies manchmal dazu führen, dass man diese Zwischenschritte als Daten ansieht, die zwischen den gezeigten Datenpunkten liegen. Angemessener würde der Graph NUR die Datenpunkte zeigen, falls das alles ist, was wir haben – aber wie oben gezeigt sind wir es nicht wirklich gewöhnt, Zeitreihen-Graphen auf diese Weise zu sehen – wir wollen die kleinen Linien über die Zeit laufen sehen, welche die Werte verbinden. Das ist gut, solange wir nicht auf den närrischen Gedanken kommen, dass die Linien irgendwelche Daten repräsentieren. Das ist nicht so, und man sollte sich nicht durch kleine Linien dazu bringen lassen zu glauben, dass zwischenzeitliche Daten sich entlang dieser kleinen Linien positionieren. Das kann so sein … oder auch nicht … aber es gibt keine Daten, zumindest nicht auf dem Graphen, die diesen Gedanken stützen.

Für Eierlikör-Verkäufe habe ich Teile des Graphen zwecks Anpassung an die Realität modifiziert:

Dies ist einer der Gründe, warum Graphiken von so etwas wie „jährliche mittlere Daten“ erheblich irreführende Informationen vermitteln – die Spurlinien zwischen den jährlichen mittleren Datenpunkten können leicht dahingehend missverstanden werden, dass sie zeigen, wie sich die Daten in der dazwischen liegenden Zeit verhalten haben – zwischen year-end totals oder jährlichen Mittelwerten. Die graphische Darstellung jährlicher Mittelwerte oder globaler Mittelwerte verdeckt leicht wichtige Informationen über die Dynamik des Systems, welches die Daten hervorbringt. In einigen Fällen, wie Eierlikör wäre es sehr entmutigend, lediglich auf individuelle monatliche Verkaufszahlen zu schauen wie die Zahl der Verkäufe im Juli (die traditionell nahe Null liegen). So etwas könnte einen Eierlikör-Produzenten dazu verleiten, das jährliche Verkaufspotential erheblich zu unterschätzen.

Es gibt viele gute Informationsquellen, wie man eine Graphik angemessen anwendet – und über die allgemeinen Wege, auf denen Graphen missbraucht und missgebildet werden – entweder aus Ignoranz oder mit Absicht, um Propagandazwecke zu unterstützen. Sie treten fast überall auf, nicht nur in der Klimawissenschaft.

Hier folgen zwei klassische Beispiele:

In beiden Graphiken gibt es noch ein weiteres, unsichtbares Element – Fehlerbalken (oder Vertrauensintervalle, wenn man so will) – unsichtbar, weil sie vollständig fehlen. In Wirklichkeit sind Werte vor 1990 „vage geraten“, Vertrauen nimmt von 1900 bis 1950 zu aufgrund von „Schätzungen [erraten] aus sehr ungenauen und räumlich sehr dünn verteilten Daten“. Vertrauen nimmt weiter zu von 1950 bis zu den neunziger Jahren aufgrund „besserer Schätzungen“ und schließlich in der Satelliten-Ära „bessere Schätzungen auf der Grundlage von rechenintensiver Hybris“.

Soweit die Einführung und die Beschreibung von Punkten, an die wir alle uns immer wieder mal erinnern sollten.

Der Knopf-Sammler [the button collector]: überarbeitet

Meine früheren beiden Beiträge über Trends konzentrierten sich auf den button collector, den ich hiermit noch einmal einführen möchte:

Ich habe einen Bekannten, der ein fanatischer Sammler von Knöpfen ist. Er sammelt Knöpfe bei jeder Gelegenheit, verwahrt sie, denkt jeden Tag an sie, liest über Knöpfe und Knöpfe sammeln; er bringt jeden Tag Stunden damit zu, seine Knöpfe in verschiedene kleine Schachteln zu sortieren und sorgt sich um die Sicherheit seiner Sammlung. Ich nenne ihn einfach den button collector*. Natürlich sammelt er nicht wirklich Knöpfe, sondern er sammelt Dollars, Yen, Lira, Pfund Sterling, Escudos, Pesos usw. Aber er verwendet sie nie für irgendeinen brauchbaren Zweck; sie helfen weder ihm noch anderen, also könnten es genauso gut auch Knöpfe sein.

[*Im Folgenden behalte ich den Begriff kursiv bei. Anm. d. Übers.]

Er hat nach der jüngsten Zählung Millionen über Millionen Knöpfe, genau, Sonntag Abend. Also können wir die „Millionen über Millionen“ ignorieren und einfach sagen, dass er Montag früh, zu Beginn seiner Woche, keine Knöpfe hat, um die Dinge vereinfacht darzustellen. (Man sieht schon, der Gedanke von „Anomalien“ hat schon ein paar Vorteile). Montag, Dienstag und Mittwoch gehen vorüber, und Mittwoch Abend zeigt ihm sein Buchhalter die folgende Graphik:

Wie in meinem Beitrag zuvor frage ich: „wie viele Knöpfe wird BC am Freitag Abend haben, also am Tag 5?“

Bevor wir antworten wollen wir darüber sprechen, was man tun muss, um diese Frage auch nur zu beantworten versuchen. Wir müssen einen Gedankengang formulieren, welches Verfahren mit diesem kleinen Datensatz modelliert wird. (Mit „modellieren“ meine ich einfach, dass die täglichen Ergebnisse irgendeines Systems visuell dargestellt werden).

„Nein, müssen wir nicht!“ werden Einige sagen. Wir nehmen einfach ein kleines Lineal zur Hand und zeichnen eine kleine Linie wie folgt (oder verwenden komplizierte mathematische Prozeduren auf unseren Laptops, die das für uns tun) und – voila! Die Antwort ist enthüllt:

Und unsere Antwort lautet „10“ … … (und wird natürlich falsch sein).

Es gibt keinerlei mathematische oder statistische oder physikalische Gründe oder Rechtfertigung zu glauben, dass wir die korrekte Antwort gezeigt haben. Wir haben einen sehr wichtigen Schritt ausgelassen. Wir sind einfach zu schnell vorgegangen. Wir müssen zuerst versuchen zu ergründen, welcher Prozess dahinter steckt (mathematisch, welche Funktion hier graphisch dargestellt wird), der die Zahlen erzeugt, die wir sehen. Dieses Ergründen wird wissenschaftlicher eine „Hypothese“ genannt, ist aber an diesem Punkt nicht anders als jeder andere Guess. Wir können sicher annehmen, dass der Prozess (die Funktion) lautet, „der Gesamtwert von morgen wird der Gesamtwert von heute plus 2 sein“. Dies ist tatsächlich der einzige vernünftige Ansatz für die Daten der ersten drei Tage – und geht sogar konform mit formalen Prognose-Prinzipien (wenn man fast nichts weiß, prognostiziere man mehr des Gleichen).

Schauen wir mal auf den Donnerstag-Graphen:

Klasse! Genau wie gedacht! Und jetzt Freitag:

Hoppla! Was ist passiert? Unsere Hypothese ist mit Sicherheit korrekt. Vielleicht eine Störung…? Versuchen wir es mit Sonnabend (wir arbeiten über das Wochenende, um verlorene Zeit aufzuholen)

Aha, das sieht schon besser aus. Bewegen wir unsere kleine Trendlinie etwas, um sicher zu gehen…:

Na ja, sagen wir, immer noch ziemlich nah dran … jene verdammten Störungen!

Aber einen Moment … wie lautete unsere Original-Hypothese, unser guess hinsichtlich des Systems, des Prozesses, der Funktion, welche die Ergebnisse der ersten drei Tage ergab? Sie lautete „Die Gesamtzahl morgen ist die Gesamtzahl heute plus 2“. Stützen unsere Ergebnisse unsere Original-Hypothese, unseren first guess, bis zum Tag 6? (Klarstellung: diese Ergebnisse kommen einfach durch Zählen zustande – das ist unser Verfahren der Datengewinnung – zählen). Nein, tun sie nicht. Keine wie auch immer geartete Schummelei – etwa zu sagen „aufwärts ist aufwärts“ oder „der Trend ist immer noch steigend“ – lassen diese Ergebnisse unsere Hypothese stützen.

Was würde ein Wissenschaftler, der etwas auf sich hält, an diesem Punkt tun? Er darf viele Dinge nicht tun, als da wären: 1) Die Ergebnisse so frisieren, dass sie zur Hypothese passen, 2) so tun, als ob „nahe“ das Gleiche ist wie Unterstützung ist („erkennen Sie, wie eng die Trends korrelieren?“), 3) Die Option „warten wir bis morgen, wir sind uns sicher, dass sich die Störung aufklären wird“ übernehmen, 4) eine Neuzählung anordnen und sicherstellen, dass die Knopf-Zähler verstehen, welche Zahlen sie zu finden haben, 5) eine Re-Analyse durchzuführen, incremental hourly in-filling, krigging, de-trending and re-analysis and anything else, bis die Ergebnisse auf der Linie liegen, auf der sie „liegen sollten“.

Während unsere Kollegen diese Tricks durchführen, wollen wir schauen, was am Tag 7 passiert:

Oh Mann … mitten in unserem „immer noch steigend“-Mantra müssen wir erkennen, dass wir die Daten nicht mehr weiter verwenden können, um unsere Original-Hypothese zu stützen – irgendetwas Anderes, was wir nicht erwartet haben, muss hier geschehen sein.

Ein wahrer Wissenschaftler macht an diesem Punkt Folgendes:

Er stellt eine neue Hypothese auf, welche die tatsächlichen Ergebnisse besser erklärt, normalerweise mittels Modifizierung der Original-Hypothese.

Das ist schwer – erfordert es doch das Eingeständnis, dass man beim ersten Mal falsch gelegen hatte. Es kann bedeuten, einen wirklich schönen Gedanken aufzugeben – einen Gedanken, der professionell, politisch oder sozial ist, unabhängig davon, ob er die Frage, um die es hier geht, beantwortet. Aber – an diesem Punkt MUSS man das tun!

Tag 8, obwohl „in die richtige Richtung weisend“, hilft unserer Original-Hypothese auch nicht:

Der gesamte Trend der Woche „geht immer noch aufwärts“ – aber dafür ist eine Trendlinie nicht geeignet.

Warum also eine Trendlinie?

Um uns zu helfen, das System oder den Prozess zu visualisieren und zu verstehen, der die Zahlen (tägliche Zählung der Knöpfe) hervorbringt (verursacht), die wir sehen – das ist vor allem nützlich bei Daten, die viel mehr durcheinander sind als hier.

Um uns bei der Beurteilung zu helfen, ob die Hypothese korrekt ist oder nicht.

Solange wir nicht verstehen, was vor sich geht, welcher Prozess zugrunde liegt, werden wir kaum in der Lage sein, bedeutsame Prognosen abzugeben darüber, was die tägliche Zählung der Knöpfe in Zukunft ergibt. An diesem Punkt müssen wir einräumen, dass wir es nicht wissen, weil wir die zugrunde liegenden Prozesse nicht vollständig verstehen.

Trendlinien sind zum Austesten einer Hypothese sinnvoll. Sie können den Forschern visuell oder numerisch zeigen, ob sie einerseits das System oder den Prozess korrekt erkannt haben, welcher ihren Ergebnissen zugrunde liegt, oder ihnen andererseits aufzeigen, wo sie vom Weg abgekommen sind und ihnen Gelegenheit geben, Hypothesen umzuformulieren oder sogar „zurück auf Los gehen“, falls das notwendig ist.

Diskussion

Mein Beispiel ist für die Leserschaft ein wenig unfair, weil es für Tag 10 keine offensichtliche Antwort auf die Frage gibt, die wir beantworten müssen: Welcher Prozess oder welche Funktion erzeugt diese Ergebnisse?

Das ist der ganze Punkt dieses Beitrags!

Ich will bekennen: Die Ergebnisse dieser Woche sind zufällig ausgesucht – es gibt kein zugrunde liegendes System, das es in den Ergebnissen zu entdecken gibt.

Derartiges tritt viel öfter bei Forschungsergebnissen auf als allgemein bekannt – man sieht scheinbar zufällige Ergebnisse, hervorgehend aus einer schlecht durchgeführten Studie, aus einer zu geringen Datenmenge, aus einer ungenauen Selektion der Parameter und einer „Hypothese weit daneben liegend“. Dies hat zu unsäglichen Bearbeitungen unschuldiger Daten geführt, die unablässig „bearbeitet werden, um Geheimnisse zu ergründen, die sie gar nicht enthalten“.

Wir glauben oft, dass wir ziemlich klar und offensichtlich sehen, was verschiedene Visualisierungen numerischer Ergebnisse uns sagen können. Wir kombinieren diese mit unserem Verständnis der Dinge, und wir geben kühne Statements ab, oftmals mit übertriebener Sicherheit. Haben wir diese erst einmal aufgestellt, sind wir versucht, aus falschem Stolz bei unseren first guesses zu bleiben. Falls unsere Zeiträume im obigen Beispiel nicht Tage, sondern Jahre gewesen wären, würde diese Versuchung sogar noch stärker sein, vielleicht unwiderstehlich – unwiderstehlich, falls wir zehn Jahre mit dem Versuch zugebracht haben zu zeigen, wie richtig unsere Hypothese ist, nur um zu sehen, dass die Daten uns betrügen.

Wenn unsere Hypothesen daran scheitern, die Daten zu prognostizieren oder zu erklären, die bei unseren Ergebnissen oder bei Messungen in Systemen der realen Welt zutage treten, brauchen wir neue Hypothesen – neue guesses – modifizierte guesses. Wir müssen uns dem Umstand stellen, dass unsere Hypothese nicht stimmt – oder noch schlimmer, dass sie vollständig falsch ist.

Von Linus Pauling, brillanter Chemiker und Nobelpreisträger, glaubt man allgemein, dass er sich zum Ende seines Lebens zu viele Jahre lang dem Kampf gegen eine Krebs-Kur mit Vitamin C verschrieben hat, und der es stets abgelehnt hat seine Hypothese neu zu evaluieren, als die Daten gegen sie sprachen und andere Gruppen seine Ergebnisse nicht nachvollziehen konnten. Dick Feynman machte für Derartiges etwas verantwortlich, dass er ,sich selbst zum Narren halten‘ nannte. Andererseits kann Pauling recht haben hinsichtlich der Fähigkeit von Vitamin C, gewöhnliche Erkältungen zu verhindern oder deren Dauer zu verkürzen. Dieses Thema war noch nicht ausreichend Gegenstand guter Experimente, um Schlussfolgerungen ziehen zu können.

Wenn unsere Hypothese nicht zu den Daten passt wie im oben ausführlich beschriebenen Beispiel – und es scheint dafür keine vernünftige, belastbare Antwort zu geben – dann müssen wir zurück zu den Grundlagen gehen und unsere Hypothesen testen:

1) Ist unser Experiment-Aufbau valide?

2) Sind unsere Messverfahren angemessen?

3) Haben wir die richtigen, zu messenden Parameter gewählt? Reflektieren/repräsentieren unsere gewählten Parameter (physisch) das, was wir glauben, dass sie reflektieren/repräsentieren?

4) Haben wir alle möglichen Störvariablen berücksichtigt? Sind die Störfaktoren um Größenordnungen größer als das, was wir zu messen versuchen? (Hier steht ein Beispiel).

5) Verstehen wir das größere Bild gut genug, um ein Experiment dieser Art angemessen durchzuführen?

Darum geht es heutzutage – das ist der Fragenkatalog, den ein Forscher aufstellen muss, wenn die Ergebnisse einfach nicht zur Hypothese passen, unabhängig von wiederholten Versuchen und Modifizierungen der Original-Hypothese.

„Moment“, kann man jetzt sagen, „was ist mit Trends und Prognosen?“

Trends sind einfach nur graphische Visualisierungen der Änderungen während der Vergangenheit oder von vorhandenen Ergebnissen. Das möchte ich wiederholen: es sind Ergebnisse von Ergebnissen – Auswirkungen von Auswirkungen – es sind keine Ursachen und können auch keine sein.

Wie wir oben sehen, können selbst offensichtliche Trends nicht herangezogen werden, um zukünftige Werte beim Fehlen eines wahren (oder zumindest „ziemlich wahren“) und klaren Verständnisses der Prozesse, Systeme und Funktionen (Ursachen) zu prognostizieren, welche zu den Ergebnissen, den Datenpunkten führen, welche die Grundlagen des Trends sind.

Wenn man ein klares und ausreichendes Verständnis der zugrunde liegenden Systeme und Prozesse wirklich hat, dann ist es so: falls der Trend der Ergebnisse vollständig unserem Verständnis (unserer Hypothese) entspricht und falls man eine Größe verwendet, welche die Prozesse genau genug spiegelt, dann kann man dies heranziehen, um mögliche zukünftige Werte innerhalb bestimmter Grenzen zu prognostizieren – fast mit Sicherheit, falls Wahrscheinlichkeiten allein als Prognosen akzeptabel sind. Aber es ist das Verständnis des Prozesses, der Funktion, dass es gestattet, die Prognose abzugeben, nicht der Trend – und das tatsächliche kausative Agens ist immer der zugrunde liegende Prozess selbst.

Falls man durch Umstände, Druck der Öffentlichkeit oder seitens der Politik oder einfach durch Hybris gezwungen wird, eine Prognose trotz des Fehlens von Verständnis abzugeben – mit großer Unsicherheit – ist es das Sicherste, „weiterhin das Gleiche“ zu prognostiziere und selbst bei einer solchen Prognose sehr viel Spielraum zuzulassen.

Anmerkungen:

Studien aus jüngerer Zeit zu Trends in nicht linearen Systemen (hier) geben nicht viel Hoffnung, abgeleitete Trends für Prognosen nutzen zu können. Meist reicht es nur zu „vielleicht wird es so weitergehen wie in der Vergangenheit – aber vielleicht wird es auch eine Änderung geben“. Klimaprozesse sind fast mit Sicherheit nicht linear – folglich ist es für Zahlen physikalischer Variablen als Ergebnis von Klimaprozessen (Temperatur, Niederschlag, atmosphärische Zirkulation, ENSO/AMO/PDO) unlogisch, wenn man davon gerade Linien (oder Kurven) über Graphiken numerischer Ergebnisse dieser nicht linearen Systeme zeichnet, um Projektionen zu erhalten und zu nicht physikalischen Schlussfolgerungen zu kommen.

Es gibt immer mehr Arbeiten zum Thema Prognose. (Hinweis: Die Konstruktion gerader Linien in Graphiken ist kein Beweis). Scott Armstrong bemühte sich viele Jahre lang, einen Satz von Prognose-Prinzipien zu entwickeln, um „wissenschaftliches Prognostizieren allen Forschern, Praktikanten, Klienten und Anderen zugänglich zu machen, die sich um Prognose-Genauigkeit kümmern“. Seine Arbeit findet sich hier. Auf seiner Website gibt es viele Beiträge zu Schwierigkeiten, Klima und globale Erwärmung zu prognostizieren (nach unten scrollen).

# # # # #

Der größte Teil der Leserschaft hier ist skeptisch hinsichtlich des Mainstreams und des IPCC-Konsens‘ der Klimawissenschaft, welche meiner Ansicht nach zu verzweifelten Versuchen verkommen ist, eine gescheiterte Hypothese namens „CO2-induzierte katastrophale globale Erwärmung“ mit aller Gewalt am Leben zu halten – Treibhausgase mögen allgemein eine gewisse Erwärmung bewirken, aber wie stark, wie schnell, wie lange sowie vorteilhaft oder schädlich – das sind alles Fragen, die bisher in keiner Weise beantwortet sind. Und außerdem steht immer noch die Frage im Raum, ob sich das Klima der Erde selbst reguliert trotz sich ändernder Konzentrationen von Treibhausgasen oder solarer Fluktuationen.

Link: https://wattsupwiththat.com/2018/01/04/the-button-collector-revisited-graphs-trends-and-hypotheses/

Übersetzt von Chris Frey EIKE




Trotz allem, was man so hört: globale Erwärmung macht das Wetter nicht extremer

Zuletzt kam diese Behauptung des „neuen Normals“ von der Münchener Rück, welche jüngst ihren jährlichen Bericht zu Schadenssummen durch Hurrikane, Überschwemmungen, Buschbrände und so weiter veröffentlichte (hier).

Dem Report zufolge zahlten Versicherer die Rekordsumme von 135 Milliarden Dollar aufgrund dieser Katastrophen, und der Gesamtverlust belief sich auf 330 Milliarden Dollar, das ist die zweithöchste Summe seit 2011. Es war dem Report zufolge auch die kostspieligste Hurrikan-Saison jemals. Und wenn man die Graphik in dem Report betrachtet, kann man den Eindruck gewinnen, dass die Kosten von Naturkatastrophen seit dem Jahr 1980 einen Aufwärtstrend zeigen.

Natürlich schlachten Klimawandelisten diesen Punkt aus als weiteren Beweis, dass die Zunahme des CO2-Niveaus schon jetzt Katastrophen in aller Welt auslöst. Der Environmental Defense Fund EDF drückt es so aus: „Mit dem Voranschreiten des vom Menschen ausgelösten Klimawandels wird Extremwetter immer häufiger und gefährlicher“.

Das eigene Corporate Climate Center der Münchner Rück behauptet, dass „2017 kein Ausreißer war“ und dass „wir unser Radar auf einen Trend neuer Größenordnungen ausrichten müssen“.

Aber welche Beweise gibt es dafür, dass Extremwetter „immer häufiger und gefährlicher wird“? In den USA gar keinen.

Wer das nicht glaubt, sollte sich die Serie von Graphiken unten anschauen, von Websites der Regierung entnommen, in denen jeweils Trends von Hurrikanen, Tornados, Dürren und Buschfeuer dargestellt sind – die den Alarmisten zufolge allesamt einen Aufwärtstrend aufweisen.

Diese Graphiken finden sich hier.



Dr. Roger Pielke Jr. zeigt auf seinem Blog “The Climate Fix”:

Abbildung: Jährliche Kosten von Wetterkatastrophen (Daten von der Münchner Rück) im Verhältnis zum globalen BIP (Daten von den UN) von 1990 bis 2017.

Erkenntnisse daraus:

2017 liegt nach 2005 an zweiter Stelle

Der Datensatz wird dominiert von US-Hurrikanen (die etwa 70% des Verlustes ausmachen)

Der Trend von 1990 bis 2017 zeigt abwärts

Mittel und Median liegen beide bei 0,24%

während 6 der letzten 10 Jahre lagen die Verluste unter dem Mittel.

Aber der wichtigste Punkt: Man ziehe Katastrophen nicht als Argument bzgl. Klimatrends heran. Man verwende Klimadaten. Pielke 2015 zeigt eine zugängliche Zusammenfassung der IPCC-Schlussfolgerungen zu Trends hinsichtlich von Wetterextremen. (Siehe auch IPCC SREX and AR5). Trends hinsichtlich des Auftretens von Extremwetter helfen, diese Graphik zu erklären, hat doch die Welt gerade eine lange Zeit Glück gehabt in dieser Hinsicht.

Link: https://wattsupwiththat.com/2018/01/07/despite-what-youve-heard-global-warming-isnt-making-weather-more-extreme/

Übersetzt von Chris Frey EIKE