Das Picasso-Problem

Was ist üblicherweise mit Klima-Sensitivität gemeint? Um das zu erklären, muss ich einen kleinen Umweg machen. Erstens, einfallende Strahlung [Downwelling].

Downwelling“ in der Klimawissenschaft bedeutet die auf die Oberfläche des Planeten treffende Strahlung. Einfallende Strahlung ist die Gesamtstrahlung in Richtung Erdoberfläche. Sie setzt sich zusammen aus Sonnenlicht (kurzwellig) plus thermischer Strahlung aus der Atmosphäre (langwellig). In der Klimawissenschaft nennt man diesen Parameter, also die gesamte einfallende Strahlung „Antrieb“ [Forcing F].

Das zentrale Paradigma der modernen Klimawissenschaft lautet, dass wenn sich die Stärke der einfallenden Strahlung (Forcing) ändert, sich auch die Temperatur an der Oberfläche notgedrungen ändert. Es wird behauptet, dass sich alles andere heraus mittelt, und falls das Forcing sich verstärkt, muss sich auch die Oberflächentemperatur ändern, um das globale Energie-Gleichgewicht zu erhalten. Sie muss sich ändern! Sie muss!

Kurz gesagt lautet das zentrale Paradigma der modernen Klimawissenschaft:

Langfristig ist die globale Temperaturänderung proportional zur Änderung der globalen Forcings.

Die vermeintlich konstanten Proportion zwischen beiden Größen, also Temperatur-Änderung dividiert durch Forcing-Änderung, nennt man „Klima-Sensitivität“.

Klima-Sensitivität wird oftmals ausgedrückt als die mutmaßliche Temperaturänderung bei einer Änderung der einfallenden Strahlung von 3,7 Watt pro Quadratmeter (W/m²). Die Berechnung dieser so genannten „Klima-Sensitivität“ ist eine zentrale Frage, die sich rund um das Paradigma erhebt, dass Temperaturänderung proportional zu Temperaturänderung ist.

Und das bringt mich zu der höchst langweiligen Graphik unten. Sie zeigt die Änderungen der Schätzung des Wertes der Klima-Sensitivität über die Zeit:

Abbildung 1: Änderungen über die Zeit der Schätzung des Klima-Sensitivitäts-Parameters „lambda“. „∆T2x(°C)” ist die erwartete Temperaturänderung in Grad Celsius bei einer Verdoppelung des atmosphärischen CO2-Gehaltes, von welcher man annimmt, dass sie das Forcing um 3,7 W/m² verstärken wird. Mit den Abkürzungen FAR, SAR, TAR, AR4, AR5 sind die fünf Zustandsberichte des IPCC gemeint, welche eine Zustandsbeschreibung des Status‘ der Klimawissenschaft zum jeweiligen Zeitpunkt der Berichte sind.

[Bildinschrift oben in der Graphik: UTTER STAGNATION – Dr. Shaviv schreibt: „Lassen Sie mich das in eine Perspektive bringen mit der langweiligsten Graphik, die ich je in meinem Leben geplottet habe. Die Graphik zeigt die wahrscheinliche Bandbreite der Klima-Sensitivität als Funktion der Zeit. Wie man sieht, hat sich die wahrscheinliche Bandbreite der Klima-Sensitivität seit dem Charney-Report aus dem Jahr 1979 nicht verändert, wenn man vom AR 4 mit einer etwas geringeren Bandbreite absieht. Mit anderen Worten: Nach vermutlich Milliarden Dollar, welche über mehr als drei Jahrzehnte in die Klimaforschung gepumpt worden waren, hat sich unsere Fähigkeit, die wichtigste Frage bzgl. Klima zu beantworten, nicht einmal ansatzweise verbessert!]

Es ist der Erwähnung wert, dass seit dem Jahr 1979 gesamte neue Wissenschaftsbereiche wie die DNA-Analyse erstmals aufkamen und inzwischen erstaunliche Niveaus der Entwicklung erreicht haben … und das über die gleiche Zeit, in der die von Dr. Shaviv als die „bedeutendste Frage bzgl. Klima“ bezeichnet keinerlei Entwicklung aufweist. Überhaupt keine.

Seit 1979 ist die Rechenleistung der uns zur Verfügung stehenden Computer explodiert, sowohl individuell als auch bei großen Organisationen. Mein zuverlässiger PowerMac hat mehr Rechenleistung als den meisten Universitäten im Jahre 1979 zur Verfügung stand. Die Kosten sind ebenfalls gesunken, von 100.000 Dollar pro MIPS (Millionen Befehle pro Sekunde) auf weniger als 1 Dollar pro MIPS heute. Und die Geschwindigkeit der Rechenleistung hat alle Grenzen gesprengt, laufen doch über die Super-Computer Klimamodelle mit über einer Billion Rechen-Operationen in jeder Sekunde. Auch die Anzahl der sich mit der Erforschung des Wertes der Klima-Sensitivität befassenden Personen hat mit der Zeit zugenommen. Und Milliarden über Milliarden Dollar wurden aufgebracht, um die Frage zu beantworten.

Fazit: Seit dem Charney-Report im Jahre 1979 bzgl. Klima-Sensitivität gab es eine ebenso horrende wie unsinnige Zunahme bei:

Computerleistung bzgl. der Frage

Stunden intensiver Forschung bzgl. der Frage

Diskussionen, Debatten und Interesse bzgl. der Frage

Aufgebrachtes Geld bzgl. der Frage

Und trotz dieser ungeheuren Steigerung von Zeit, Arbeit, Diskussionen und Computerleistung hat sich die Untersuchung der Frage nach dem Wert der Klima-Sensitivität genau Null Millimeter bewegt. Keinerlei Fortschritt.

Wie können wir diese wissenschaftliche Eigenartigkeit einordnen? Was steckt dahinter, dass all die aufgebrachte wertvolle Zeit, Geld und Mühen genau nichts erreicht hat? Ich meine Null. Gar nichts. Keinerlei Bewegung. Die langweiligste Graphik.

Ich schlage mal als Grund vor, dass die Klimawissenschaft das Opfer von etwas ist, das ich das „Picasso-Problem“ nenne. Pablo Picasso sagte nämlich einmal etwas, das mir noch sehr lange im Kopf herumging:

Welchen Nutzen haben Computer? Sie können doch nur Antworten geben“.

Ich selbst habe mein erstes Computerprogramm im Jahre 1963 geschrieben, also vor mehr als einem halben Jahrhundert. Damals war ich sechzehn Jahre alt. Ich ließ es auf einem Computer von der Größe eines kleinen Raumes laufen. Seitdem programmiere ich Computer. Ich habe Programme für alles geschrieben, von Stoffdesign für große Zelte [catenary tents ?] über die Berechnung der Gezeiten des nächsten Jahres aus den Gezeiten-Tabellen dieses Jahres bis hin zur Erstellung der Graphiken in diesem Beitrag. Und mit den Jahren habe ich auch ziemlich Kohle gemacht mit meiner Erfahrung bzgl. Computer.

Wenn ich also lese, dass Picasso Computer mit jener Feststellung abschreibt, lautete meine spontane Antwort „Was?! Computer sind großartig! Worauf will dieser verrückte Künstler hinaus? Ich habe viel Geld verdient mit meinen Computern. Wie können sie unnütz sein?“

Aber nach gründlicherem Nachdenken erkannte ich, dass Picasso recht hatte. Er meinte Folgendes:

Selbst der allerbeste Computer kann keine richtige Antwort geben, wenn man ihm zuvor nicht die richtige Frage stellt“.

Das war für mich eine grundlegende Erkenntnis, eine, die mich über viele meiner wissenschaftlichen Unternehmungen geleitet hat – man konzentriere sich nicht zu sehr auf die Antworten. Man muss auch die Fragen in den Mittelpunkt rücken.

Betrachtet man nun also die Klimawissenschaft – welches ist die falsche Frage, welche die richtige? Auch hier möchte ich wieder ein wenig abschweifen.

Mein Interesse an der Klimawissenschaft wurde um die Jahrtausendwende geweckt, und zwar wegen der inflationären Zunahme von Untergangsprophezeiungen eines drohenden ThermageddonTM. Also begann ich, mich mit den Grundlagen zu befassen und zu lernen, wie der schlecht bezeichnete „Treibhauseffekt“ die Erde weit wärmer hält als es auf dem Mond ist, der etwa die gleiche Entfernung von der Sonne hat.

Allerdings habe ich im Zuge dieses Interesses gelesen, dass das Best Estimate der Erwärmung über das gesamte 20. Jahrhundert in der Größenordnung von 0,6°C aufgetreten war. Da kam mir spontan der Gedanke „Was – weniger als ein Grad?! All dieses Brimborium, und die Temperatur hat sich um weniger als 1 Grad geändert?“

Ich war überrascht wegen meiner Erfahrung mit der Reparatur von Maschinen mit einem Regler und aufgrund meiner Erfahrung mit Sonnenenergie. Ich betrachtete das Klima als eine gigantische, von der Sonne angetriebene Wärmemaschine, wobei die Sonnenenergie konvertiert wird zu der unablässigen Bewegung der Atmosphäre und der Ozeane gegen die bremsende Wirkung der Reibung und vielem mehr.

Wenn man die Effizienz oder andere Charakteristika einer Wärmemaschine analysiert, oder wenn man Dinge wie die Stefan-Boltzmann-Gleichung verwendet, um Temperatur in das Äquivalent thermischer Strahlung zu konvertieren, muss man die Kelvin-Temperaturskala (K) heranziehen. Diese Skala beginnt am absoluten Nullpunkt. Temperatur ist eine Funktion der Bewegung von Molekülen oder Atomen, und am absoluten Nullpunkt hören diese Bewegungen vollständig auf.

Man kann für derartige Berechnungen nicht die Celsius- oder die Fahrenheit-Skala heranziehen, weil beide willkürlich gewählte Nullpunkte haben. Nur mit der Kelvin-Skala funktionieren diese Berechnungen. Kelvin hat die gleichen Abstände der Einheiten wie Celsius und lediglich einen anderen Nullpunkt, nämlich minus 273,15°C.

Nun beträgt die mittlere Temperatur an der Erdoberfläche größenordnungsmäßig 14°C – oder 287 Kelvin. Und mit dieser mittleren globalen Temperatur von 287 Kelvin macht die globale Temperatur-Variation von 0,6 K über das 20. Jahrhundert gerade mal ein Fünftel von einem Prozent aus.

Dies war die Seltsamkeit, die mich bei meinen Untersuchungen bzgl. Klima begleitete … über einen Zeitraum von 100 Jahren hat die Temperatur nur mit etwa einem Fünftel eines Prozentes variiert. Das war für mich umwerfend. Ich hatte viel Erfahrung mit geregelten Systemen wegen meiner Arbeit mit elektrischen Generatoren. Diese müssen genau geregelt werden, damit ihre Geschwindigkeit konstant bleibt trotz der sich ändernden Last des Systems. Und bei dieser meiner Arbeit habe ich herausgefunden, dass es ziemlich schwierig ist, innerhalb eines Prozents regelnd in ein mechanisches System einzugreifen.

Und jetzt: Trotz Dürren und Überschwemmungen, trotz großer Vulkanausbrüche, trotz sich konstant ändernder globaler Wolkenbedeckung, trotz aller Arten von Änderungen des Antriebs, trotz hemisphärischer Temperaturänderungen um ~13°C zweimal pro Jahr in jedem Jahr, trotz des Ausgleichs des Globus‘ bzgl. eines Treibhauseffektes, der den Planeten um rund ~50°C wärmer hält als den Mond … trotz all dieser Änderungen und Variationen variierte die mittlere Temperatur der Erde nicht stärker als ein Viertel Prozent im Laufe eines ganzen Jahrhunderts.

Das ist eine erstaunlich enge Regelung. Hier folgt ein Beispiel aus der realen Welt, warum mich diese Stabilität überrascht hat.

In meinem Auto gibt es einen Geschwindigkeits-Regler. Den kann man auf eine bestimmte Geschwindigkeit einstellen, die dann stur gehalten wird, egal ob das Auto beladen ist oder nicht. Bei starkem Gefälle ändert sich die Geschwindigkeit geringfügig um plus/minus 1 km/h. Das heißt, diese vom Computer gesteuerte Regelung hält die Bandbreite der Geschwindigkeit innerhalb 2% … aber die Temperatur der Erde ist sogar noch viel besser reguliert. Sie schwankt innerhalb von plus/minus einem Zehntel Prozent.

Zu jener Zeit war diese thermische Stabilität für mich ein untrügliches Anzeichen für die Existenz irgendeines unbekannten natürlichen thermostatischen Prozesses, der auf sehr effiziente Art und Weise die Temperatur innerhalb dieser geringen Bandbreite hält. Also sah ich es als meine Aufgabe im Bereich Klimawissenschaft, das Phänomen zu finden, welches diese enge Bündelung der planetarischen Temperatur über Jahrhunderte hinweg bewirkt.

Was ich in eine eigentümliche Lage brachte. Alle etablierten Klimawissenschaftler versuchten und versuchen immer noch herauszufinden, warum sich die Temperatur so stark ändert. Sie verbrachten Zeit damit, auf Graphiken wie die Folgende zu starren, welche die Variationen der Temperatur auf der Erde zeigt:

Abbildung 2: Globale mittlere Anomalie der Temperatur nach HadCRUT

Andererseits wollte ich als jemand mit Interesse für Wärmemaschinen und Regler versuchen herauszufinden, warum sich die Temperatur so wenig geändert hat. Dabei zog ich genau die gleichen Daten heran wie in Abbildung 2, habe sie aber anders dargestellt:

Abbildung 3: tatsächliche globale Mitteltemperatur (nach den gleichen Daten wie in Abbildung 2) sowie die angenäherte mittlere Mondtemperatur in Kelvin.

Und das bringt mich nach dem Beackern dieses entfernt liegenden Bereiches zurück zu der Frage nach der Klima-Sensitivität und der weitsichtigen Frage von Picasso: „Wozu sind Computer nütze? Sie können doch nur Antworten geben!“

Meine Aussage: Der Grund dafür, warum wir Jahrzehnte lang überhaupt keine Fortschritte gemacht haben, die Klima-Sensitivität zu berechnen oder zu messen ist, dass wir unsere unermessliche Computerleistung bemühen, um die Antwort auf die Frage zu finden, warum sich die globale Temperatur so stark ändert.

Für mich ist das die völlig falsche Frage. Stattdessen sollten wir viel eher die folgende Frage stellen:

Warum ändert sich die globale Temperatur nur so geringfügig?

Nach vielem Nachdenken und noch mehr Forschung erkenne ich, dass der Grund für die nur so geringe Änderung der globalen mittleren Temperatur NICHT die Proportionalität derselben zu irgendwelchen Antrieben ist, wie allgemein angenommen wird. Als Ergebnis ist die so genannte „Klima-Sensitivität“ keine Konstante, wie vermutet wird … und weil das so ist, ist der Versuch, den exakten Wert zu berechnen, vergebliche Mühe, weil es keinen festen Wert gibt. Darum auch können wir auch nicht den geringsten Fortschritt erzielen, sie zu messen … weil es eine Chimäre ist auf der Grundlage eines falschen Verständnisses dessen, was vor sich geht.

Stattdessen lautet meine Hypothese, dass die Temperatur durch eine Vielfalt von Phänomenen innerhalb dieser geringen Bandbreite gehalten wird. Sie kühlen die Erde, wenn es zu warm wird, und erwärmen sie, falls es zu kalt wird. Ich habe eine große Vielfalt von beobachteten Beweisen gefunden, dass dies tatsächlich der Fall ist. Siehe dazu auch die Links zu vielen Beiträgen, die ich zu diesem Thema bereits geschrieben habe*.

[*Siehe unten]

Aber das ist jetzt nur meine Antwort. Und ich bekenne sofort, dass diese durchaus falsch sein kann … aber zumindest ist es eine Antwort auf die richtige Frage. Das wirkliche Mysterium des Klimas ist dessen erstaunliche thermische Stabilität.

Und schließlich, wie kommt es, dass ein ganzer Wissenschaftsbereich sich abmüht zu versuchen, die falsche Frage zu beantworten? Ich sage, dass dies die Folge der Erschaffung des IPCC seitens der UN ist.

Im Jahre 1988 war der Bereich Klimawissenschaft ein ganz neuer Bereich. Trotzdem jedoch waren die UN bereits davon überzeugt, dass man genau wusste, um welches Problem es sich handelt. Typische bürokratische Arroganz. Als Folge davon heißt es in der Resolution 43/53 der Vollversammlung aus dem Jahre 1988 (die das IPCC hervorbrachte):

Die Vollversammlung ist besorgt hinsichtlich menschlicher Aktivitäten, welche das globale Klima verändern können, wodurch gegenwärtige und zukünftige Generationen von ernsten ökonomischen und sozialen Konsequenzen bedroht sind.

Man nimmt besorgt zur Kenntnis, dass Beweise zunehmend darauf hindeuten, dass die fortgesetzte Zunahme der Konzentration von „Treibhaus“-Gasen eine globale Erwärmung hervorrufen könnte mit einem eventuellen Anstieg des Meeresspiegels, deren Auswirkungen katastrophal für die Menschheit sein können, wenn nicht rechtzeitig in allen Bereichen Gegenmaßnahmen getroffen werden.

Und als Erwiderung sprang man sofort zu der Frage, ob sie wissenschaftlich korrekt war oder nicht; und man ging direkt dazu über, Maßnahmen gegen etwas zu ergreifen, von dem die Vollversammlung nicht die geringste Ahnung hatte. Die Resolution sagte, dass …

die Vollversammlung rechtzeitig notwendige Maßnahmen ergreifen sollte, um das Problem Klimawandel innerhalb eines globalen Rahmens anzugehen.

Rufe nach Maßnahmen machen Bürokraten immer glücklich. Also wurde das IPCC, eine ausgesprochen politische „zwischenstaatliche“ Organisation, de facto zur Führungskraft einer gesamten Wissenschaftsdisziplin … was sich als ein gewaltiger Fehler herausstellte.

Bis zu jener Zeit und auch danach bis jetzt gab es in allen anderen Bereichen der Wissenschaft erstaunliche Fortschritte hinsichtlich des Verständnisses ohne irgendein globales „zwischenstaatliches“ Gremium zur Anleitung ihrer Bemühungen. Es gab begeisternde Erfolge mit der gewöhnlichen wissenschaftlichen Methodik, wobei viele Wissenschaftler involviert sind, die ziemlich unabhängig auf der ganzen Welt irgendwelchen wissenschaftlichen Fragen nachgehen, manchmal in Kooperation, manchmal im Wettbewerb, ohne dass sie irgendjemanden brauchen oder haben wollen, der „die Wissenschaft zusammenfasst“, wie es das IPCC zu tun behauptet.

Und angesichts des Fehlens jedweden Fortschrittes, wie in der „langweiligsten Graphik jemals“ oben in diesem Beitrag sage ich, dass die Welt niemals wieder eine Haufen von UN-Bürokraten [pluted bloatocrats] einsetzen sollte für irgendetwas, das mit Wissenschaft zu tun hat. Hätten wir ein „zwischenstaatliches Gremium zur DNA-Analyse“ [Intergovernmental Panel on DNA-Analysis] eingerichtet, als der Bereich noch neu war, dann kann man sicher sein, dass dieser Bereich unweigerlich blind und taub unsinnigen Behauptungen hinterhergelaufen wäre wie „97% aller DNA-Wissenschaftler stimmen darin überein…“

Auf dem exzellenten Blog von Judith Curry fragte mich einmal jemand, was genau ich gegen das IPCC hätte. Ich erwiderte:

Hier sind einige Hauptgründe. Ich habe weitere.

1) Es wird ein Grad wissenschaftlicher Übereinstimmung vorausgesetzt, der einfach nicht vorhanden ist. Die meisten Menschen in dem Bereich einschließlich der Skeptiker glauben, dass sich die Welt erwärmt und dass Menschen sehr gut dazu beitragen könnten. Aber hier endet die Übereinstimmung schon. Wie groß der menschliche Beitrag ist, wie er aussieht und wie lange – zu diesen und ähnlichen Fragen gibt es keinerlei Übereinstimmung.

2) Das Gremium ist korrupt, wie unter Anderem das Jesus Paper zeigt.

3) Es ignoriert generell alles, was von der festgelegten Weisheit der Klimawissenschaft abweichen könnte.

4) Es wird von der Politik gesteuert, nicht von Wissenschaft. Bestimmte Paragraphen und Schlussfolgerungen sind verändert oder entfernt worden aufgrund politischer Einsprüche.

5) Bei dem Versuch, Entwicklungsländer mit ins Boot zu holen, wurde eine Anzahl sehr schlechter Wissenschaftler eingestellt.

6) Jedwede Organisation, die einen Leiter wie Rajendra Pachauri bekommt, ist sehr, sehr schlecht.

7) Man hat wirkliche Unsicherheiten ignoriert und diese ersetzt durch vollkommen subjektive Schätzungen der Unsicherheit.

8) Man hat Dinge wie die Hockeyschläger-Studie und die zahlreichen „Stick-alikes” veröffentlicht, obwohl es sich dabei um eklatant schlechte Wissenschaft handelt [laughably bad science]

9) Man erstellt „Projektionen“, die wenig oder gar nichts zu tun haben mit der realen Welt, wie etwa den Representative Concentration Pathway 8.5 (RCP 8.5).

10) Skeptiker aller Arten werden generell ausgeschlossen, entweder direkt oder weil die Skeptiker Besseres zu tun haben als sich einer solchen Organisation anzudienen.

11) Jeder, der „Projektionen“ erstellt, die über das Jahr 2010 hinausgehen, bläst Schall und Rauch in die Luft [der Autor drückt es drastischer aus. Anm. d. Übers.]

12) Man macht sich viel, viel zu stark abhängig von ungeprüften, nicht verifizierten und nicht validierten Klimamodellen.

13) Das IPCC denkt generell ohne nachzudenken, dass Erwärmung schlecht, schlecht, schlecht ist … was das Gegenteil der wirklichen Auswirkungen der Erwärmung seit der Kleinen Eiszeit ist.

14) Dem IPCC wurde die falsche Aufgabe bei seiner Gründung übertragen. Anstatt es zu beauftragen herauszufinden, was nun wirklich das Klima kontrolliert, übertrug man ihm die Aufgabe herauszufinden, wie viel CO2 wir emittieren dürfen, bevor es gefährlich wird. Diese Aufgabenstellung setzte eine Vielfalt von Dingen voraus, die niemals begründet worden waren.

15) … ach was, das reicht jetzt! Wen es interessiert – ich kann noch viele weitere Gründe benennen.

Das also ist das Klima-Picasso-Problem. Der Bereich Klimawissenschaft versucht, mittels Computern Antworten auf die falsche Frage zu finden, und als Folge davon führt der Bereich ins Nirgendwo.

Link: https://wattsupwiththat.com/2018/11/17/the-picasso-problem/

Übersetzt von Chris Frey EIKE

[Im Original folgen jetzt die o. g. Angesprochenen Links zu den Beiträgen von Willis Eschenbach zu diesem Thema. Aus Zeitgründen und weil sie nicht direkt zum Thema dieses Beitrags passen, werden diese hier aber nicht mit übersetzt. Anm. d. Übers.]




„Wir haben es wirklich vermasselt“ – Wissen­schaftler räumt Fehler in der hochge­jubelten Studie bzgl. globaler Erwärmung ein.

Der Studie von Laure Resplandy et al. zufolge, welche diesen Monat in dem angesehenen Journal Nature veröffentlicht worden ist, ist eine große Menge der fehlenden Wärme aus der globalen Erwärmung – 60% mehr als bislang gedacht – von den Ozeanen absorbiert worden.

Natürlich löste diese schockierende Entdeckung in den Mainstream-Medien viel Begeisterung aus. Umwelt-Korrespondenten auf der ganzen Welt sprachen von dem Beweis, dass die Globale-Erwärmung-Krise viel schlimmer als jemals ist.

Allerdings war diesem so bejubelten Untergangs-Szenario nur ein kurzes Leben beschieden. Ein unabhängiger Analyst, nämlich Nic Lewis, nahm die Studie unter die Lupe und erkannte sofort, dass sie auf einer völlig falschen Mathematik beruht.

Das Global Warming Policy Forum berichtet:

Der unabhängige Klimawissenschaftler Nicholas Lewis hat einen grundlegenden Fehler entdeckt in einer wissenschaftlichen Studie aus jüngster Zeit, welcher in den englisch-sprachigen Medien breiter Raum zur Verfügung gestellt wurde. Die Studie, durchgeführt von einem Team unter Leitung des Ozeanographen bei Princeton Laure Resplandy, behauptet, dass sich die Ozeane schneller erwärmt haben als ursprünglich gedacht. In den Nachrichten vieler Medien, darunter BBC, der New York Times, der Washington Post und des Scientific American, wurde berichtet, dass die Bedeutung dieses Ergebnisses darin liegt, dass sich die Erde sogar noch schneller erwärmen könnte als gegenwärtig eingeschätzt.

Allerdings hat Lewis herausgefunden, dass der Erwärmungstrend in der Resplandy-Studie erheblich von dem Trend abweicht, welcher sich aus den der Studie beigefügten Daten ergibt. Lewis hat viele begutachtete Studien zum Thema Klima-Sensitivität durchgeführt und mit einigen führenden Klimawissenschaftlern der Welt zusammengearbeitet.

Berechnet man den Trend korrekt, ist der Erwärmungstrend keineswegs schlimmer als gedacht – er liegt vielmehr sehr auf der Linie früherer Schätzungen“, sagt Lewis.

Lewis zufolge sind tatsächlich auch einige andere Behauptungen in der Studie, die ebenfalls Eingang in die Medien gefunden hatten, ebenfalls falsch.

Ihre Behauptungen zu der Auswirkung einer schnelleren Ozean-Erwärmung auf Schätzungen der Klima-Sensitivität (und damit der zukünftigen globalen Erwärmung) sowie bzgl. des Kohlenstoff-Budgets sind sowieso falsch, aber das ist ein zweitrangiger Punkt verglichen mit ihrem Berechnungsfehler, von dem wir jetzt wissen“.

Inzwischen hat einer der Ko-Autoren der Studie, nämlich Ralph Keeling, die Flucht nach vorn angetreten und den Fehler eingeräumt – und darauf hingewiesen, dass dieser Fehler die ganze Studie effektiv invalide macht:

Unglücklicherweise haben wir hier Fehler gemacht“, sagte Ralph Keeling, ein Klimawissenschaftler beim Scripps und Ko-Autor der Studie. „Ich denke, die hieraus zu ziehende Hauptlehre ist, dass man so schnell wie möglich den Fehler fixieren muss, wenn man ihn gefunden hat“.

Keeling zufolge besteht das zentrale Problem darin, wie die Forscher mit der Unsicherheit in ihrem Messungen umgegangen waren. Als Folge davon werden die Ergebnisse beeinträchtigt durch zu große Zweifel, um definitiv die Schlussfolgerung der Studie darüber zu stützen, wie viel Wärme die Ozeane nun wirklich mit der Zeit absorbiert haben.

Die zentrale Schlussfolgerung der Studie – nämlich dass die Ozeane sogar noch mehr Energie zurückhalten als das Klimasystem der Erde in jedem Jahr – liegt auf einer Linie mit anderen Studien, welche zu ähnlichen Ergebnissen gekommen waren. Und das hat sich trotz der Fehler kaum geändert. Aber Keeling sagt, dass die falschen Berechnungen der Autoren bedeuten, dass tatsächlich eine viel größere Fehlerbandbreite in den Ergebnissen vorhanden ist. Das wiederum bedeutet, dass die Forscher diesen Ergebnissen viel weniger Gewicht beimessen dürfen als gedacht.

Ich übernehme die Verantwortung für das, was hier geschehen ist, weil es meine Aufgabe ist sicherzustellen, dass jene Art von Details bekannt gemacht wird“. Soweit Keeling.

Es gibt hier aber noch weitergehende Lehren, welche – wie schon so oft zuvor – wahrscheinlich vom Klima-Alarmisten-Establishment vollständig verloren gehen.

Eine Lehre lautet, dass Klimaskeptiker keine wissenschaftlichen Ignoranten sind. Sie weisen eine große Vielfalt unabhängiger Experten auf wie Nic Lewis. Sie alle haben sich bei vielen Gelegenheiten als intellektuell gewandter und besser informiert erwiesen bzgl. Klimawissenschaft als die alarmistischen „Konsens“-Torwächter in Akademien und Institutionen wie NASA und NOAA.

Eine weitere Lehre ist – wie schon seit Klimagate klar ist – dass das Begutachtungs-Verfahren für wissenschaftliche Studien, besonders wenn diese etwas mit Klimawandel zu tun haben, ad absurdum geführt worden ist. Zu oft war es einfach ein kumpelhaftes Begutachtungs-Verfahren, in welchem man sich gegenseitig auf die Schultern klopfte ob der hervorragenden Leistungen. Der Appetit der Alarmisten auf „Beweise“, welche ihre Untergangs-These stützen ist: je ängstigender die Ergebnisse sind, umso wahrscheinlicher ist deren Veröffentlichung.

Eine dritte Lektion lautet, dass man den Mainstream-Medien einfach nicht vertrauen kann, dass sie irgendwie gearteten Zweifeln an alarmistischen Studien Raum geben. Kein Umwelt-Korrspondent verfügt über die erweiterten mathematischen Kenntnisse, welche Nic Lewis an den Tag legte beim Auffinden der Fehler in der Studie.

Aber es bleibt die Tatsache, dass es keinen einzigen Wissenschafts- oder Umwelt-Korrespondenten gibt in Verbindung mit einer Veröffentlichung in den Mainstream-Medien, der darauf vorbereitet ist, Angst erzeugende Studien bzgl. globaler Erwärmung angemessen zu beurteilen. Sie sind allesamt dem alarmistischen Konsens so verhaftet, dass sich fast nie die Mühe machen, eine Presseerklärung zu korrigieren.

Und schließlich, man erwarte nicht, dass dieser beschämende Widerruf auch nur ansatzweise so hervorgehoben wird wie die Original-Story. Genau so funktioniert nämlich die Angst-Masche: Die Hysterie wird stets nur gesteigert, aber niemals zurück gefahren.

Link: https://www.breitbart.com/politics/2018/11/14/delingpole-we-really-muffed-it-scientist-admits-error-in-hyped-global-warming-study/

Übersetzt von Chris Frey EIKE




Klimawandel muss endlich weltweit als Asylgrund anerkannt werden

Beispielsweise ist der Klimawandel mittlerweile eine Fluchtursache

PIK-Direktor Hans Joachim Schellnhuber: [5] Im Mittelpunkt des Politikpapiers steht die Frage, wie eine zeit–gerechte Transformation gestaltet werden kann … Verursacher des Klimawandels in die Pflicht nimmt… Rechtsschutz schaffen für all jene Menschen, die von den Folgen des Klimawandels geschädigt werden; einen Klimapass für die menschenwürdige Migration derer, die aufgrund des Klimawandels ihre Heimat verlassen müssen sowie einen Transformationsfonds für einen gerechten Strukturwandel..
So steht es im aktuellen WBGU-Politik-Strategiepapier [5]: Zeit–gerechte Klimapolitik: Vier Initiativen für Fairness,
welches die an die Unkenntnis und Faktenignoranz ihrer Vorgängerin nahtlos anknüpfende Svenja Schulze (Langzeitstudium: Germanistik und Politikwissenschaft) und der Staatssekretär im BMBF, Georg Schütte (Studium: Medien- und Kommunikationswissenschaftler) vom Forschungsministerium, trotz seiner teils abstrusen Aussagen huldvoll annahmen.

Wissenschaftliche Grundlagen

Dieses WBGU „Strategiedokument“ behauptet im Kapitel „Klimawissenschaftlicher Hintergrund“, dass alleine der menschliche CO2-Ausstoß für die jüngeren Klimabewegungen verantwortlich ist, obwohl sich die abrupt seit ca. einer Millionen Jahre ca. alle 100.000 Jahre regelmäßig wiederkehrenden Eiszeiten ohne CO2-Einfluss entwickelten:
[18]Die Deglaziation wird nicht durch CO2, sondern durch Orbitalzyklen angestoßen.
CO
2 verstärkt jedoch das Ausmaß der Erderwärmung, das nicht durch Orbitalzyklen allein erklärt werden kann und sorgt zudem für eine Verteilung der Erwärmung über den gesamten Globus.

Und obwohl inzwischen bekannt ist, dass die häufige Aussage, in neuerer Zeit beobachtete Wetteränderungen seien in Häufigkeit und Geschwindigkeit in der Vergangenheit „noch nie dagewesen“, oft lediglich auf falschen Analysen beruhen. Das Strategiepapier jedoch „belegt“ dessen angeblich schlimmen Auswirkungen anhand von Studien, welche teils nichts anderes bieten, als neu parametrierte Simulationen, welche immer neue, noch schlimmere Klimazukunftsvisionen als alle bisher bekannten auszuspucken vermögen.

So sehen „Belege“ aus

Extremereignisse

WBGU, Zeit-gerechte Klimapolitik: [5]: … Ein Beispiel für die schädlichen Auswirkungen sind Extremwetterereignisse. Global betrachtet haben in den letzten Jahrzehnten die Stärke und die Häufigkeit solcher Ereignisse zugenommen (Herring et al., 2018).
„Herring et al., 2018“ ist eine Publizierung von 166 Seiten, in denen verschiedenste, weltweite Wetter-Extremereignisse auf statistische Signifikanz menschengemachten Temperatureinflusses analysiert wurden. Oft, indem mittels Simulationsläufen das „wirkliche“ Ereignis (ohne Klimawandel-Einfluss) „ermittelt“ und die Differenz als Beleg für einen menschengemachten Einfluss ausgewiesen wird. Allerdings kann in vielen Fällen keine Signifikanz ausgewiesen werden, was in der Studie dann steht, allerdings nicht im WBGU-Papier.
Herring et al., 2018 (Auszüge):
Model simulations indicate that anthropogenic climate change has made extreme snowstorms less likely over the mid-Atlantic United States. Empirical evidence shows no decline since 1901, with recent storms colder than before.
Grob übersetzt: Modellsimulationen zeigen, dass der anthropogene Klimawandel extreme Schneestürme in den mittelatlantischen Vereinigten Staaten weniger wahrscheinlich gemacht hat. Empirische Beweise zeigen keinen Rückgang seit 1901, wobei die jüngsten Stürme kälter waren als zuvor.
Northeast Brazil experienced profound water shortages in 2016 due to a five-year drought. Using multiple methods, we could not find sufficient evidence that anthropogenic climate change increased drought risk.
Grob übersetzt: In Nordostbrasilien herrschte 2016 aufgrund einer fünfjährigen Dürre ein ausgeprägter Wassermangel. Mit mehreren Methoden konnten wir keine ausreichenden Beweise dafür finden, dass der anthropogene Klimawandel das Dürrerisiko erhöhte.

A warm winter 2015/16 followed by a wet spring enabled exceptionally high ecosystem gross primary productivity on the Iberian Peninsula. Climate-ecosystem model simulations show warming winters and increased CO2 availability benefit ecosystem productivity, but no increase in spring precipitation.
Grob übersetzt: Ein warmer Winter 2015/16, gefolgt von einem nassen Frühling, ermöglichte auf der Iberischen Halbinsel eine außergewöhnlich hohe Bruttoproduktivität des Ökosystems. Klima-Ökosystem-Modellsimulationen zeigen wärmende Winter. Eine erhöhte Verfügbarkeit von CO2 wirkt sich auf die Ökosystemproduktivität positiv aus. Die Niederschlagsmenge im Frühling steigt nicht an.
Das wundert nicht, denn so ist es auch dem IPCC seit dem AR5 (2014) [15] und aktuell wieder bekannt:
EIKE 11. November 2018: Zum jüngsten IPCC-Bericht SR-15 von 2018: Von Klimakatastrophen keine Spur!

Der WBGU vermittelt davon vollkommen unbeeindruckt, jedoch ausschließlich eine Aneinanderreihung alarmistischer Aussagen:
WBGU [5]: … Die bis heute beobachtete globale Erwärmung bringt bereits schwerwiegende Veränderungen mit sich, die
sich ganz unmittelbar auf die Lebensbedingungen der Menschen auswirken. Auch in einer 2°C-Welt sind besonders die ärmsten Bevölkerungsgruppen, die bislang am wenigsten von den Vorteilen der Moderne profitieren konnten, am heftigsten betroffen (King und Harrington, 2018).
Diese Studie (King und Harrington, 2018) nimmt einfach an, dass Extremereignisse zunehmen und simuliert darauf aufbauend „Betroffenheiten“:
King und Harrington, 2018 [13]: [12]Climate change is increasing the frequency of heat waveschanging rainfall patternsraising sea levels and damaging coral reefs through increasing bleaching events.

Aus Daten, wie sie das folgende Bild aus der Studie zeigt, „gelingt“ es den Studienautoren, zunehmende „Betroffenheiten“ zwischen einer Temperaturerhöhung von 1,5 Grad und 2 Grad „auszuweisen“.

Bild 1 [13] S/N Ratio (local change in average temperature (the “signal”) and the variability in temperature (the “noise”)) und Bruttoinlandsprodukt (GDP) verschiedener Länder. Grafik vom Autor um die Hilfslinien 1,5/2 °C und Umrahmung von drei Länderbereichen zwischen 1,5 und 2 Grad Globaltemperatur-Erhöhung ergänzt

Weiter geht es mit Extremwetter.
WBGU [5]: Zudem wird erwartet, dass die Stärke tropischer Wirbelstürme mit der Erwärmung weiter zunimmt – sowohl im Mittel als auch hinsichtlich der Zunahme von Stürmen der obersten Kategorie (Sobel et al., 2016).
Diese Studie „entdeckt“, dass derzeit zwar kein Trend mit zunehmender Intensität messbar ist. Aber sie „weiß“, dass dies nur daran liegt, weil in der Vergangenheit zu wenig Intensität vorlag. Und sie weiß auch den Grund: Aerosole haben die „wahren“ – also ohne die Aerosole viel höher ausgefallenen – Intensitäten unterdrückt. Die Studienautoren wissen angeblich ganz genau, was ihre Vorgänger falsch annahmen. Leider finden deren Nachfolger heraus, dass auch deren Annahmen noch viel falscher sein können:
Kaltesonne 15. November 2018: Klimamodelle rechnen mit falschen Rußdaten
Wie wurden die „richtigen“ Daten in „Sobel et al., 2016 „ermittelt? Durch Rückwärtssimulation. Da „klar“ ist, dass die Intensität mit steigender Temperatur zunehmen muss, fällt die simulierte Wirbelsturmzukunft nun natürlich viel schlimmer aus.
Irgendeine Reflexion, geschweige Erwähnung von Studien mit anderen Feststellungen dazu, ist im WBGU-Strategiepapier nicht zu finden, obwohl es davon ebenfalls genügend gibt:
kaltesonne 3.12.2013: Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen
kaltesonne 21.12.2017: Neue Modellierungsergebnisse: Wirbelstürme werden in Zukunft wohl seltener und weniger intensiv

Meeresspiegel

Weiter geht es mit den „Belegen“. Zum Meeresspiegelanstieg ist es nicht anders. Das „Wissensgremium“ textet dazu, dass die meisten Studien davon ausgehen, „dass sie bis mindestens Ende des 21. Jahrhunderts nur minimale Auswirkungen auf die Überschwemmungen haben werden“. Das entspricht allen Messungen, ist aber nicht alarmistisch. Also werden wieder Studien gelistet, welche es alarmistischer ausweisen.

WBGU [5]: … Alleine das Schmelzen des antarktischen Eisschilds könnte bis zum Jahr 2100 über 1 m und bis 2500 über 15  m zum Meeresspiegelanstieg beitragen (DeConto und Pollard, 2016). Die höchsten Werte sind für die
Tropen zu erwarten, wo unter einem Business-as-usualSzenario ein Großteil der Atolle durch zunehmende
Überflutungen bereits bis Mitte des 21. Jahrhunderts unbewohnbar sein könnte (Storlazzi et al., 2018).
Liest man die zitierte Studie „DeConto und Pollard, 2016“, trifft man auf die Annahmen der Studienautoren, dass die Antarktis mit einer mittleren Landtemperatur von ca. -40 °C und einer bisher gemessenen Temperaturerhöhung von 1,2°C in hundert Jahren [11] auch vom Land her zu schmelzen beginnen könnte. Die Studienautoren geben zwar selbst zu, dass ihre Simulationsergebnisse rein spekulativ sind, aber als „Beleg“ ist so eine „Simulations-Spekulativstudie“ für die WBGU ausreichend, wissend, dass unsere Umweltministerin sicher niemals fachliche Hintergründe nachprüfen würde:
[6] DeConto and co-author David Pollard, a palaeoclimatologist at Pennsylvania State University in University Park, developed a climate model that accounts for ice loss caused by warming ocean currents — which can eat at the underside of the ice sheet — and for rising atmospheric temperatures that melt it from above.
Ultimately, he and Pollard tested how well different versions of their model simulated the past, and then used the ones that performed best to project future sea-level rise. They found that over time, atmospheric warming would become the main driver of ice loss.
“I think their processes
are still a bit speculative, … suggests that Antarctic ice melt driven by rising greenhouse-gas emissions could boost global sea levels by up to 39 centimetres by 2100, and by as much as 3 metres by 2300.

Um die Verschlimmerung zu erreichen mussten die Autoren das Extremszenario RCP8.5 zusätzlich um alarmistische Annahmen erweitern. Das entsprechende Bild in „DeConto und Pollard, 2016“ sieht wie folgt aus:

Bild 2 Figure 5 (Auszug a) Large Ensemble model analyses of future Antarctic contributions to GMSL. a, RCP ensembles to 2500. Quelle: DeConto und Pollard, 2016

Für das typische – zum Beispiel vom DWD in seinem Klimaatlas immer angezeigte – Szenario RCP2.6 liefert auch diese Studie für das Jahr 2100 nur einen simulierten Pegelanstieg von +11 (+-11 cm) und trifft damit gut den Wert, welchen der renommierte – aber nicht alarmistisch geneigte – Pegelfachmann, Prof. (Emeritus) Mörner als wahrscheinlichen Wert angibt.

Was in der Studie – aber nicht beim WBGU – steht: In vergangenen Warmzeiten war der Meeresspiegel bei gleicher CO2-Dichte auch schon 10 … 30 m höher als derzeit. Ohne auch nur entfernt zu wissen, woran das wirklich lag, wird einfach davon ausgegangen, dass bei den aktuellen, etwas über 400 ppm CO2 damit 30 m „zu wenig“ Pegel herrschen. Steigt das CO2 (oder auch nicht), „explodiert“ nach der CO2-Theorie folglich der Seepegel in den Simulationen.
Eine Kausalität, welche allerdings keinesfalls stimmen muss. Und auch nicht naheliegt, da es einen anderen Schluss zulässt: Der CO2 Gehalt hatte in der Vergangenheit (und damit auch heute) keinen signifikanten Einfluss auf den Meerespegel. Seine gravierenden Veränderungen um weit über 100 m haben andere Ursachen. Läge der Pegel im Jahr 2500 wirklich bei +15,65 m, würde sich lediglich wiederholen, was in vergangenen Eiszeiten ohne jegliches menschliche Zutun schon geschehen ist. Im Kampf gegen das CO2 wäre dann allerdings jeder Cent nutzlos vergeudet.

Hemmungslos wird nun allerdings wirklich alles gelistet, wenn es nur irgendwie einen Klimaalarm „belegen“ kann. Auf die Qualität der „Belegführung“ wurde dabei leider wenig geachtet:
WBGU
[5]: … Auch der Anstieg des globalen Meeresspiegels hat sich durch die globale Erwärmung weiter beschleunigt (Chen et al., 2017; Nerem et al., 2018) und wird in den kommenden Jahrzehnten und Jahrhunderten die Lebensbedingungen vieler Millionen Menschen entscheidend prägen (IPCC, 2014)
Nehme man die Studie „Nerem et al., 2018“. Dieser „gelingt“ es wie üblich mit statistischen Tricks – eher Falschanwendung -, aus lange bekannten Daten „neue, bisher unbekannte Inhalte“ herauszurechnen, welche bisher angeblich alle Fachpersonen übersehen haben. Das Ergebnis: viel mehr Klimaalarm, als bisher geahnt wurde.
In einem Artikel wurde das vom Autor bereits rezensiert:
EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)
kaltesonne informierte ebenfalls darüber: Der Meeresspiegel
Mitte Februar ging eine erschreckende Mitteilung durch alle Medien, auch die
Tagesschau mahnte: Der Pegel steigt nicht linear sondern quadratisch und bis Ende des Jahrhunderts haben wir 65 cm zu erwarten! Bei linearem Anstieg mit den heutigen Raten von ca. 3mm/a wären es nur beherrschbare 25 cm. Was steckte dahinter? Die Eilmeldungen gingen zurück auf diese Arbeit unter Führung von  Robert S. Nerem von der Universität Boulder/Colorado. Darin hatten die Autoren die Schwankungen des Meeresspiegels die ENSO erzeugt, aus den Beobachtungen heraus rechnen sollen. Ein ElNino lässt es im Ostpazifik viel mehr regnen und das viele Wasser im Ozean führt zu einem temporären Anstieg des globalen Meeresspiegels. Umgekehrt, bei einer LaNina, wird viel Regenwasser auf Land (besonders Australien)  zwischengespeichert und dieser vorübergehende Mangel im Ozean ist auch global deutlich sichtbar.
Wie Sie in Abb. 6 gut sehen können, hatten wir nahe dem Beginn der Satellitenaufzeichnungen 1998 einen Wasserüberschuss, nach 2010 einen Mangel und 2017 wieder zu viel. Die beteiligten Autoren entfernten jedoch diese natürlichen Schwankungen nicht vollständig, wie sich bald
herausstellte. Dadurch ging der jüngste El Nino zumindest teilweise in die Rechnungen ein und beeinflusste den Trend, ebenso die LaNina 2011/12 und der ElNino 1997/98. Diese zeitliche Verteilung muss einen wachsenden Trend produzieren. Mit diesem Lapsus in den Daten legte man in Nerem et al (2018) einen quadratischen Fit und extrapolierte flugs bis 2100. Ein solches Verfahren impliziert einen Anfängerfehler, den man „Overfitting“ nennt. Eine viel zu kleine  Datenbasis von 1993 bis 2017, hier auch noch fehlerbehaftet, erzeugt einen viel zu sicher geglaubten Trend bis 2100.

Weil auch dies immer noch nicht immer für einen großen Alarm „reicht“, dürfen beim WBGU Studien auch neue, schlimmer als die schlimmsten IPCC-Szenarien simulierende Zukunftsannahmen fabulieren: „scenarios, respectively (2223); and RCP8.5+icesheet collapse“ ..

Klimaflüchtlinge

Entsprechend sind die Ableitungen der Anzahl Klimaflüchtlinge:
WBGU [5]: … Obwohl allein schon die Definition einer Migrationsentscheidung aufgrund des Klimawandels schwierig ist und deshalb auch die Zahlen in der Literatur stark voneinander abweichen (Adger et al., 2014), soll hier beispielhaft eine Abschätzung der Weltbank zu Binnenmigration genannt werden: Bis zum Jahr 2050 könnten in Afrika südlich der Sahara, Südasien und Lateinamerika mehr als 143 Mio. Menschen klimabedingt zum Aufbruch gezwungen werden (Rigaud et al., 2018).
Von der in der wissenschaftlichen Wirklichkeit diskutierten Problematik solcher Zählungen findet sich wieder keine Spur:
kaltesonne 14.3.2018: ETH Zürich zum Konzept eines klimawandelbedingten Flüchtlingsanstiegs: Spekulativ und nicht ausreichend durch solide Daten untermauert
kaltesonne: Ausführliche Kritiken an der Asyl-Prognose in „Science“
… In der aktuellen Ausgabe von „Science“ hatte ich eine Studie entdeckt, die mir seltsam vorkam. Anhand einer simplen statistischen Korrelation sagen die beiden Autoren die Auswirkung der globalen Erwärmung auf die Zahl von Flüchtlingen vorher, die aus Nordafrika nach Europa ziehen.
Meine Recherche ergab, dass die Studie tatsächlich äußerst zweifelhaft ist. Ich zitiere
in meinem Artikel auf SPIEGEL ONLINE diverse Experten. Weil ich naturgemäß jeweils nur kleine Teile ihrer Aussagen zitieren konnte, stelle ich die interessanten Stellungnahmen der von mir befragten Wissenschaftler hier in voller Länge vor:
Weiterlesen im Blog von Axel Bojanowski.
Teil 2 des Weihnachtswunders steuerte der ansonsten in Klimafragen so unkritische Focus bei.
Auch dort lehnte man die neue Arbeit ab und verwahrte sich gegen aktivistisch gefärbte Forschung. War Michael Odenwald bereits im Weihnachtsurlaub? Focus am 22. Dezember 2017:
“Hochspekulativ und dumm”: Forscher zerlegen Studie, die neue Flüchtlingswelle prognostiziert
[..] Doch nun regt sich in der wissenschaftlichen Gemeinde Zweifel an der Studie. William Briggs von der Universität Cornell sagte gegenüber dem “Spiegel“: “Die dümmste, idiotischste Anwendung von Statistik, die ich seit Langem gesehen habe.” Auch Tobias Ide vom Georg-Eckert-Institut in Braunschweig warnt davor, “den Zusammenhang zwischen wärmeren Temperaturen und Migration derart vereinfacht darzustellen”. Die Wissenschaftlicher der Columbia University hatten demnach lediglich analysiert, wie hoch und lange die Temperatur in den Maisanbaugebieten bestimmter Länder über 20 Grad gestiegen war – und dann festgestellt, dass in solchen Zeiten mehr Asylanträge aus diesen Ländern gestellt wurden.
Ganzen Artikel auf focus.de lesen.

Auffällig ist, dass das Hauptproblem vieler in den Vulnerabilitätssimulationen betrachteten Länder – die extreme Geburtenrate und zunehmend auch „Sozialleistungsmigration“ [16] – (bewusst?) keine Erwähnung und Betrachtung findet. Für die WBGU gilt für alle aktuellen und zukünftigen Übel als Ursache alleine das anthropogene CO2.

Die Klima-Flüchtlingskrise

Zur Begründung wiederholt das Strategiepapier einfach alle bekannten Allgemeinplätze:
WBGU
[5]: .. Im 21. Jahrhundert stehen wir am Beginn einer Flüchtlingskrise, die sich bezüglich Ursache und Dynamik nicht mit der des frühen 20. Jahrhunderts vergleichen lässt, aber schlussendlich zu noch größerem Leid führen könnte. Die Rede ist von der anthropogenen Erderwärmung, die den Meeresspiegel steigen lässt, den globalen Wasserkreislauf verändert, die Extremwetterregime verschärft ganze Vegetationszonen verschiebt und dadurch die Lebensgrundlagen von hunderten Millionen Menschen bedroht. Bereits heute, da die planetare Oberflächentemperatur nur um etwa 1°C gestiegen ist, kommt es zu klimabedingten Migrationsbewegungen (Ionesco et al., 2017; IDMC und NRC, 2017).
Die durch den Bürgerkrieg in Syrien ausgelöste Flüchtlingskrise im Nahen Osten und Europa dürft schon ursächlich mit dem Klimawandel verknüpf sein, denn eine Jahrtausenddürre im „Fruchtbaren Halbmond“ verschärft ab 2011 die sozialen und politischen Spannungen in der Region (Kelley et al., 2015, 2017).
Auch dazu keinerlei Erwähnung kritisch eingestellter Darstellungen:
EIKE 22.02.2016: SPIEGEL ONLINE: Der Klimawandel ist nicht für den Syrienkrieg verantwortlich
EIKE 21.09.2016: Ist der „Arabische Frühling“ wirklich wegen unserem CO2 gescheitert? Eine von Herrn Rahmstorf begrüßte Studie legt es nahe
kaltesonne 29.2.2016: Deutsches Klimakonsortium pfeift Rahmstorf zurück: Klimawandel ist nur ein Treiber von vielen im Syrienkonflikt
Und weiter geht es im ausschließlich klimaalarmistischen Stil.
WBGU
[5]: .. Völlig unbestreitbar ist der kausale Zusammenhang zwischen dem menschengemachten Klimawandel und der Existenzbedrohung flacher Inselstaaten. Selbst wenn die Begrenzung der Erderwärmung auf 2°C gelingen sollte, dürft ein Meeresspiegelanstieg im Meterbereich ganze Territorien versenken – und damit nationale Identitäten im konventionellen völkerrechtlichen Sinn auslöschen (Storlazzi et al., 2018). Die entsprechenden Staatsvölker können ihr Überleben dann nur durch Verlassen ihrer schwindenden Länder sichern.

Während aktuell keine AGW-zuordenbare Bedrohung festgestellt werden kann:
EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)
„gelingt“ es dieser zitierten Studie „Storlazzi et al., 2018“ in Simulationen und unter Annahme besonders schlimmer Randbedingungen und Verstärkungseffekte, Zukunftsbedrohungen zu erzeugen.

Bild 3 Storlazzi et al., 2018: Fig. 5 The projected percentage of Roi inundated because of SLR and flooded annually because of the combined effects of waves and SLR through time for different SLR and climatic scenarios.

Eine solche, rein tendenzielle „Studie“ müsste man ablehnen

Jeder Vernünftige (zumindest der Autor) würde das Papier postwendend zurückweisen und dem Beirat auferlegen, erst einmal eine neutral bewertende und damit glaubhafte Darlegung zu erarbeiten, beziehungsweise diesen Beirat als für solche Aufgaben wohl ungeeignet in Frage stellen. Dazu muss man kein Fachmann sein, sondern nur eben einige der zitierten, „belegenden“ Studien orientierend sichten und sich über den wirklichen Wissensstand, vor allem die weltweiten Messdaten informieren.

Wenn es um Klimapolitik geht, sucht man solches im Berliner Politikbetrieb leider vollkommen vergeblich. Und die Auswahl der Beiratsmitglieder erklärt es auch: Die „Fachwissenschaft“ Klima – hier allerdings nur im Rahmen von Klima-Simulationen, denn das PIK forscht nicht wirklich übers Klima – ist alleine durch Herrn Schellnhuber vom PIK repräsentiert, der Rest sind wohl ohne Übertreibung „Nachläufer“ zur Umsetzung seiner Visionen [10].
Beirat des WBGU
Prof. Dr. Sabine Schlacke (Vorsitzende): Rechtswissenschaftlerin
Prof. Dr. Dirk Messner (Vorsitzender): Politikwissenschaftler
Prof. Dr. Martina Fromhold-Eisebith: Wirtschaftsgeographin
Prof. Dr. Ulrike Grote: Agrar- und Entwicklungsökonomin
Prof. Dr. Ellen Matthies: Psychologin
Prof. Dr. Karen Pittel: Ökonomin
Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber CBE: Physiker
Prof. Dr. Ina Schieferdecker: Digitalisierungswissenschaftlerin
Prof. Dr. Uwe Schneidewind: Nachhaltigkeitswissenschaftler

Doch das Gegenteil passiert

C. Roth ist dafür nur eines der vielen möglichen Beispiele. Wohl überall, wo man das Hirn abschalten und einem GRÜNEN, oder Antifa-Mainstream hinterherlaufen kann, ist sie dabei. Da dürfen die Klimaflüchtlinge nicht fehlen.
WELT 09.11.2018: [1] Vor dem Parteitag der Grünen hat Claudia Roth eine Ausweitung des Asylrechts etwa für Klimaflüchtlinge gefordert.
Vor dem Grünen-Parteitag in Leipzig fordert die frühere Vorsitzende Claudia Roth, das Asylrecht zu erweitern. „Wir müssen die Kriterien für das Recht auf Asyl ausbauen. Beispielsweise ist der Klimawandel mittlerweile eine Fluchtursache“, sagte die Bundestagsvizepräsidentin dem Redaktionsnetzwerk Deutschland. Die EU müsse als eine Hauptverursacherin der Klimakrise mit einer Initiative zur Aufnahme bedrohter Menschen vorangehen.

Der GRÜNE Nachwuchs ist nicht besser

WELT 09.11.2018: [1]Unterstützung bekam sie von Grüne-Jugend-Chefin Ricarda Lang. Erstes Ziel müsse sein, dass durch eine „radikale Klimapolitik“ Menschen am besten erst gar nicht in die Lage gebracht werden sollten, ihre Heimat zu verlassen. Für Inselstaaten wie Kiribati reiche das aber nicht mehr aus, sie würden bald unbewohnbar. „Diese Menschen müssen die Chance zur frühzeitigen und würdevollen Migration erhalten“, sagte sie …
Man würde meinen, im Zeichen von Internet und google kämen solche Personen irgendwann doch noch auf die Idee, sich die leicht erreichbaren Fakten anzusehen. Wenn es allerdings die WBGU-Beiratsmitglieder, welche sich alle als Professoren ausweisen schon nicht machen, und Umweltminister*innen, sowie die regelmäßig auf Spesen zu den Klimagipfeln eilenden ca. 30.000 „Fachpersonen“ ebenfalls nicht:
[17] EIKE 27.11.2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 1 (2)

Wie kann man es dann von politischen (möchtegern-)Größen erwarten. Leider summiert sich Halbwissen statistisch nicht und damit bleibt ideologiebedingt bestehen, was wir aktuell schon haben.
EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife
Es lässt sich zeigen, dass ausgerechnet das laut dieser Frau Lang „bald unbewohnbare“ Kiribati mit einem gemessenen Pegelanstieg von 0,58 mm/pa (5,8 cm in hundert Jahren) die niedrigste Anstiegsrate aller Pazifikinseln (und weit unter dem Weltdurchschnitt) aufweist. Einfach nur unverschämt, wie daraus abgeleitet wird, dass diese Atollgruppe „bald unbewohnbar“ würde (und es die Redaktion der „WELT“ unkommentiert weitergibt).

Bild 4 [14] Tidenpegel Kiribati und eine längere Pegelreihe von Neuseeland. Alle Pegel vom Autor auf das Jahr 2012 normiert. Quelle: PSMSL Viewer

Immer mehr tropische Stürme können auch nicht sein:

Bild 5 [14] Anzahl von Wirbelstürmen der Kategorie 5 in der Region Südpazifik/Australien. Quelle: Paul Homewood / Wikipedia

Und ein „noch nie“ in der jüngeren Klimageschichte dagewesener Pegel ebenfalls nicht:

Bild 6 [14] Langfristiger globaler Meerespegelverlauf und CO2-Konzentration. Quelle: No Tricks Zone: AGW ‘Disaster’ Predictions RecycledVerlauf eines Proxis der Marshall-Inseln im westlichen Pazifik

Es gibt kein Problem, welches GRÜNE nicht erkennen und lösen

Jeder sollte sich die 10 Minuten Zeit nehmen und das Video der Präsentation dieser GRÜNEN Europawahl-Kandidatin ansehen.

Bild 7 GRÜNE Europawahlkandidatin. Rede (und Link zu YouTube) Ska Keller – Rede auf dem Bundesparteitag 2018 in Leipzig

Man muss sich allerdings trotzdem fragen, ob die GRÜNEN nicht zuletzt noch von einer inzwischen außer Kontrolle geratenen Kanzlerin überholt werden:
Tichys Einblick 13. November 2018: Migration – einklagbares Recht unter dem Dach der Bundesrepublik

Quellen

[1] WELT 09.11.2018: Claudia Roth fordert eine Ausweitung des Asylrechts

Stand: 09.11.2018

[2] Achgut 09.11.2018: Wenn das Klima in die Flucht treibt

[3] NDR Talkshow: Grünen-Vorsitzende Annalena Baerbock

[4] ScienceScepticalBlog 28. September 2018: Der Meeresspiegelanstieg

[5] PIK Nachrichten 31.08.2018:Zeit-gerechte Klimapolitik: vier Initiativen für Fairness

[6] DeConto und Pollard, 2016, Nature 2016: Antarctic model raises prospect of unstoppable ice collapse Sea levels could rise by more than 15 metres by 2500 if greenhouse-gas emissions continue to grow.

[7] EIKE Der jüngste IPCC-Bericht SR-15 von 2018: Von Klimakatastrophen keine Spur!

[8] Storlazzi et al., 2018: Most atolls will be uninhabitable by the mid-21st century because of sea-level rise exacerbating wave-driven flooding

[9] WBGU Politikpapier 9, 2018: Zeit–gerechte Klimapolitik: Vier Initiativen für Fairness

https://www.wbgu.de/de/pp9/

[10] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

[11] Umweltbundesamt: Das Klima der Antarktis

[12] Resilience: King und Harrington, 2018 Exceeding 1.5C of Global Warming will Hit Poorest the Hardest

[13] King und Harrington, 2018: The Inequality of Climate Change From 1.5 to 2°C of Global Warming

[14] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife
[15] EIKE, 20.06.2017: Gegen Klimaflüchtlinge helfen nur noch C. Juncker und der Pariser Klimavertrag Alternativ: Nicht der Klimawandel bedroht uns, sondern unsere Politiker

[16] EIKE 09. Juli 2018: Überbevölkerungsprobleme bekämpfen wir ganz aktiv – durch noch mehr CO2-Reduktion

[17] EIKE 27.11.2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 1 (2)

[18] Klimafakten.de: Behauptung: „Der CO2-Anstieg ist nicht Ursache, sondern Folge des Klimawandels“




FACTFULNESS: Eine Buchre­zension

Es enthält fabelhafte Übersichten:

„Inspirierend und aufschlussreich sowie angefüllt mit lebendigen Anekdoten und bewegenden Stories ist Factfulness ein eindringliches und grundlegendes Buch, welches die Art und Weise, wie man die Welt sieht, ändern wird, und welches einen in die Lage versetzt, auf die Krisen und Gelegenheiten in der Zukunft zu reagieren“.

In Factfulness bietet der Professor für Internationale Gesundheit und das globale TED-Phänomen* Hans Rosling zusammen mit seinen vieljährigen Mitarbeitern Anna und Ola eine radikal neue Erklärung, warum dies passiert. Sie enthüllen die zehn Instinkte, welche unsere Perspektive verzerren – von unserer Neigung, die Welt in zwei Lager zu teilen (normalerweise irgendeine Version von uns und denen) bis hin zu der Art und Weise, mit der wir Medien konsumieren (wo Angst regiert) und wie wir Fortschritt aufnehmen (indem wir glauben, dass es mit den meisten Dingen immer schlechter wird).

[*TED = Technology, Entertainment and Design. Daraus wurde das hier angesprochene weltweite TED-Phänomen. Mehr zu TED hier. Anm. d. Übers.]

Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.

Es stellt sich heraus, dass die Welt mit all ihrer Unvollkommenheit in einem viel besseren Zustand ist als wir denken. Das heißt nicht, dass es keine realen Probleme gibt. Aber wenn wir uns die ganze Zeit über alles Sorgen machen anstatt eine auf Fakten basierende Weltsicht zu begrüßen, können wir unsere Fähigkeit verlieren, uns auf die Dinge zu konzentrieren, die uns am meisten bedrohen“.

Hans Rosling, der vor seinem Tod im Februar 2017 ein vielgefragter Mann in den TED-Gesprächskreisen war, sagte: „Dieses Buch ist mein letzter Kampf in meiner lebenslangen Mission, verheerende Ignoranz zu bekämpfen“.

FACTFULNESS erregt viel Aufmerksamkeit und viele Hinweise auf dasselbe an vielen bedeutenden Stellen. Bill Gates hat einen You-Tube-Film produziert, in welchem das Buch empfohlen wird. (Ich gebe zu, dass die Empfehlung ausgerechnet von Bill Gates mich zunächst davon abgehalten hat, das Buch überhaupt anzuschauen).

Es ist ein wunderbares Buch – meine Frau und ich haben es gemeinsam gelesen. Wir sind seit 45 Jahren Lebensgefährten – und vertreten dennoch immer noch erheblich voneinander abweichende Standpunkte bzgl. der Welt um uns herum. Wir beide jedoch empfinden das Buch übereinstimmend als informativ und – ja, dass die Lektüre einfach auch Spaß macht.

Rosling war sein Leben lang Pragmatiker – er sieht und trachtet nach pragmatischem Verständnis und pragmatischen Lösungen. Er sieht, dass alles besser wird, nicht schlechter. Sein Hintergrund ist der eines Profis für öffentliche Gesundheit in weltweitem Maßstab – er bekämpft Epidemien und katastrophale endemische Krankheiten an weit entfernten Stellen.

Er warnt uns vor zehn geistigen schlechten Gewohnheiten oder „Instinkten“:

10 „Daumenregeln“ in FACTFULNESS:

  1. Gap Instinct [Gap = Lücke, Graben]

  2. Negativity Instinct

  3. Straight Line Instinct

  4. Fear Instinct [Fear = Angst, Furcht]

  5. Size Instinct

  6. Generalization Instinct

  7. Destiny Instinct [Destiny = Schicksal]

  8. Single Instinct [single = einzig, {einzigartig}]

  9. Blame Instinct [Blame = Schuld]

  10. Urgency Instinct [Urgency = Dringlichkeit]

Ich habe hier bei WUWT viele Beiträge zu den gleichen Themen gepostet – in welchen ich die Fallstricke beim Ausweiten von Trends über die Daten hinaus beschrieb, ebenso wie den Missbrauch von Mittelwerten (und von Mittelwerten der Mittelwerte); ich habe die Neigung beklagt zu versuchen, komplexe Dinge in eine einzige Zahl zu pressen; wie Äpfel und Orangen mit einander verglichen (und gemittelt!) werden; ich habe gegen die Instinkte der Medien angekämpft, „Fake News“ zu verbreiten und die guten Nachrichten zu ignorieren, und auch den Trugschluss, grob vereinfachte Lösungen für komplexe Probleme anzubieten.

Rosling erzählt interessante Anekdoten aus der Zeit seiner Reisen und der Untersuchung von gesundheitsbezogenen Dingen auf der ganzen Welt, was die Lektüre so interessant macht.

Die Al Gore-Story

Hans Rosling war zur gleichen Zeit im TED-Gesprächskreis aktiv wie unser Freund Al Gore. Rosling erzählt die folgende interessante Story in seinem Buch (in der Erstausgabe auf Seite 229):

Eine bequeme Dringlichkeit

Wir müssen Angst erzeugen!“ Genau das sagte Al Gore zu mir gleich zu Beginn unserer ersten Unterhaltung darüber, wie man den Klimawandel unter die Leute bringt. Das war im Jahre 2009, und wir befanden uns hinter den Kulissen einer TED-Konferenz in Los Angeles. Al Gore forderte mich auf, ihm zu helfen und Gapminder’s bubble graphs zu verwenden, um den Worst Case einer zukünftigen Auswirkung steigender CO2-Emissionen an die Wand zu malen …

Ich stimmte mit ihm völlig überein, dass rasche Maßnahmen bzgl. Klimawandel erforderlich seien, und ich war begeistert von dem Gedanken, mit ihm zusammenzuarbeiten.

Aber ich konnte mich nicht dem anschließen, was er gefordert hatte.

Ich mag keine Furcht … Furcht plus Dringlichkeit führen zu dummen, drastischen Entscheidungen mit unvorhersehbaren Nebeneffekten. Klimawandel ist dafür zu wichtig. Dafür braucht es systematische Analysen, durchdachte Entscheidungen, inkrementelle Entscheidungen und sorgfältige Evaluierungen. Und ich mag keine Übertreibungen, unterminiert diese doch die Glaubwürdigkeit gut belegter Daten: in diesem Falle, dass die Daten zeigen, dass der Klimawandel real ist, dass er großenteils durch Treibhausgase infolge menschlicher Aktivitäten verursacht ist und dass die Ergreifung rascher und umfassender Maßnahmen jetzt billiger wäre als zu warten, bis ein kostspieliger und inakzeptabler Klimawandel da ist. Ist die Übertreibung erst einmal entdeckt, wenden sich die Leute vollständig ab.

Sieh mal an, trotz all der Lügen der AGW-Aktivisten-Bande lag Michael Crichton nicht verkehrt mit seinem Buch State of Fear. Wir haben hier einen direkten Beweis dafür, dass Al Gore aktiv Hilfe und Zusammenarbeit suchte bei der Erzeugung eines Zustands der Angst in der allgemeinen Öffentlichkeit mittels der Verbreitung übertriebener Worst Case-Szenarien.

Zu seinen Gunsten und obwohl er kein Klimawandel-Leugner ist (wie ich auch) oder in seinem Falle nicht einmal ein Klimaskeptiker ist, besteht Hans Rosling darauf, dass …

er niemals ein Worst Case-Szenario beschwören würde ohne auch ein mögliches Best Case-Szenario darzulegen. Verbreitet man nur Worst-Case-Szenarien und – noch schlimmer – geht man damit über wissenschaftlich basierte Vorhersagen hinaus, würde das außerhalb der Gapminder-Mission liegen, den Menschen zu helfen, die grundlegenden Fakten zu verstehen. Al Gore machte unermüdlich weiter, seine Angstblasen jenseits der Experten-Vorhersagen durchzudrücken. Das kam in vielen Gesprächen zum Ausdruck, bis es mir zu viel wurde und ich die Diskussion beendete: „Mr. Vizepräsident. Keine Zahlen, keine Blasen“.

Hans Rosling selbst wies darauf hin, dass obwohl in der Ich-Form geschrieben, dieses Buch tatsächlich im Wesentlichen die Arbeit seines Sohnes und seiner Schwiegertochter war. Die Autoren stützen sich schwer auf „Experten-Meinungen“ und „von Experten genannte Statistiken (Zahlen)“. Das tat er trotz seines Ratschlags, sich vor Experten in Acht zu nehmen und euphemistisch feststellte: „Manchmal sind ,Experten‘ nicht einmal Experten auf ihrem eigenen Gebiet. Viele Aktivisten gerieren sich als Experten. Ich habe auf allen möglichen Konferenzen Vorträge gehalten, weil ich glaube, dass gebildete Aktivisten absolut entscheidend sein können, die Welt zu verbessern … Fast jeder Aktivist, den ich je kennen gelernt habe, übertreibt das Problem, dem sie sich verschrieben haben, ob nun freiwillig oder – wahrscheinlicher – unwissentlich“.

Meiner Ansicht nach hat das Team von Rosling, welches viele Jahre lang direkt mit Gesundheits-Organisationen der UN gearbeitet hatte, nicht erkannt, dass das UNFCCC und das IPCC selbst zu „Aktivisten“-Gruppen geworden sind und genau so agieren, wie er es oben beschrieben hat. Kleine Sache: nach den Faustregeln von Roßling in FACTFULNESS müssten die IPCC-Forderungen absolut und vollständig zurückgewiesen werden, und zwar als „törichte, drastische Entscheidungen mit unvorhersehbaren Nebeneffekten.

Unter dem Strich

Das ist ein großartiges Buch, leicht zu lesen und aufklärend – man wird es genießen, während man gleichzeitig einige neue Erfahrungen bzgl. kritischem Denken erfährt (oder auffrischt). Mit weniger als 15 Dollar ist es gutes Geschäft für die Wohnung, und ein noch besserer Handel ist es, wenn man sich das Buch „absolut gratis“ in der öffentlichen Bücherei vor Ort ausleiht.

Schlussbemerkung des Autors

Ich empfehle dieses Buch, aber man werfe mir nicht vor, mit allem einverstanden zu sein, was Roßling darin schreibt.

Link: https://wattsupwiththat.com/2018/11/14/factfulness-a-book-review/

Übersetzt von Chris Frey EIKE

Anmerkung von Michael Limburg: Ich habe mir das Buch auch sofort gekauft und auch in einem Zug durch gelesen. Deshalb kann ich die Meinung des Rezensenten – ungeachtet der Meinung von Hans Rosling zum Klimawandel nur voll bestätigen.




Kalifornien, Tempera­turen und verbrannte Flächen

Anstatt mir also die größten Brände vorzunehmen schaute ich auf die in jedem Jahr verbrannten Flächen. Diese kann man hier einsehen. Aus dem Zeitraum 1959 bis 2016 sowie den letzten beiden Jahren liegen Daten hier und hier vor.

Als Erstes unterzog ich die Daten einer multiplen Regression, sowohl für Temperatur als auch für Regenmenge, jeweils von Mai bis Oktober. Damit wollte ich herausfinden, ob man damit die verbrannte Fläche abschätzen kann. Zu meiner großen Überraschung ergab sich, dass die Regenmenge nicht signifikant mit der verbrannten Fläche korreliert ist. Das Ergebnis sieht so aus:

Die Temperatur ist signifikant (rechte Spalte, p-Wert 4.52e-7), aber die Regenmenge ist alles andere als signifikant (p-Wert = .19). Daher ignorierte ich die Regenmenge für die weitere Analyse.

Als Nächstes kartographierte ich die verbrannte Fläche und unterzog die Daten einer linearen Regression. Das Ergebnis zeigt Abbildung 1:

Abbildung 1: Verbrannte Gesamtfläche nach Jahren von 1959 bis 2018 (rote Linie) und Trendlinie linearer kleinster Quadrate (blaue Linie).

Man beachte, dass der p-Wert dieser Linie ziemlich gut ist (rechte Spalte, p-Wert = .00000004). Der R²-Wert (untere Linie) zeigt dass die gerade Linie 41% der Varianz der verbrannten Fläche erklären kann.

Dann betrachtete ich den Zusammenhang zwischen Temperatur und verbrannter Fläche. Das Ergebnis zeigt Abbildung 2:

Abbildung 2: Verbrannte Gesamtfläche nach Jahren, 1959 bis 2018 (rote Linie) und Fläche geschätzt aus den Variationen der Temperaturen von Mai bis Oktober (blaue Linie).

Komischerweise sieht das viel besser aus als die gerade Linie … aber man beachte, dass es lediglich eine geringe Zunahme der durch die Varianz zu erklärenden Fläche gibt (44% Varianz erklärbar durch Temperaturen vs. 41% für die gerade Linie). Dies beweist erneut, dass unsere Augen eine Verteilung auch dann erkennen wollen, wenn gar keine da ist … man denke an die Sternbilder am Nachthimmel als primäres Beispiel dafür.

Und schließlich betrachtete ich noch die Fehler in der auf den Temperaturen basierenden Abschätzung der Größe der verbrannten Fläche und verglich diese mit der tatsächlich verbrannten Fläche.

Abbildung 3: Fehler in den Schätzungen der verbrannten Fläche nach Jahren, 1959 bis 2018, minus der verbrannten Fläche geschätzt aus den Variationen der Temperatur von Mai bis Oktober. Die rote Linie markiert eine volle Halbwertsbreite [Full-Width Half Maximum {FHWM}?] einer Gauss-Verteilung der Daten. Die vertikale gepunktete blaue Linie markiert das Jahr 1994, als die Bewirtschaftung des Waldes in weiten Teilen des Staates [Kalifornien] gestoppt wurde, und zwar in dem vergeblichen Versuch, den Fleckenkauz zu schützen.

Die Seltsamkeit der Graphik von Abbildung 3 ist Folgende: Im ersten Teil der Aufzeichnung bis zu Beginn des 21. Jahrhunderts überschätzt die Temperatur allgemein die verbrannte Fläche.

Aber danach hat die Temperatur die Größe der verbrannten Fläche erheblich unterschätzt.

Und das ist ein klarer Beweis dafür, dass die jüngsten großen Flächenbrände nicht Variationen der Temperatur geschuldet sind, wie es weit verbreitet behauptet wird.

Schlussfolgerungen:

Variationen der Regenmenge von Mai bis Oktober verbessern nicht die Abschätzung der verbrannten Fläche. Mit anderen Worten, die Regenmenge von Mai bis Oktober leistet keinen Beitrag zur Abschätzung der verbrannten Fläche aus der Temperatur allein.

Die Variationen der Temperatur von Mai bis Oktober lassen eine nur wenig bessere Abschätzung der Variationen der verbrannten Fläche zu als eine gerade Linie.

Die jüngsten, sehr großen verbrannten Flächen sind keine Folge von Variationen der Temperatur von Mai bis Oktober. Wie ich in meinem vorherigen Beitrag erläuterte (hier, auf Deutsch beim EIKE hier), sind Temperaturänderungen von Dekade zu Dekade viel zu gering, um die jüngste Zunahme der Größe der verbrannten Fläche zu erklären. Wir müssen anderswo nach den Ursachen dieser großen Brände suchen.

Aktualisierung: Manch einer hat Probleme mit den von mir herangezogenen Daten, darum sind hier noch ein paar:

Ich bin jetzt zu Hause, und der Rauch ist nicht ganz so schlimm. Nicht so schlimm wie es im Central Valley oder in San Francisco war. Wir befinden uns in der gelb markierten Zone an der kalifornischen Küste nördlich von San Francisco. Hier gibt es eine Karte der Rauchverteilung, darin klicke man auf „Vertically Integrated Smoke” oder “Near Surface Smoke”.

Abbildung 5: Rauch-Karte. Rot markiert ist das Gebiet mit der stärksten Rauchentwicklung. Das Camp Fire brennt nordöstlich von Sacramento.

Meine besten Wünsche und Hoffnungen gelten all jenen, die von den Bränden betroffen sind, und ich kondoliere all jenen, welche Freunde, die Familie oder ihre Wohnungen verloren haben.

Link: https://wattsupwiththat.com/2018/11/14/california-temperatures-and-acres-burned/

Übersetzt von Chris Frey EIKE