Spekulationen vom Statistischen Bundesamt

Das Statistische Bundesamt konstruiert auch in der aktuellen Pressemitteilungzur neuesten Sonderauswertung vom 08.05.2020 für den Zeitraum 01. Januar 2016 bis 19. April 2020 einen angeblich naheliegenden Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und Corona. Es bleibt damit seiner unseriösen, manipulativen Linie treu. Denn ein solcher Zusammenhang liegt nicht zwingendnahe.
Wie schon an dieser Stelledargelegt, lässt sich die leichte Übersterblichkeit auch ohne Corona mit den unterdurchschnittlichen Sterbefallzahlen bis Ende März 2020 und demographischen Erwägungen erklären. Diesen naheliegenden Erklärungsansatz verschweigt das Bundesamt – genauso wie den sehr bedeutsamen Fakt, dass die leichte Übersterblichkeit nur die Altersgruppe ab 80 Jahre betrifft. Man merkt die Absicht und ist verstimmt.
Hier zunächst die vom Statistischen Bundesamt verlautbarten Fallzahlen gemäß Sonderauswertungvom 15.05.2020 zu den Sterbefällen vom 01. Januar 2016 bis 19. April 2020:
Rumpf-Jahr 01.01.-12.04.:
2016: 290.641   (Altersgruppe ab 80 J.: 157.273)
2017: 315.576   (Altersgruppe ab 80 J.: 180.498)
2018: 330.152   (Altersgruppe ab 80 J.: 189.109)
2019: 301.558   (Altersgruppe ab 80 J.: 172.709)
2020: 304.354   (Altersgruppe ab 80 J.: 178.073)
nur Zeitraum 30.03.-19.04. 
2016: 53.987  (Altersgruppe ab 80 J.: 29.031)
2017: 51.050  (Altersgruppe ab 80 J.: 27.884)
2018: 58.095  (Altersgruppe ab 80 J.: 32.843)
2019: 54.579  (Altersgruppe ab 80 J.: 30.986)
2020: 59.024  (Altersgruppe ab 80 J.: 34.991)

Keine Übersterblichkeit bisher im Jahr 2020

Demnach ist im Zeitraum 01.01. bis 19.04.2020 keine erhöhte Sterblichkeit zu erkennen – weder bei der Gesamtbevölkerung noch bei den über 80jährigen. Erst recht nicht, wenn man berücksichtigt, dass das Jahr 2020 einen Tag mehr hatte als die Jahre 2017-2019.
In dem 3-Wochen-Zeitraum vom 30.03. bis 19.04.2020 ist zwar eine über dem Durchschnitt liegende Sterblichkeit zu verzeichnen. Sie betrifft aber nur die Altersgruppe ab 80 Jahre. Die Altersgruppen bis 80 Jahre sind nicht betroffen, nicht einmal die Altersgruppe 75-80 Jahre.
Wenn Menschen aus der Altersgruppe ab 80 Jahre sterben, dann naturgemäß häufig an Krankheiten.  Auch an COVID-19 selbstverständlich. Aber eine – besorgniserregende –Übersterblichkeit ergibt sich daraus nicht. Ohnehin gibt es einige andere Gründe, die die erhöhten Sterbefallzahlen bei über 80jährigen seit Ende März 2020 erklären können.

Erklärungen für leichte Übersterblichkeit bei der Altersgruppe 80plus

Einer der Gründe ist der Nachholeffekt. Vom 01.01. bis 29.03.2020 starben nämlich bei den über 80jährigen erheblich weniger Personen (143.082) als im Durchschnitt desselben Zeitraums der Jahre 2017 bis 2019 (150.201), obgleich das Jahr 2020 sogar einen Tag mehr hat. Das gleicht sich jetzt augenscheinlich an.
Ein anderer Grund ist die starke Zunahme der Anzahl der Personen in der Altersgruppe über 80 Jahre. Mehr sehr alte Menschen bedeuten zwangsläufig mehr Tote in dieser Altersgruppe. Das ist der natürliche Lauf der Dinge. Laut dieser Auswertungdes Statistischen Bundesamts ist die Zahl der über 80-jährigen wie folgt gestiegen:
31.12.2012:  4.348.282
31.12.2015:  4.766.190
31.12.2018:  5.396.249
31.12.2019:  noch nicht veröffentlicht
Da sich die Lebenserwartung kaum noch erhöht, wäre eine signifikante Zunahme der Sterbefälle bei den über 80jährigen gegenüber dem Durchschnittswert der Vorjahre nicht einmal ungewöhnlich, sondern im Gegenteil statistisch sogar erwartbar, und rechtfertigt daher weder gegenwärtig noch zukünftig blinden Aktionismus.
Sogar die Corona-Gegenmaßnahmen selbst könnten eventuell ein Grund für eine Übersterblichkeit sein. Wie dem Corona-Papiereines Referenten des Bundesinnenministeriums aus dem Referat Kritische Infrastrukturen zu entnehmen ist, gibt es Schätzungen über mehrere tausend mögliche zusätzliche Sterbefälle (insbesondere unter Pflegebedürftigen), weil zur Freihaltung von Kapazitäten für COVID-19-Fälle zahlreiche Operationen und Behandlungen verschoben wurden oder unterblieben sind.

Fazit

1. Es ist unseriös und spekulativ, einen Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und COVID-19 herzustellen, wie es das Statistische Bundesamt tut. Das gibt die Statistik schlicht nicht her.
2. Es versteht sich von selbst, dass auch umgekehrt aus der Sterbefallzahlen-Statistik nicht ableitbar ist, dass Corona ungefährlich sei. Allerdings lässt sich das Regierungs-Narrativ von einem Killervirus, das ohne Rücksicht auf Verluste zu bekämpfen ist, nicht aufrechterhalten.
Auch wenn naturgemäß nicht feststellbar, wie sich die Sterbefallzahlen ohne die Corona-bedingten notstandsähnlichen Maßnahmen entwickelt hätten: Eine außerordentlich hohe Gefährlichkeit des Virus müsste sich trotz aller getroffenen Maßnahmen auch statistisch irgendwie bemerkbar machen (auch bei den Jüngeren). Denn die getroffenen Maßnahmen reduzieren weder die sozialen Kontakte vollständig noch werden sie von allen Bürgern beachtet.
Insofern lassen sich mit den Sterbefallzahlen per 19.04.2020 keine (weiteren) Grundrechtseinschränkungen wegen Corona begründen. Zumal die Beweislast für die Aufrechterhaltung von freiheitseinschränkenden Maßnahmen bei denen liegt, die sie getroffen haben.
3. Die bei isolierter Betrachtung seit Ende März 2020 bestehende leicht überdurchschnittliche Sterblichkeit betrifft nur die Altersgruppe ab 80 Jahre. Hierauf nicht deutlich hinzuweisen, ist ein schweres Versäumnis des Statistischen Bundesamts. Denn daran haben sich die Überlegungen zu orientieren, welche Altersgruppen besonders zu schützen sind und welche Maßnahmen dazu sinnvoll und erforderlich sind.
4. Auch die neuen Zahlen wurden erst mit fast vier Wochen Verzögerung veröffentlicht. Während Unternehmer in vielen Branchen neue Mitarbeiter sofort am Tag der Arbeitsaufnahme melden müssen, lassen sich die Behörden bei Sterbefällen offenkundig ganz viel Zeit. Es ist als multiples Organisationsversagen der Bundesregierungen (mit ihren Bundesinnenministern als obersten Dienstherren des Statistischen Bundesamtes) sowie der Landesregierungen zu bewerten, trotz regelmäßiger Warnungen vor möglichen Pandemien kein solches Meldewesen für Sterbefälle installiert zu haben, das den politischen Entscheidungsträgern eine zeitnahe Datengrundlage bietet.
 
Der Beitrag erschien zuerst bei ACHGUT hier




Klima und Schein­wissenschaft, Teil 3

  1. Irreführende Durchschnitts-Temperatur

Eigentlich ist die Temperatur eine so genannte «intensive» Größe, die sich auf einen bestimmen Ort und Zeitpunkt bezieht und daneben oder am gleichen Ort etwas später einen ganz anderen Wert haben kann. Die mit seriöser Physik formulierten Gesetze, in der die Temperatur vorkommt, beziehen sich deshalb immer auf einen solchen Punkt.

Da es nicht möglich ist, dem CO2 irgendeine Wirkung auf die Temperatur nachzuweisen, beziehen sich die Matadore der herrschenden Klima-Ideologie auf den ganzen Planeten und dessen Durchschnittstemperatur, auf die «Welt-Durchschnittstemperatur», berechnet über das ganze Jahr, rund um den Planeten, aus einer Spanne von allenfalls -50°C oder noch weniger am Südpol und den höchsten Temperaturen von etwa 60°C im Death Valley, alles auf ein halbes Grad C genau! Dieser Durchschnitts-Wert wird zum Maß für das «Klima»; eine für die Ansprüche seriöser Physik etwas groteske Definition, und die Physik wäre eigentlich für das Thema zuständig.

Wie irreführend die Durchschnittstemperatur immer wieder ist, sogar auf lokalem engen Raum, sei an einem einfachen Beispiel demonstriert: 2 Becken sind mit Wasser gefüllt, das linke mit einer Mischung von Eis von 0°C und Wasser von ebenfalls 0°C, im rechten Becken Wasser von 60°C. Die numerisch ermittelte «Durchschnitts-Temperatur» beträgt für ein Fußbad angenehme 30°C – in Wirklichkeit mit den 2 verschiedenen, für den menschlichen Körper extremen Temperaturen natürlich eine ungemütliche Situation!

Somit mischen wir die beiden Becken zusammen in ein großes, damit wir mit dem Fußbad endlich beginnen können. Die numerisch berechnete «Durchschnittstemperatur» beträgt 30°C – ideal für ein Fußbad.

Das Resultat jedoch, au weia – eiskalt. Die Durchschnittstemperatur beträgt immer noch 0°C. Durch die vom warmen Becken gelieferte Energie wurde ein Teil des Eises geschmolzen, aber nicht alles, sodass die Durchschnitts-Temperatur 0°C beträgt. Die physikalisch wesentliche Größe ist die Energie, nicht die Temperatur!

Wenn wir beim Thema Eis sind, weshalb schmelzen Gletscher? Nein, nicht weil die Luft zu warm ist, sondern weil zu wenig Niederschläge fallen. Gletscher an Land sind durch Niederschläge entstanden, wachsen dank dieser und gehen zurück, wenn zu wenig Schnee fällt. Draußen im Weltall würde ein Gletscher bei -270° C verdunsten! Eine Kuriosität dieser Art sind die Trockentäler ohne Eis und Schnee in der Antarktis, nahe beim Südpol, trockener als die Sahara bei Temperaturen zwischen -40° C und –10° C.

Auf dem Meer entsteht die erste Schicht eines Gletschers, wenn die Oberfläche des kalten Wassers gefriert. Der Gletscher kann danach von oben ebenfalls durch Schnee genährt werden oder durch mehr kaltes Wasser von unten, und er schmilzt, wenn er in eine wärmere Strömung gerät, wie typischer Weise Eisberge, die Richtung Äquator schwimmen.

Der Mensch hat mit 2 Arten von Temperatur andauernd zu tun, mit der über die Sinne auf der Haut wahrgenommene Temperatur seiner unmittelbaren Umgebung sowie mit der seines Körpers, die man meistens nur im Zusammenhang mit einer Erkrankung durch Messungen zur Kenntnis nimmt, typischerweise ab und zu bei einem als Fieber bezeichneten zu hohen Wert.

Bild-Quelle: de.wikipedia.org/wiki/Fieberthermometer#/media/Datei:Quecksilber-Fieberthermometer.jpg

https://de.wikipedia.org/wiki/Gemeinfreiheit?uselang=de

Der Organismus eines Warmblüters reguliert seine Temperatur mit aufwendigen Prozessen. Aber auf ein halbes Grad genau kommt es sogar da nicht an. Die Temperatur des gesunden Körpers beträgt etwa 36,6° C. Sie sinkt nachts unter normalen Umständen etwa um ein halbes Grad. 1°C mehr als die normale Temperatur ist noch kein Fieber. Bei einem gesunden Menschen nimmt die Körpertemperatur bei höherer Leistung zu, und er schwitzt dann, um den Körper zu kühlen.

Die Körpertemperatur wird an einer Öffnung des Körpers gemessen. Im Innern kann sie vom gemessenen Wert ein wenig abweichen. Der Vergleich demonstriert, wie grotesk es ist, sich über die Durchschnittstemperatur der Erdoberfläche große Sorgen zu machen, die man sowieso nicht beeinflussen kann.

Die Meteorologen messen die Temperatur der Luft an einem schattigen Ort in 2 Meter Höhe. Das ist für die Zwecke der Wettervorhersage eine gute Möglichkeit, während man bei einer seriösen Betrachtung des Klimas eher an der lokal gespeicherten Energie interessiert wäre, die man durch Messungen der Bodentemperatur feststellen kann. Die Durchschnittstemperatur über die ganze Erde ist an sich bereits eine unsinnige Größe, und obendrein auf ein halbes Grad genau ist sie grotesk.

Naive irreführende Interpretationen von Durchschnittswerten sind quasi ein «running gag» der elementaren mathematischen Statistik. Daneben wird diese Größe auch immer wieder für Tricks verwendet, ein ahnungsloses Publikum zu täuschen und manchmal auch sich selbst.

  1. Die grosse Geste: Globales Energie-Budget

Mit der mühseligen, aber einzig seriösen Kleinarbeit, indem man den Zustand und allfällige Entwicklungen der Klimavariablen in vielen Regionen untersucht und vergleicht, könnten die Adepten alarmistischer Botschaften ihr gewünschtes Resultat nicht finden, eine angeblich durch die Menschheit verursachte Erwärmung des «globalen Klimas». Statt dessen hantieren sie mit einer Übersicht über das globale Energie-Budget der Erde gegenüber dem Weltall.

Die Energiebilanz der Erde gegenüber dem Weltall mit Zu- und Abflüssen wird durch die bekannte, im Auftrag des IPCC von Trenberth et al. erarbeitete Graphik dargestellt:

Die an der Erdoberfläche und in der Atmosphäre vorhandene Energie wird durch die Sonnenstrahlung geliefert, davon aber auch quasi alles wieder ins Weltall zurück gestrahlt, teilweise umgehend an Wolken, Schnee und Gewässern reflektiert oder verzögert, nachdem die von der Sonne gelieferte Energie zunächst bei Tag erreichte Flächen der Erde erwärmt, die danach als Infrarot abgestrahlt wird, auch nachts.

Fast alle Energie wird auf dieser Darstellung in Form elektromagnetischer Strahlung transportiert und legitimerweise als «Energie-Fluss» bezeichnet, ausgedrückt in Watt pro Quadratmeter Erdoberfläche; allerdings wohl verstanden, Watt gemittelt über den Jahres-Durchschnitt, über Tag und Nacht, Sommer und Winter, ermittelt über die ganze Erdoberfläche, vom Äquator bis zu den Polen. Wenn man sich diese Darstellung als ungefähre Schätzung vorstellt, ist sie durchaus berechtigt. Aber sie enthält noch ein verstecktes Pferdefüßchen. Von den im Durchschnitt pro Quadratmeter Erdoberfläche eingestrahlten 341 Watt fließen per Saldo nach Rückstrahlung ins Welt-All 0.9 Watt zusätzlich ins System Erde-Atmosphäre und erwärmen somit dieses System ein kleines bisschen, «net absorbed» 0,9 W pro Quadratmeter, die wir dem «Treibhaus-Effekt» zu verdanken hätten.

Bei diesem gewaltigen auf und ab der Temperatur und einem Brutto-Zufluss von 341 W pro Quadratmeter will man einen winzigen Netto-Zufluss von milde aufgerundeten 2,64 Promille heraus rechnen, einmal mehr, genau wie bei der «Durchschnitts-Temperatur», eine völlig überzogene Scheingenauigkeit.

Die angegebenen Werte wurden natürlich nicht im Detail ermittelt, sondern mit spekulativen Methoden aus einzelnen Messungen zusammen gerechnet. Und wer dieses Ergebnis nicht glaubt, zahlt dennoch einen Taler, nämlich Abgaben auf das durch seine Aktivität produzierten CO2, wobei das Ausatmen, die erste Quelle für das vom Menschen verursachte CO2 einstweilen noch großzügig von solchen Abgaben verschont wird!

Für die angeblich garantierte globale Erwärmung gibt es auch eine von den Autoren Schneider und Mas ausgetüftelte mathematische Formel:

Keine der in dieser Formel enthaltenen Variablen betreffen echte Physik oder Meteorologie. Es handelt es sich um spekulativ konstruierte Phantasiegrößen, die man nicht empirisch nachweisen kann. Die «Temperatur» Ts ist die in diesem Zusammenhang bereits erwähnte berüchtigte weltweite Durchschnittstemperatur. Der phantasievoll konstruierte so genannte «Strahlungsantrieb» postuliert ein ideales Gleichgewicht der globalen Strahlung, das durch Treibhausgase gestört werde.

Den seriösesten, ehrlichsten Beitrag zu dieser Art Klima-Wissenschaft lieferte der Mitautor der obigen Formel, Schneider, mit seinem berühmten unverblümten Geständnis, «also müssen wir ängstigende Szenarien liefern, einfache, dramatische Äußerungen machen, und Zweifel, die wir vielleicht haben, wenig erwähnen».

  1. «Klima-Ziele»

Auf jedem Gebiet ist der Durchschnitts-Wert aus einer Gesamtheit eine heikle, oft nichts sagende Größe, die immer wieder zu irreführenden Schlüssen führt, in der Agitation zum Klima wurde sie gezielt, allerdings auch plump zur Täuschung des Publikums verwendet.

Bitte sehr, die Frage ist zwar ein bisschen unsinnig. Aber wenn ihr schon fragt, wie hoch ist sie denn, diese «Welt-Durchschnitts-Temperatur»? Man vernimmt da je nachdem Werte um 15°C, ermittelt aus einem unvermeidlich dünnen Netz von Messstationen rund um den Globus mit beliebig großer Fehler-Abweichung. Aber so genau wollen es die Alarmisten ohnehin nicht wissen. Gemäß den im Klima-Abkommen von Paris im Jahre 2015 festgelegten «Klima-Zielen» soll eine mögliche «Erderwärmung» begrenzt werden – um einen sehr präzisen Betrag, Zitat:

  • ein langfristiges Ziel, den Anstieg der weltweiten Durchschnitts-Temperatur auf deutlich unter 2 °C gegenüber vorindustriellen Werten zu begrenzen;

  • das Ziel, den Anstieg auf 1,5 °C zu begrenzen, da dies die Risiken und Folgen des Klimawandels deutlich vermindern würde…

Bis zum Jahr 2100 darf diese Erwärmung somit höchstens 2° C betragen, eigentlich lieber 1,5°C. Ok, 2° C wärmer als was bitte? Nun 2° C wärmer als die vorindustriellen Werte! Das ist doch mal eine klare Ansage! Vor Beginn der Industrialisierung hatte die Menschheit ja noch Muße, die Welt-Durchschnitts-Temperatur bis auf ein halbes Grad genau zu ermitteln!?

Vor Beginn der Industrialisierung gab es – mindestens in Europa – die bereits erwähnten extrem kalten Winter. Ja es gab noch Schlimmeres – Eiszeiten. Gemäß den üblichen Theorien zur Erdgeschichte leben wir gegenwärtig im Holozän, einer Zwischeneiszeit, die allenfalls bald zu Ende gehen könnte, so dass sich die Menschheit dann um die 2°C Erwärmung wirklich keine Sorgen mehr machen muss. Umgekehrt kann man vermuten, während der mittelalterlichen Warmzeit sei es in Europa noch wärmer gewesen als heute.

Die «Klima-Ziele» sind eigentlich derart grotesk, dass man sich manchmal fragt, ob sie von heimlichen Saboteuren formuliert wurden, quasi als versteckte Botschaft an die Menschheit, wenn ihr den hier formulierten Unsinn nicht erkennt, ist euch eh nicht zu helfen!

  1. Wirtschaftliche Interessen

Die Agitation für «Klima-Schutz» ziert sich mit einer prächtig grün-linken Fassade, aufgebaut von idealistischen Gutmenschen. Aber hinter dieser Fassade haben sich vielerlei handfeste wirtschaftliche Interessen versammelt. Sogar die «schweizerische Erdölvereinigung» bekannte sich opportunistisch zum «Klimaschutz», statt unverblümt zu bekennen, «hört mal, wir glauben nicht an diesen Klima-Blödsinn». Für ihre Scheinheiligkeit wurde die Erdölvereinigung allerdings abgestraft. Die Organisation SwissCleantech legte Beschwerde ein bei der Schweizerischen Lauterkeitskommission, die Erdölvereinigung gehöre nicht zur Vereinigung der Edlen und Reinen. Dabei hat die Erdölvereinigung ein nahe liegendes Motiv, scheinheilig mit den Wölfen zu heulen. Hohe Preise für Erdöl? Aber bitte sehr, wir sind für «Klimaschutz» und sind dann halt nebenbei auch noch zu höheren Gewinnen gezwungen!

SwissCleantech versammelt einen bunten Haufen von Unternehmen, die «alternative Energie» produzieren. Darunter mögen durchaus interessante Technologien vertreten sein. Allerdings könnte man mit diesen niemals den ganzen Energiebedarf decken, und ohne massive staatliche Hilfe wäre vieles davon auf dem Markt nicht konkurrenzfähig. Einige der neuen Technologien sind sogar äußerst bedenklich, etwa Autos mit elektrischem Antrieb als Ersatz für die bisherigen Verbrennungsmotoren. Bei den Elektroautos kommt der Strom zwar bequem aus der Steckdose. Aber von wo und wie gelangt er dort hin? Sollte die Anzahl Elektroautos zunehmen, würden enorme Probleme entstehen, die unter dem Schutz staatlicher Maßnahmen einstweilen nicht ernst genommen werden.

Das große Geschäft ist der «Klima-Schutz» auch für die Riege jener Politiker, die ohne das konstruierte Schreckgespenst nichts zu bieten hätten und wo möglich gezwungen wären, ihren Lebensunterhalt durch Arbeit zu verdienen, wie Kenner wissen, eine manchmal mühsame Sache.

Ein wesentlicher Teil des «Klima-Schutzes» ist direkt oder indirekt nichts weiter als eine Steuer auf den Konsum und damit degressiv, eigentlich ein bisschen unsozial. Aber das stört die etablierten Aktivisten des begüterten grün-roten Establishments gewiss nicht.

Unmittelbar persönliche wirtschaftliche Interessen vertreten die Hohepriester der Klima-Ideologie, die aus ihren üppig entlohnten Positionen in Akademia, an Universitäten und Institutionen zur «Forschung» die herrschende Lehre verkünden und nebenbei den Niedergang jeder seriösen intellektuellen Kultur repräsentieren, in der Widerspruch oder gar Diskussionen unterbunden werden. In einem solchen Schonklima gedeiht entsprechend allerhand Fake Science. Der prominente französische Geophysiker Vincent Courtillot hat schon vor Jahren gewarnt, die Wissenschaft werde für solchen Opportunismus, für die Kollaboration mit den Adepten einer lukrativen Scheinwissenschaft, ihren Preis zahlen müssen.

Wissenschaft hat in vielfältiger Weise maßgeblich zum Fortschritt der Menschheit beigetragen. Gegen Allüren einer quasi religiösen Unfehlbarkeit muss sich die freie Gesellschaft hingegen energisch wehren.




Der alte Code und das neue Virus

Das Urteil der IT-Fachleute ist verheerend: Es handele sich womöglich um den zerstörerischten Softwarefehler aller Zeiten, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben anbetreffe. Beachten Sie bitte den Nachtrag/ die Aktualisierung am Ende des Textes-
Erinnern Sie sich noch an die Modellrechnung des britischen Wissenschaftlers des Imperial College in London, Neil Ferguson, der die Regierung in Sachen Corona beriet und die wissenschaftliche Grundlage für die strengen Ausgangsbeschränkungen in Großbritannien lieferte? Er prognostizierte 2,2 Millionen Coronatote für die USA und 500.000 für Großbritannien. Auf diesem Modell beruhte letztlich die Corona-Strategie der Abflachung der Kurve „flattening the curve“ durch Social Distancing und Lockdown.
Heute erweist sich dieses Modell als hysterische Überschätzung. Selbst die vielen Coronatoten in Großbritannien (ich möchte stets anfügen, dass diese Coronatoten auch die sehr wahrscheinlich hohe Zahl an Verstorbenen beinhalten, die unnötig intubiert wurden), werden bei weitem nicht die vorderen Ränge der jährlichen Todesursachenstatistik einnehmen, mit oder ohne Lockdown.

Gescheiterte Venus-Raumsonde

David Richards und Konstantin Boudnik, Gründer, CEO sowie Sotfwareleiter von  WANdisco bezeichnen diese Modellrechnung nun als den womöglich zerstörerischsten Softwarefehler aller Zeiten
„Die Modellierung nicht-pharmazeutischer Interventionen für Covid-19 durch das Imperial College, die dazu beitrug, Großbritannien und andere Länder zu drakonischen Lockdowns zu bewegen, wird die gescheiterte Venus-Raumsonde ablösen, die als der verheerendste Softwarefehler aller Zeiten in die Geschichte eingehen könnte, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben betrifft.“
Original auf Englisch heißt es:
„Imperial College’s modelling of non-pharmaceutical interventions for Covid-19 which helped persuade the UK and other countries to bring in draconian lockdowns will supersede the failed Venus space probe could go down in history as the most devastating software mistake of all time, in terms of economic costs and lives lost.”
Im britischen Telegraph fragen die beiden anerkannten Programmier-Spezialisten, warum die Regierung keine zweite Meinung eingeholt hat, bevor sie das Covid-Computer-Modell des Imperial College akzeptiert hat. Weiter schreiben Sie:
„Seit der Veröffentlichung des Mikrosimulationsmodells von Imperial haben diejenigen von uns, die ein berufliches und persönliches Interesse an der Softwareentwicklung haben, den Code studiert, auf dem die politischen Entscheidungsträger ihre schicksalhafte Entscheidung basierten, unsere mehrere Billionen Pfund schwere Wirtschaft einzumotten und Millionen von Menschen in Armut und Not zu stürzen. Und wir waren zutiefst beunruhigt über das, was wir entdeckt haben. Das Modell scheint völlig unzuverlässig zu sein, und Sie würden nicht Ihr Leben darauf verwetten.“

Schon vor 20 Jahren Schnee von gestern

Das Modell von Imperial scheine auf einer Programmiersprache namens Fortran zu basieren, die schon vor 20 Jahren Schnee von gestern gewesen sei. Ihr Code sei auch für die gescheiterte Raumsonden-Mission verwendet worden, wie für die Raumsonde Mariner 1. Und sie sagen: „In unserer kommerziellen Realität würden wir jeden für die Entwicklung eines solchen Codes feuern, und jedes Unternehmen, das sich bei der Herstellung von Software zum Verkauf darauf verlässt, würde wahrscheinlich pleite gehen“.
Weiter schreiben Sie: Die Modelle müssten in der Lage sein, den grundlegenden wissenschaftlichen Test zu bestehen, um bei gleichen Ausgangsparametern die gleichen Ergebnisse zu erzielen. Andernfalls gibt es einfach keine Möglichkeit, zu wissen, ob sie zuverlässig sein werden.
Das Resumee der beiden Kritiker: „Tatsächlich verwenden viele globale Industrien erfolgreich deterministische Modelle, die den Zufallsfaktor berücksichtigen. Kein Chirurg würde einen Herzschrittmacher bei einem Herzpatienten einsetzen, wenn er wüsste, dass er auf einem wohl unvorhersehbaren Ansatz beruht, aus Angst, den hippokratischen Eid zu gefährden. Warum um alles in der Welt würde die Regierung ihr Vertrauen darauf setzen, wenn das gesamte Wohlergehen unserer Nation auf dem Spiel steht?“
 

Nachtrag vom 20.Mai 2020

Mein letzter Beitrag wurde  in den Leserbriefen zur Recht kritisiert, weil ich mich eben fachfremd bin bzgl. Computer Modellen. Leser Daniel Hirsch hat das ganze Problem mit dem Imperial Model viel besser und treffender erklärt. Imperial Model, Computersprache und Schuster bleib bei deinen Leisten. Beim letzten Beitrag, habe ich mein Fachgebiet verlassen, und einige Leser erweiterten daraufhin meinen Horizont. Zu Recht, denn ich werfe es beispielsweise Prof. Christian Drosten vor, dass er sich ausserhalb seiner Fachkompetenz  z.B. zur Epidemiologie äussert und genau deswegen scheitert. Ein Virologe muss vor den Gefahren warnen, aber Epidemiologie bedeutet gerade eben nicht, stets vom worst case auszugehen, sondern sich um echte Daten zu kümmern und diese im Sinne von Wahrscheinlichkeiten zu deuten. Daniel Hirsch ist Computerfachmann und kann die Problematik des Imperial Models deshalb viel treffender beschreiben. Ich möchte Ihnen mit seiner Erlaubnis seine Zuschrift an mich nicht vorenthalten:
 
Als Mathematiker mit der Spezialisierung numerische Mathematik habe ich während meines Studiums an der Uni Heidelberg zahlreiche Supercomputer entworfen, betrieben und eigene Modelle entwickelt (mit Schwerpunkt in der nichtlinearen Optimierung und im Bereich unstetige Galerkin-Verfahren). Deshalb möchte ich gern die Gelegenheit nutzen und ein bisschen von meiner Expertise beitragen.
1. Programmiersprache
Die Programmiersprache ist letztlich nur eine Form um Maschinensprache (die sprichwörtlichen „bits and bytes“) für den Menschen lesbar bzw. menschliches strukturiertes Denken für den Computer ausführbar zu machen. Die Programmiersprachen sind dabei in ihren Grundfunktionen gleich. In jeder Sprache finden sich einfache Strukturen, wie Schleifen (Zählschleife: „mache irgendwas n mal“; vorprüfende Schleife: „so lange eine Bedingung erfüllt ist, mache irgendwas“; nachprüfende Schleife: „wenn irgendeine Bedingung richtig ist, mache das, was Du vorher gemacht hast nochmal“), Bedingungen („wenn irgendwas richtig ist, mache folgendes, anderenfalls was anderes“), Zugriffe auf Dateisysteme oder auf den Monitor/Tastatur. Zudem gibt es inzwischen in vielen Programmiersprachen auch die Möglichkeit komplexere Strukturen, wie z.B. vererbbare Objekte, Templates, etc. zu bauen. Das im Detail auszuleuchten sprengt den Rahmen.
Fortran ist in der Tat eine recht alte Programmiersprache (von 1957), die ihre Vor- und Nachteile hat. Das zu diskutieren löst in aller Regel – wie so oft in der IT – einen Glaubenskampf aus. Die Unterschiede in den Programmiersprachen liegen neben der offensichtlichen anderen Syntax in der Regel eine Ebene tiefer, also wie performant ein Compiler ist, wie performant das erzeugte binary ist, wie gut der Code auf andere Plattformen übertragen werden kann, etc. Es spielt aber auch eine Rolle, wie stark die Kommerzialisierung einer Programmiersprache ist. Programmiersprachen, die für kommerzielle Software verwendet werden, sind oft stärker unterstützt und entwickeln sich schneller als weniger populäre Sprachen. Die wesentlichen Vorteile von Fortran aus meiner persönlichen Sicht sind, dass die Lernkurve um Fortran programmieren zu können, recht flach und kurz ist und sehr viel frei verfügbarer Code existiert. Es gibt Literatur, wonach gute Fortran Compiler bei Array-basierten Anwendungen schnelleren Code als flexiblere Sprachen wie z.B. C++ produzieren können sollen. Das läßt sich in der Regel aber mit „besserem“ Code kompensieren. Richtig ist in jedem Fall, dass gerade im universitären Bereich Fortran weite Verbreitung hat und es eine lebendige Community gibt, die die vorhandenen Compiler und den Standard (zuletzt 2018) weiterentwickelt. Es ist daher nicht ungewöhnlich Programme in Fortran in diesem Umfeld zu finden.
2. Universitäre Softwareentwicklung
In Mathematik und Physik ist es weit verbreitet Software für verschiedene Zwecke zu entwickeln. Oft wird die Software für eine bestimmte Klasse Großrechner (z.B. Parallelrechner) oder gar nur für einen ganz bestimmten Rechner entwickelt. Im Vordergrund steht dabei immer die Mathematik oder die Physik und weniger die informatische Qualität der Implementierung. Da es ein recht großer Aufwand ist, jedes Einzelproblem, welches man lösen möchte, dediziert zu programmieren, verwendet man den Code in sogenannten Bibliotheken immer wieder. Darin sind mathematische Formen, wie Vektoren, Tensoren, Gitter, etc. ebenso wie die mathematischen Modelle und Algorithmen, die mit diesen Strukturen umgehen müssen, bereits implementiert. Diese Bibliotheken werden dann – meist kostenlos – allen anderen Wissenschaftlern zur Verfügung gestellt. Die Entwicklungsteams sind klein und es wird nicht nach kommerziellen Standards entwickelt. Man kann nicht erwarten, dass die Software einem IT-Qualitätsassessment standhalten wird. Daraus zu folgern, dass die Software falsch rechnet, ist jedoch voreilig.
3. Mathematische Modellierung
Wenn ein Modell aufgestellt wird, bedient man sich für gewöhnlich zunächst der Mathematik und zwar ganz klassisch mit Tafel und Kreide. Die Implementierung erfolgt danach mit Hilfe der vorhandenen Bibliotheken. Wenn das Modell implementiert ist, verwendet man üblicherweise Testdaten und -probleme um zu zeigen, dass die Software funktioniert. Oft werden die Ergebnisse auch publiziert, da neue Modelle / Algorithmen in der Regel nur dann implementiert werden, wenn sie aus wissenschaftlicher Sicht neu sind oder wenn die Implementierung aus irgendeinem Grund besser ist als bisherige Implementierungen (z.B. schnellere Konvergenz, geringerer notwendiger Speicherplatz, höhere Genauigkeit, etc.). Andernfalls macht sich keiner die Mühe vorhandene Modelle nochmal zu implementieren – außer vielleicht im Rahmen einer Übung zu einer Vorlesung. Hier liegt auch der Unterschied zur Venus-Sonde. Die Software für die Venussonde war für eine einmalige Anwendung gedacht (nämlich genau diese Sonde auf dieser Mission) und konnte unter Echtbedingungen nie getestet werden. Die Modelle von Neil Ferguson sind mehrfach getestet und mit anderen Modellen gegen gerechnet worden. Das schließt Programmierfehler freilich nicht aus, aber bisher gibt es keinen Hinweis auf einen solchen. Wahrscheinlicher sind Fehler in den Ausgangsdaten.
4. Numerischer Fehler
Das größte Problem bei mathematischen Modellen ist der sogenannte numerische Fehler. Die meisten Strukturen in der alltäglichen Mathematik basieren auf den reellen Zahlen. Ohne die reellen Zahlen funktioniert unsere Welt nicht mehr. Bestes Beispiel: Der Umfang eines Kreises. Ohne die Zahl pi, ist der Umfang nicht exakt zu errechnen. Dummerweise hat pi unendlich viele Nachkommastellen (die wir logischerweise auch nicht alle kennen). Daher kann man eine solche Zahl nicht auf einem Computer abbilden, der ja nur über endlich viel Speicher verfügt, selbst wenn wir alle Nachkommastellen kennen würden. Man behilft sich durch Runden der Zahl (typischerweise auf 16 Stellen) . Für alltägliche Probleme reicht die Rundungslogik auf normalen Rechnern völlig aus. Allerdings gibt es noch ein weiteres Problem: Ein mathematisches Modell besteht aus sehr vielen Einzeloperationen. Die Rechenoperationen reagieren dabei unterschiedlich gut auf die Eingangsdaten und die Einzelfehler jeder Operation können sich im gesamten Modell aufschaukeln. Es ist daher sehr wichtig, die Stabilität/Zuverlässigkeit des Algorithmus gegen derartige Effekte zu kennen.
5. Eingangsfehler
Bei allen Algorithmen gilt das „shit-in-shit-out“-Prinzip. Arbeitet man mit Daten, die einen großen Fehler beinhalten, dann kommt am Ende ein noch viel größerer Fehler raus (wie viel schlimmer sagt uns die Stabilität eines Modells). Die Programmiersprache ist nicht entscheidend, denn es kommt überhaupt nicht darauf an, ob ein mathematisches Modell in Fortran, C++, Basic oder von mir aus auf Lochkarten implementiert wird. Genauso wenig wie es darauf ankommen sollte, ob man eine Addition mit dem Rechenschieber, dem Abakus, einem Taschenrechner oder im Kopf durchführt. Ich bin davon überzeugt, dass das Problem des Modells von Neil Ferguson in den Eingangsdaten liegt. Das von ihm verwendete Modell basiert im Wesentlichen auf folgenden Daten:

  • Todesrate (CFR) in Hubei – hierzu hat sich Neil Ferguson 39 Todesfälle von diversen Webseiten zusammen gesucht und davon 26 verwendet (leider ohne zu sagen, welche 26)
  • CFR auf den Evakuierungsflügen von China nach z.B. Deutschland, Japan und Malaysia (insgesamt 290 Fälle)
  • Aufwuchsrate der Epidemie, also der tägliche Zuwachs an neuen Fällen – diese Aufwuchsrate wurde auf Basis der offiziellen Meldungen abgeleitet
  • Zeitraum zwischen Infektion und Tod / Erholung

 
Damit gibt es folgende Probleme:

  • Zunächst ist die CFR nicht zuverlässig. Sie hatten das so schön formuliert – „viele Patienten sterben nicht an COVID-19 sondern mit COVID-19“. Diese Erkenntnis, die ja auch im Wesentlichen auf der Arbeit von Prof. Schirmacher und seinen Kollegen beruht, hatte man zu diesem Zeitpunkt (Anfang Februar) noch nicht, sondern hat platt angenommen, wer positiv auf COVID getestet wurde und starb, ist an COVID-19 gestorben. Die Todesfälle in Hubei betreffen allesamt ältere Menschen (nur sechs Opfer sind unter 60 Jahre, der Jüngste ist 36, wobei nicht klar ist, welche 26 Personen aus dem Datensatz mit 39 Opfern in die Analyse eingeflossen sind). Bereits an diesen frühen Daten war absehbar, dass ältere Menschen deutlich stärker betroffen sind als jüngere. Das Modell lässt das vollkommen unberücksichtigt. Prof. Ioannidis hat bereits früh auf die mangelnde statistische Güte der vorhandenen Daten hingewiesen.
  • Es fehlten überall Testkapazitäten, daher wurde nicht repräsentativ getestet, sondern in der Regel nur beim Vorliegen von (teils schweren) Symptomen und auch erstmal nur in Wuhan, also mit sehr hoher Wahrscheinlichkeit Menschen mit Vorerkrankungen und mit sehr geringer Wahrscheinlichkeit junge, gesunde Menschen ohne Symptome, deren CFR weit geringer ist. Menschen ohne oder mit nur milden Symptomen sind in der Stichprobe aus Hubei vollkommen unterrepräsentiert.
  • Umgekehrt wurden die ausgewählten Heimkehrerflüge größtenteils vollständig getestet. Deshalb überwiegen in diesem Datenset die Patienten ohne Symptome (Gesamt 10 Fälle, davon 7 asymptomatisch). Die Daten sind daher keineswegs vergleichbar.
  • Bei den Heimkehrerflügen war in 50% der Fälle kein Infektionsdatum bekannt. Neil Ferguson hat daher einfach das Datum des ersten Kontakts mit den Gesundheitsbehörden angenommen. Dazu schreibt er wörtlich: „We note this is the latest possbile onset date and may therefore increase our estimates of CFR”.
  • Zudem wurde mit Ausbreitung der Pandemie auch die Testkapazität erhöht, so dass sich die Wahrscheinlichkeit, dass eine bestimmte Bevölkerungsgruppe in der Gruppe aller getesteten repräsentiert ist, sich mit der Zeit – quasi täglich – verändert hat. Die Hypothese, die täglich publizierte Zahl der Infizierten, würde jeden Tag im gleichen linearen Verhältnis zur tatsächlichen Zahl der Infizierten stehen, ist nicht richtig. Neil Ferguson hat das zwar in der Studie erwähnt und auch richtigerweise auf die unterschiedlichen Testkapazitäten, -qualität und -praxis in verschiedenen Ländern hingewiesen, aber die Relation zwischen Testaufwuchs und gemessenen Infektionen konnte niemand zu diesem Zeitpunkt richtig abschätzen.
  • Die Aufwuchsrate der Epidemie wurde deutlich überschätzt, denn es wurden ja nicht jeden Tag gleich viele Menschen getestet, sondern jeden Tag mehr, so dass man auch immer mehr Infizierte fand. Der Aufwuchs setzt sich zusammen aus dem Aufwuchs der Testkapazitäten und dem Aufwuchs der tatsächlichen Infektion, ersteres wurde aber zu gering geschätzt.
  • Für die Wahrscheinlichkeitsverteilung für den Verlauf zwischen Infektion und Tod / Genesung wurde die Wahrscheinlichkeitsverteilung der SARS-Epidemie von 2003 in Hong Kong herangezogen und verallgemeinert, so dass der Zeitraum mit 22 Tagen analog zur damaligen SARS-Epidemie angenommen wurde. Auf den ersten Blick erscheint das fragwürdig, denn zum Zeitpunkt der Studie lagen noch keine gesicherten Erkenntnisse vor, dass der Verlauf von COVID-19 dem von SARS entspricht.

Mit dieser recht wackeligen Datenlage und noch wackligeren Annahmen wurde dann mit Hilfe von verschiedenen statistischen Methoden (Bayes Statistik, Maximum-Likelihood, Kaplin-Meier) die CFR berechnet.
Die hohe Unsicherheit beschreibt Neil Ferguson selbst, denn die ermittelte CFR schwankt in den Gruppen Hubei und den Rückflügen zwischen 1,2% und 18%. Am Ende werden eigentlich nicht zusammen passende Daten miteinander vermischt und eine CFR von ca. 1% mit einem Unsicherheitsintervall von 0,5% bis 4% geschätzt. Zieht man die unbeachteten Fehler (Überschätzung der Aufwuchsrate, Dunkelziffer bei den Infektionen, Differenzierung bei der Todesursache, etc.) in die Kalkulation mit ein, reduziert sich das weiter.
Aus handwerklicher Sicht hätte das eigentlich niemals publiziert werden dürfen. Die Schwankungen in den Ergebnissen gehen über eine ganze Größenordnung und die Unsicherheit in den Eingangsdaten ist offensichtlich. Es zeigt aber sehr schön, das Dilemma. Die Wissenschaft konnte im Februar keine klaren Ergebnisse liefern. Es wäre möglich, dass die CFR bei 18% lag. Genauso konnte sie bei 0,8% oder darunter oder bei jedem anderen Wert liegen. Die Entscheidung war daher eine rein politische. Die Politik wiederrum hat einfach die „aus der Hüfte geschossene“ Todesrate von 1% genommen und durchmultipliziert. Dabei kamen ebenso logisch wie falsch Millionen Tote heraus.
Man kann an diesem Beispiel wunderbar erkennen, wie gefährlich die mathematische Modellierung sein kann, wenn man die Annahmen nicht gründlich betrachtet. Ein ehemaliger Chef von mir (alter Controller) hat mal zu mir gesagt: „Businesscases schaue ich mir nie an. Ich glaube schon, dass die Leute richtig rechnen können. Ich schaue mir immer die Annahmen an. Da lügen sich alle in die Tasche.“ Um in solchen schwerwiegenden und unklaren Situationen eine gute Entscheidung zu treffen, reicht es nicht auf oft fragwürdige Zahlen zu schauen. Es braucht vor allem Führungsqualitäten, wozu auch ein Bauchgefühl und Risikobewusstsein gehören.
Der Beitrag erschien zuerst bei ACHGUT hier




Goldbach: Die Eisheiligen im Vergleich zur Stadt Potsdam

Als Eisheilige bezeichnet man die fünf Tage vom 11.bis zum 15. Mai. Der Ausdruck Eisheilige ist altdeutsch und meint eigentlich Frost, bzw. Nachtfröste. Diese 5 Tage sollen über längere Zeiträume kälter sein als der Gesamtmai, behauptet die Bauernregel. Überprüfen wir das zunächst am fast WI-freien Standort Goldbach über die letzten 25 Jahre.
Zunächst die Grafik des Monates Mai in Goldbach seit 1996. (2020 fehlt noch)

Grafik 1: Die Mai-Trendlinie ist in den letzten 25 Jahren leicht fallend. Der Mai wurde in Goldbach seit 1996 unwesentlich kälter. Die Durchschnittstemperatur der 24 Maimonate beträgt 13,8°C. Der Schnitt von Deutschland beträgt laut DWD-Offenbach für denselben Maizeitraum: 13,3°C. Damit war der Mai in dem 320 m hohen Goldbach um ein halbes Grad wärmer als der Schnitt aller Deutschlandstationen des DWD. Der kälteste Maimonat 2019 betrug 11,1°C und der wärmste Mai war 2018 mit 16,1°C. Die Differenz beträgt 5 Kelvin.


Betrachten wir nun die fünf Tage vom 11. bis zum 15. Mai, die laut Bauernregeln die Eisheiligen genannt werden im Vergleich zu den Gesamtmonaten. 2020 ist bereits dabei.

Grafik 2: Die beiden Grafiken ähneln sich, doch zeigen sich auch große Unterschiede. Die wärmsten Eisheiligen waren 1997 mit 16,6 C und die kältesten fünf Eisheiligentage waren 2019 mit 8°C, nur geringfügig wärmer ist 2020. Zwischen dem wärmsten Eisheiligenjahr und dem kältesten sind die Differenzen größer als in Grafik 1 bei den Monatstemperaturen, was natürlich zu erwarten war. Der Mittelwert der Eisheiligen beträgt: 12,8 C. In Grafik 1 betrug der Schnitt 13,8°C


Erg 1: Die fünf Eisheiligentage sind in Goldbach im Zeitraum von 1996 bis heute um 1 Grad kälter als der Schnitt der Gesamtmonate im gleichen Zeitraum. Die Eisheiligen sind tatsächlich eine Ansammlung kälterer Tage in der Monatsmitte.
Andererseits ist die Temperaturdifferenz moderat, so dass man diese fünf Tage aus heutiger Sicht nicht mit Eisheiligen benennen müsste. Der Gründe sind historischer Art. Der altdeutsche Begriff „Eistemperaturen“ steht für Minustemperaturen, und solche traten in den letzten beiden Maijahren allerdings gehäuft auf. Ganztägige Minustage gibt es keine in den Temperaturaufzeichnungen der Station. Kurzeitige nächtliche Minustemperaturen in Bodennähe sind real, sie müssten sich seit 2009 sogar angehäuft haben. Man erkennt aus Grafik 2 auch, dass die Eisheiligen nicht jedes Jahr aufgetreten sind.
Ein anderer Punkt ist bemerkenswert:
Auffallend ist, dass die Trendlinie viel stärker fällt als bei Grafik 1. Das bedeutet, dass die fünf Eisheiligentage in Goldbach viel kälter wurden im Vergleichszeitraum als der Gesamtmonat Mai. Man könnte auch vermuten, es waren nur diese fünf kälter werdenden Tage, die den fallenden Maidurchschnitt der letzten fünf Jahre in Grafik 1 bewirkt haben. Jedenfalls herrschte während der diesjährigen Eisheiligen keinerlei Badewetter, sondern die Heizungen wurden überall in Deutschland wieder angeworfen.
Erg. 2: Die Eisheiligen sind in der Gegenwart in dem kleinen wärmeinselarmen Ort Goldbach im Osten Sachsens deutlich kälter geworden
Vergleich der ländlichen Station Goldbach mit der Wärme-Insel Potsdam.
Es handelt sich um die Wetterstation des Potsdamer Institutes für Klimafolgenforschung (PIK-Potdsam)

Grafik 3: Wie zu erwarten sind die Eisheiligen in Potsdam wärmer. Der Schnitt aller 25 Jahre liegt bei 13,3°C und damit um 0,5 K höher als in Goldbach. Das ist jedoch kein gravierender Unterschied. Ansonsten zeigen beide Grafiken einen ähnlichen Verlauf, obwohl die beiden Vergleichsorte nahezu 200 km auseinander liegen. Die Trendlinie von Goldbach ist stärker fallend. Immerhin: das waren die kältesten Eisheiligen der letzten 25 Jahre in Potsdam


Ergebnis 3: Auch in Potsdam, dem deutschen Zentrum für Klimafolgenforschung wurden die Eisheiligen der letzten 25 Jahre deutlich kälter
Eisheiligen und die CO2-Konzentration der Atmosphäre
Da die Station Potsdam schon länger existiert als Goldbach wäre interessant, ob es 1) noch kältere Eisheiligenjahre gegeben hat und 2) wie sich die fünf Eisheiligentage seit 1958 entwickelt haben. 1958 deshalb, weil seitdem die CO2-Konzentration der Luft am Mouna Loa zentral für die irdische Atmosphäre erfasst wird.
Behauptet wird von den CO2-Treishausvertretern, dass eine Konzentrationszunahme dieses unsichtbaren und ungiftigen Gases in der Luft automatisch zu Temperaturanstiegen führen muss. Versuchsbeweise haben sie natürlich keine. Der besseren Übersicht und Überprüfung wegen haben wir für den Leser die CO2-Anstiegskurve gleich in die Eisheiligengrafik mit Betrachtungsbeginn 1958 eingefügt, siehe nächste Grafik:

Grafik 4: Seit 1958 sind die CO2-Konzentrationen der Erde stark angestiegen. Demgegenüber sind die Eisheiligen im gleichen Betrachtungszeitraum kälter geworden. Es gab auch schon kältere Eisheiligenjahre als 2020.


Erg. 4: Der rasante Anstieg der irdischen CO2-Konzentrationen seit 1958 hatte keine Wirkung auf die fünf Eisheiligentage in Potsdam. Es besteht überhaupt kein Zusammenhang. Die CO2-Treishauslehre ist deshalb eine Irrlehre.
Diese Irrlehre haben wir im Artikel bewiesen anhand der Temperaturdaten des Potsdamer Institutes für Klimafolgenforschung (PIK), dem Zentrum der deutschen Klimamärchen. Auch für die Leute vom PIK-Potsdam gilt: Wissenschaft ist immer nur der aktuelle Stand des Irrtums.
Besonders zeigt sich diese Feststellung an der langen 120 jährigen Eisheiligenreihe der Wetterstation Potsdam bei der nächsten Grafik. Bitte beachten, in der Grafik sind auch die einzelnen Tage aufgelistet. Zu einem bestimmten Jahr gehören immer 5 Tage.

Grafik 5: Laut DWD-Tabelle gibt es zwar erhebliche Unterschiede bei den einzelnen Jahren bzw. Eisheiligentagen, aber insgesamt hat sich über 120 Jahre nichts verändert. Die Eisheiligen sind tatsächlich eine Folge kalter Tage in der Monatsmitte. Es gab in Potsdam keinen einzigen ganztägigen Eisheiligentag mit Minusgraden. Eisheiligentage mit Nachtfrösten gab es hingegen haufenweise.


Ursprünglicher Artikel der Pressestelle des Deutschen Wetterdienstes über die Eisheiligen
Auf der homepage des Deutschen Wetterdienstes (DWD) fand sich vor einigen Jahren noch eine ganz andere Einschätzung der Eisheiligen, siehe hier. Die Seite wurde nach unseren letztjährigen Artikeln gelöscht, wir haben jedoch einen Teil des Textes gerettet. Wir zitieren: „… Wahrscheinlichkeit des Auftretens nimmt weiter ab …“
„…In den letzten Jahren sind die Eisheiligen oft ganz ausgeblieben. Manchmal kam es zu Kaltlufteinbrüchen bereits Anfang Mai oder Ende Mai. Fröste traten jedoch auch dann immer seltener auf. Gelegentlich wurden die Eisheiligen bei Tageshöchstwerten von über 25 Grad Celsius sogar zu „Schweißheiligen“. Neuere Untersuchungen des Deutschen Wetterdienstes zeigen, dass die Häufigkeit von Kaltlufteinbrüchen Mitte Mai vor allem im süddeutschen Raum deutlich unter 50 Prozent liegt. Insofern ist die Frage berechtigt, ob man eigentlich noch von einer echten Singularität sprechen kann. Viele Experten führen die Veränderungen u. a. auch auf den Klimawandel zurück, denn mit der stetigen Erwärmung der globalen Atmosphäre fallen auch Kaltlufteinbrüche im Mai immer weniger frostig aus…“
Im nicht mehr auffindbaren Artikel des DWD wurde behauptet, dass die Wahrscheinlichkeit der frostigen Nächte vor allem in Süddeutschland deutlich unter 50 % liegen würde. Wer im Süden wohnt und die heurigen Tage bzw. Nächte in Erinnerung hat wird nun zu Recht schmunzeln. Denn die Grafik der Wetterstation Nürnberg-Netzstall zeigt das, was alle empfunden haben. Es sei aber angemerkt, dass die Station vor 12 Jahren einen Standortwechsel hatte. Die Daten sind die Originaldaten des Deutschen Wetterdienstes.

Grafik 6: Die Süddeutsche Wetterstation beim Aussiedlerhof Netzstall, Nähe Nürnberg zeigt ebenfalls seit 25 Jahren ein deutliches Kälter werden der Eisheiligen. Anstatt Netzstall hätte man auch die Grafik von Bad-Kreuznach nehmen können, die Trendlinie hat eine negative Steigung von: y = – 0,14 x in den letzten 25 Jahren


Immerhin hat der DWD seinen Artikel über die Eisheiligen zurückgezogen. Es wird somit Zeit, dass auch die Leute vom PIK-Potsdam die Konsequenzen ziehen und ihre falschen Behauptungen über das angebliche Erwärmungsgas Kohlendioxid „einstampfen“.
Zusammenfassung:
Die Eisheiligen sind kälter geworden, insbesondere in den letzten 25 Jahren.
Der Mai wird leicht kälter, aber die Eisheiligen noch stärker.
Die Kohlendioxidkonzentrationen sind seit 1958 stetig angestiegen.
Die CO2-Treibhauslehre ist eine Irrlehre.
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt aller politischen Entscheidungen gestellt werden.
Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler. Unabhängig, weil von niemandem bezahlt und bereits in Rente.




Das Ende der Menschheit ist in 30 Jahren

Wissenschaftler prognostizieren Ende der Menschheit

Dank den msn-Nachrichten kann man auf dem PC nun täglich so niveauvolle Information lesen, wie man sie früher ganz selten notgedrungen, bei schlimmster Langeweile wegen langer Wartezeit, verschämt im Wartezimmer durch „Bunte“, „Bild der Frau“, „Frau mit Herz“ erfuhr.
Und so erschien am 14. Mai die erschreckende Meldung, dass das Ende der Menschheit nun im Jahr 2050 erscheint. Um die Überlassung einer veredelten und gereinigten Erde an seine Enkel braucht man sich damit endgültig keine Sorgen mehr zu machen, da sie zu dem Datum völlig unbewohnbar geworden ist, die Enkel dann also eher die Sorge nach einem geeigneten Platz unter, als über der Erde haben.
Und diesmal weiß die Meldung, dass es ganz, ganz sicher geworden ist, denn „die Entwicklung lässt sich nicht mehr aufhalten“, wie es zwei besonders kompetente Wissenschaftler am anderen Ende der Welt ermittelt und publiziert haben.
msn-Nachrichten: [1] Wissenschaftler prognostizieren Ende der Menschheit
Schlechte Nachrichten ist die Menschheit ja schon gewohnt, besonders, wenn es um das Klima geht. Aber jetzt wird es heftig die Einschläge kommen so gesehen nicht nur näher, sie sind da!
Das Ende der Menschheit zu unseren Lebzeiten
Was da
australische Forscher an Daten gesammelt, ausgewertet und daraus dann resümiert haben, ist absolut erschreckend. Es geht um nicht weniger als den Zusammenbruch der Zivilisation und das Ende der Menschheit in 30 Jahren.
Das „Breakthrough National Centre for Climate Restoration“ hatte bei australischen Universitäten einen Bericht zum Klimawandel angefordert und die Forscher haben jeden diesbezüglich denkbaren Ablauf durchgespielt
Worst-Case-Szenario löscht die Menschheit aus
… Denn die
Entwicklung lässt sich nicht mehr aufhalten, selbst wenn der Mensch noch panisch versuchen sollte, all das umzusetzen, was vor Jahrzehnten hätte spätestens begonnen werden müssen
Lange hat man auf diese Präzisierung des künftigen Klimas warten müssen. Nachdem sich die Weltuntergänge zwar bisher schon häuften, dabei aber auch immer neu verschoben wurden; vom Ende des letzten Jahrtausend bis etwa zum Jahr 2100 (eine Listung findet sich bei [6]) ist es trotz des schlimmen Inhalts also fast eine Wohltat, dass die Wissenschaft nun herausfand, es wird mit Sicherheit in der Mitte dieser Zeitspanne geschehen.
Mancher mag Zweifel an dieser Aussage hegen. Leider hat ein bedeutender Klimaforscher diese zunichte gemacht. Mit seinen fachmännischen Augen hat er diesen Bericht gelesen, durchdacht und musste es leider bestätigen:
msn-Nachrichten: [1]Wie hoch ist die Wahrscheinlichkeit?
… Und wie wahrscheinlich ist es, dass sich die Dinge exakt so entwickeln werden? Klimaforscher Prof. Dr. Mojib Latif vom Geomar Helmholtz-Zentrum für Ozeanforschung in Kiel sagt dazu:
„Die Studie behandelt sogenannte ‚Low ProbabilityHigh Impact‘-Events, also Ereignisse, die mit einer geringen Wahrscheinlichkeit eintreten werden, aber ein enormes Schadenspotenzial haben.“
Mit anderen Worten: Es muss nicht so kommen, aber man kann es auch nicht ausschließen.
Damit gab M. Latif diesem Bericht sein wissenschaftliches „Gewicht“. Allerdings schloss er seine Bewertung (laut Artikel) mit den kryptischen, wissenschaftlichen Worten, welche inzwischen wohl jeden Politiker zur Verzweiflung treiben:
msn-Nachrichten: [1] Ob dieser Befund möglicherweise ein Weckruf an die Verantwortlichen ist, bleibt abzuwarten.

Der Klima-Untergangs-Report

Auf der folgenden Homepage findet sich eine Beschreibung und man kann den Report laden:
[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?
Die Vorlage für die msn-Nachrichten findet sich unter:
[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says
Der Report selbst heißt: [3] Report: Existential climate-related security risk: A scenario approach, May 2019
und beschreibt auf sieben inhaltsschweren Seiten, warum die Welt im Jahr 2050 untergeht.
Schon daran lässt sich die hohe, wissenschaftliche Kunst der Autoren erkennen. Während das IPCC für seinen AR5-Langbericht 1552 Seiten benötigt, weshalb immer ein politisches Gremium notgedrungen einen eigenen, vom Inhalt des Langberichtes streckenweise losgelösten Kurzbericht fabuliert, schaffen es diese Fachpersonen mit sieben Inhaltsseiten, das Wichtige und Notwendige darzustellen und zu belegen.
Als Autoren werden genannt:

Bild 1 Autor des Reports [3]

Bild 2 Autor des Reports [3]

Deshalb wurde er verfasst

Gleich als Einleitung findet sich ein prominenter Ausspruch des berühmten Klimawissenschaftlers, Dr. Gavin Schmidt (Leiter des Goddard Institute for Space Studies der NASA und ausgewiesener Klimaaktivist), der in dieser Wissenschaft auch konsequent angewandt wird:

Bild 3 Einleitungsstatement des Reports [3]

Übersetzung: „Das wahre Worst-Case-Szenario könnte es sein, wenn wir uns nicht trauen, den sicheren Hafen des Bekannten zu verlassen und das tückische Unbekannte erforschen“.
Praxisnäher übersetzt: Auch das Unwahrscheinliche kann wahr werden und ist deshalb als Möglichkeit zu erforschen (beim Klimawandel bedeutet dies: zu simulieren). Die (schrecklichen) Ergebnisse sind – so unwahrscheinlich sie auch eintreten –, als ob sie doch kommen würden und damit eine große Gefahr bedeuten, zu publizieren ...
Weiterführung des Autors: … Es gibt nämlich immer Bevölkerungskreise, welche jede noch so unwahrscheinliche Apokalypse für bare Münze nehmen und bedingungslosen Schutz davor fordern. (Nicht nur) die Freitagshüpfer sind ein beredtes Beispiel.

Fachinhalte

Das erste Kapitel lautet: SCIENTIFIC RETICENCE und erläutert zum Beispiel Szenarien des Meeresspiegels und der Temperatur:[3] … In one example, the IPCC’s Fifth Assessment Report in 2014 projected a sea-level rise of 0.55-0.82 metre by2100, but said “levels above the likely range cannot bereliably evaluated”. By way of comparison, the higher of two US Department of Defence scenarios is a two-metre rise by 2100, and the “extreme” scenariodeveloped by a number of US government agencies is 2.5 metres by 2100
„SCIENTIFIC RETICENCE“ lässt sich in diesem Zusammenhang gut wie folgt beschreiben:
[5] Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel
Profis müssen sich über drohende Gefahren äußern, auch wenn sie etwas falsch machen …
Wenn es um den Klimawandel geht, manifestiert sich das Bedürfnis nach übermäßiger Vorsicht und absoluter Sicherheit der Ergebnisse leider als Schweigen der Mainstream-Wissenschaft über die schlimmsten, aber wahrscheinlichen Folgen und die schlimmsten Szenarien, die immer wahrscheinlicher werden …

Die große Gefahr

Im Report geht es (nur) darum, auch unwahrscheinlich(st)e Szenarien als eine große Gefahr dazustellen.
Beispielhaft an Gefahren sind gelistet (Auszug):
Report [3]: Scientists warn that warming of 4°C is incompatible with an organised global community, is devastating to the majority of ecosystems, and has a high probability of not being stable. The World Bank says it may be “beyond adaptation”.
But an existential threat may also exist for many peoples and regions at a significantly lower level of warming. In 2017, 3°C of warming was categorised as “catastrophic” with a warning that, on a path of unchecked emissions, low-probability, high-impact warming could be catastrophic by 2050
Grob verbesserte Deepl-Übersetzung: Wissenschaftler warnen davor, dass eine Erwärmung um 4°C unsere globale Staatenorganisation ins Wanken bringt, sich auf die Mehrheit der Ökosysteme verheerend auswirkt und mit hoher Wahrscheinlichkeit nicht stabil sein wird (Anm.: Ob damit das Klima, oder die Staatsordnungen gemeint sind, erschließ sich aus dem Text nicht eindeutig, es werden aber wohl die 4 Grad gemeint sein). Die Weltbank sagt, es könnte dann „jenseits der Anpassungsmöglichkeit“ (der Ökosysteme) liegen.
Aber eine existenzielle Bedrohung könnte für viele Völker und Regionen auch
(schon) bei einer deutlich geringeren Erwärmung bestehen. Im Jahr 2017 wurden 3°C Erwärmung als „katastrophal“ eingestuft, mit der Warnung, dass auf einem Pfad (wenig wahrscheinlicher) unkontrollierter Emissionen bereits diese Temperaturerhöhung im Jahr 2050 katastrophal sein könnte.
Bestätigung finden die Autoren zum Beispiel in Aussagen von Herrn Schellnhuber (ehemaliger PIK-Leiter):
Report [3]: The Emeritus Director of the Potsdam Institute, Prof. Hans Joachim Schellnhuber, warns that “climate change is now reaching the end-game, where very soon humanity must choose between taking unprecedented action, or accepting that it has been left too late and bear the consequences.” He says that if we continue down the present path “there is a very big risk that we will just end our civilisation. The human species will survive somehow but we will destroy almost everything we have built up over the last two thousand years.”
Grob verbesserte Deepl-Übersetzung: (Schellnhuber) warnt davor, dass „der Klimawandel nun den Zeitpunkt erreicht, wo sich die Menschheit sehr bald entscheiden muss, entweder beispiellose Maßnahmen zu ergreifen oder zu akzeptieren, dass sie den Lösungszeitpunkt verpasst hat und die Folgen tragen muss“. Er sagt, wenn wir den gegenwärtigen Weg (der CO2-Emission) weitergehen, „besteht die sehr große Gefahr, dass wir unsere Zivilisation (damit) einfach beenden. Die menschliche Spezies wird irgendwie überleben, aber wir werden fast alles zerstören, was wir in den letzten zweitausend Jahren aufgebaut haben“.
Man erkennt den „Beleghintergrund“ der später kommenden, extremen, aber auch sehr unwahrscheinlichen Klima-Schreckensszenarien: Es geht um die Klima-Kipppunkte, welche als Folge überproportionale Steigerungen erzeugen und (nur) so unwahrscheinliche Extremwerte „wahrscheinlich“ werden lassen.
Report [3]: This is a particular concern with potential climate tipping-points — passing critical thresholds which result in step changes in the climate system that will be irreversible on human timescales — such as the polar ice sheets (and hence sea levels), permafrost and other carbon stores, where the impacts of global warming are non-linear and difficult to model with current scientific knowledge.
… Recently, attention has been given to a “hothouse Earth” scenario, in which system feedbacks and their mutual interaction could drive the Earth System climate to a point of no return, whereby further warming would become self-sustaining. This “hothouse Earth” planetary threshold could exist at a temperature rise as low as 2°C, possibly even lower ….

Grobe Deepl-Übersetzung: Dies ist besonders besorgniserregend im Hinblick auf potenzielle Klimakipp-Punkte – das Überschreiten kritischer Schwellenwerte, die zu schrittweisen Veränderungen des Klimasystems führen, die auf menschlichen Zeitskalen irreversibel sind – wie die polaren Eisschilde (und damit der Meeresspiegel), Permafrostböden und andere Kohlenstoffspeicher, wo die Auswirkungen der globalen Erwärmung nichtlinear und mit den derzeitigen wissenschaftlichen Erkenntnissen schwer zu modellieren sind.
… Kürzlich wurde die Aufmerksamkeit auf ein „Treibhaus Erde“-Szenario gelenkt, in dem Systemrückkopplungen und ihre gegenseitige Wechselwirkung das Klima im Erdsystem bis zu einem Punkt ohne Wiederkehr treiben könnten, an dem sich eine weitere Erwärmung selbst trägt. Dieser „Treibhaus Erde“-Schwellenwert könnte bei einem Temperaturanstieg von nur 2°C, möglicherweise sogar bei niedrigeren liegen …
.
Im Kern ist damit die „Belegführung“ des Reports abgehandelt. Nicht ein eigener – gar neuer – Gedanke ist im Report zu finden. Es reicht den Autoren, was vor allem Herr Schellnhuber „gesagt“ hat. Zwar sind noch (für Klimapublizierungen geradezu extrem wenige) Fundstellen gelistet. Deren „Belegqualität“ teilweise aber auf dem folgenden Niveau:
Fundstelle: 11 Breeze, N. 2018. “It’s non-linearity, stupid”, The Ecologist, 3 January 2019, accessed 18 March 2019
Hinter dieser Fundstelle steckt dann nichts anderes, als ein Interview mit Herrn Schellnhuber:
ECOLOGIST 3rd January 2019: ‚It’s nonlinearity – stupid!‘
Nick Breeze interviews professor John Schellnhuber, who set up the Potsdam Institute for Climate Impact Research in 1991 to study climate.

Sehr seltene Ereignisse sind viel wahrscheinlicher als bisher angenommen …

Alle IPCC-Reports „handeln“ und bewerten mit Wahrscheinlichkeiten. Bleibt man bei den Wahrscheinlichen, kommen allerdings keine wirklichen Schreckensszenarien zustande (bleibt man bei den Messwerten, dann nicht einmal mehr das).
Um ihn trotzdem zu „erzeugen“, bleibt also nur die Wahl, den statistischen „Vertrauensbereich“ extrem auszuweiten, im Klartext: auch unwahrscheinlich(st)e Simulationsergebnisse in den Überdeckungsbereich des „Vertrauens“ mit einzubeziehen. Mit Statistik nicht so „Bewanderte“ meinen dazu, solche Ergebnisse hätten dann besonders viel „Vertrauen“.
Ein paar Grafiken zu Erläuterung:
Das folgende Bild zeigt die Simulations-Pegelverläufe aus dem IPCC AR5 Sachstandsbericht. Mit dem als wahrscheinlichst geltendem Scenario RCP 2.6, beträgt die Pegelerhöhung zum Jahr 2100 zwischen 18 … 59 cm. Die lineare Fortschreibung des Tidenpegelverlaufs ergibt +15 … 20 cm (Anm.: Der Pegelforscher Prof. Mörner geht von -+10 cm aus).
Dies sind zum Jahr 2100 die wahrscheinlichsten Werte. Entsprechen (mit einem zusätzlichen Risikopuffer) werden Küsten-Schutzmaßnahmen in Ländern, deren Politiker auf den Schutz ihrer Bevölkerung (und nicht nur des eigenen) Wert legen (und es bezahlen können) ausgeführt.

Bild 4 Pegel-Verlaufssimulationen nach verschiedenen CO2-Szenarien. Quelle: IPCC AR5


Die Autoren des Berichtes behaupten nun, dass dies falsch ist. Es könnte ja sein, dass auch ein extrem selten wahrscheinlicher Fall doch eintritt und wenn er kommt, ist man nicht gewappnet.
Das folgende Pegel-Simulationsbild zeigt eine solche Simulation eines mit sehr hoher Wahrscheinlichkeit (da auch physikalisch unmöglich) nicht eintreffenden Pegel-Szenarios:

Bild 5 Pegel-Verlaufssimulationen unter Mitarbeit des PIK. Daten [8]. Grafik vom Autor erstellt

Mit diesem Vorgehen ist natürlich wirklich jeder Alarm erzeugbar. Auch der, dass die Erde im Jahr 2050 wegen des Klimas fast nicht mehr bewohnbar ist. Auch, die „Unrettbarkeit“, da die Kosten einer „Rettung“ von keiner Ökonomie der Welt bezahlt werden könnte.
Report [3]: Analysis of climate-related security threats in an era of existential risk must have a clear focus on the extremely serious outcomes that fall outside the human experience of the last thousand years. These “fat-tail” outcomes have probabilities that are far higher than is generally understood.
Grobe Deepl-Übersetzung: Die Analyse der klimabedingten Sicherheitsbedrohungen in einer Ära existentieller Risiken muss einen klaren Fokus auf die äußerst schwerwiegenden Folgen haben, die außerhalb der menschlichen Erfahrung der letzten tausend Jahre liegen. Diese „Fat Tail“-Ergebnisse haben Wahrscheinlichkeiten, die weit höher sind, als allgemein verstanden wird.
Um dieses Vorgehen zu rechtfertigen, wird wiederholend Herr Schellnhuber bemüht:
Report [3]: In Prof. Schellnhuber’s words: “We must never forget that we are in a unique situation with no precise historic analogue. The level of greenhouse gases in the atmosphere is now greater, and the Earth warmer, than human beings have ever experienced …
Grobe Deepl-Übersetzung: (Schellnhuber) „Wir dürfen nie vergessen, dass wir uns in einer einzigartigen Situation befinden, in der es keine genaue historische Entsprechung gibt. Das Niveau der Treibhausgase in der Atmosphäre ist heute höher und die Erde wärmer, als es die Menschen je erlebt haben …
Dass alleine die Aussage: (Schellnhuber) „ … die Erde wärmer, als es die Menschen je erlebt haben … „ mit Sicherheit nicht stimmt, tut der „Belegführung“ in den Augen der Berichtsautoren keinen Abbruch.
Und so wird auch nach Schellnhubers „Anleitung“ vorgegangen:
Report [3]: In this spirit, we sketch a 2050 scenario

Welche Erde trifft man im Jahr 2050 an?

Report [3]: By 2050, there is broad scientific acceptance that system tipping-points for the West Antarctic Ice Sheet and a sea-ice-free Arctic summer were passed well before 1.5°C of warming, for the Greenland Ice Sheet well before 2°C, and for widespread permafrost loss and large-scale Amazon drought and dieback by 2.5°C. The “hothouse Earth” scenario has been realised, and Earth is headed for another degree or more of warming, especially since human greenhouse emissions are still significant.
… While sea levels have risen 0.5 metres by 2050, the increase may be 2–3 metres by 2100, and it is understood from historical analogues that seas may eventually rise by more than 25 metres
Grob verbesserte Deepl-Übersetzung: Zum Jahr 2050 gibt es eine breite wissenschaftliche Akzeptanz, dass die System-Kipp-Punkte für den westantarktischen Eisschild und einen meereisfreien arktischen Sommer bereits weit unterhalb einer Erwärmung um 1,5°C überschritten sind, für den grönländischen Eisschild weit unterhalb 2°C und für einen großflächigen Permafrostverlust und großflächige Dürre und Absterben im Amazonasgebiet mit 2,5°C.
Das „Gewächshaus Erde“-Szenario ist dann eingetroffen, und die Erde steuert auf eine weitere oder noch stärkere Erwärmung zu, zumal die Treibhausgasemissionen des Menschen immer noch beträchtlich sind.
… Während der Meeresspiegel bis 2050 um 0,5 Meter angestiegen ist, könnte der Anstieg bis 2100 2-3 Meter betragen, und aus historischen Analogien geht hervor, dass die Meere schließlich um mehr als 25 Meter ansteigen könnten …

Was dazu im Bericht fehlt, ist die physikalische Tatsache, dass dazu ein ganz großes Schmelzen der Antarktis erforderlich ist und dieses dazu mehrere Tausend Jahre benötigen würde.
Nach diesen nicht nur vollkommen kritiklos, sondern bedingungslos zustimmend, vorwiegend vom PIK übernommen Listungen extremster Simulations-Szenarien sollte man annehmen, es würden nun etwas konkreter Details und neue Gesichtspunkte dazu erscheinen. Doch davon kommt: nichts. Stattdessen warnende Beschreibungen und mit Sicherheit der einzige, wichtige Absatz des Reports für dessen Auftraggeber:
Report [3]: To reduce such risks and to sustain human civilisation, it is essential to build a zeroemissions industrial system very quickly. This requires the global mobilisation of resources on an emergency basis, akin to a wartime level of response.
Grobe Deepl-Übersetzung: Um solche Risiken zu verringern und die menschliche Zivilisation aufrechtzuerhalten, ist es unerlässlich, sehr schnell ein Null-Emissions-Ökosystem aufzubauen. Dies erfordert die globale Mobilisierung von Ressourcen auf Notfallbasis, ähnlich der Reaktion in Kriegszeiten …

Warum hat sich M. Latif das angetan?

Dieser „Bericht“ fällt (rein persönliche Meinung des Autors als Klimalaien) ohne zu zögern in die Kategorie „Auftragsleistung, die nicht einmal im Ansatz Wert darauf legt, einen Anflug von Seriosität zu verbreiten und ihren Fachinhalt weder neutral-, noch im Ansatz wissenschaftlich prüft“.
Immer wieder erschreckend zu sehen, welch unterirdisches Niveau zum Klimawandel veröffentlicht und von Medien gepriesen wird.
Dass allerdings einer wie M. Latif dazu noch einen (im Ansatz positiven) Kommentar beisteuert, muss man wohl als einen Akt eigener Verzweiflung betrachten. In solchen Seelenzuständen hat man sich einfach nicht mehr ausreichend im Griff:
Badische Neueste Nachrichten, 25. September 2019: Klimaforscher Mojib Latif in Karlsruhe: „Ich bin gescheitert
Wenn man nun noch weiß, dass dieser Bericht bereits letztes Jahr um fast die gleiche Zeit erschien und schon damals mit der gleichen Reaktion „besprochen“ wurde:

[9] Bild-Zeitung: „Schon 2050 könnte die Menschheit am Ende sein, weil die Erde nicht mehr bewohnbar sein könnte. Das prognostizieren jetzt australische Forscher in einem Klimareport.“
… laut einem Bericht aus Australien könnte diese Erfolgsgeschichte schon bald zu einem katastrophalen Finale kommen.
und dann wieder am 10.09.2019 im FOCUS, erkennt man die perfide Beeinflussungsstrategie unserer Medien, durch regelmäßiges Wiederholen der gleichen Information, so als ob sie gestern neu verfasst worden wäre.
Doch nun eine Entschuldigung für M. Latif. Auch andere „Klimaforscher“ sind sich für nichts zu schade:
[9] Bild-Zeitung: Zu Einordnung der Studie erklärte Klimaforscher Dr. Martin Stendel vom dänischen Meteorologischen Institut (DMI) gegenüber BILD: „Die australischen Forscher folgen dem Ansatz: Können wir sicher ausschließen, dass es wesentlich extremere Entwicklungen gibt? Nein, das können wir nicht. Solchen extremen Entwicklungen können wir zwar keine Wahrscheinlichkeiten zuordnen, aber sie sind möglich.“
Aber die Bild-Zeitung achtet immer auch auf (etwas) Ausgewogenheit:
[9] Es gibt jedoch auch Kritik an dem Bericht. Der Klimaforscher Prof. Dr. Hans von Storch gegenüber BILD: „Das ist ein schönes Stück interessengeleitetes Verschrecken von Menschen. Medial sicher zur erschreckender Unterhaltung geeignet, aber in der Sache ein weiterer Versuch, den Versuch lächerlich zu machen, den Klimawandel ernst zu nehmen.“ ...
Quellen
[1] msn Nachrichten 14.05.2020: Das Ende der Menschheit in 30 Jahren
[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?
[3] Report: Existential climate-related security risk:A scenario approach May 2019
[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says
[5] DownToEarth: Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel
[6] Salonkolumnisten, 15. Juli 2019: Wir sind noch einmal davongekommen
[7] EIKE 22.02.2020: Greta weiß genau Bescheid … Der Meeresspiegel könnte um 0,04 … 10 m steigen… ist die etwas umformulierte Botschaft, welche ein Video mittels Aussagen des PIK vermittelt
[8] Climate Central, November 2015: MAPPING CHOICES CARBON, CLIMATE, AND RISING SEAS OUR GLOBAL LEGACY
[9] Bild-Zeitung, 06.06.2019: Australische Forscher warnen vor Nichts-Tun Schock-Prognose zur Klimakatastrophe