Die Hitzetoten des Dr. von Hirschhausen

Der Klimafolgen-Fachmann von Hirschhausen

Laut Herrn Hirschhausen haben Hitzewellen eine so hohe Sterberate, dass Covid-19 dagegen eher nebensächlich ist, weil Hitze das wirkliche – neue – Mortalitätsproblem aufgrund des Klimawandels wäre: [2] um die größte Gesundheitsgefahr, nämlich die Klimakatastrophe anzugehen … Die Welt vorher war nicht normal, wir schliddern in diesem Jahrzehnt auf die entscheidende Phase zu, in der sich entscheidet, ob Menschen überhaupt auf dieser Erde bleiben können.“
.. „Wir haben 20.000 Hitzetote im letzten Jahr gehabt! Das waren sehr viel mehr sozusagen Übersterblichkeit im Sommer als an Covid. Hat keiner drüber geredet. Wir sind das Land mit den dritthäufigsten Hitzetoten nach China und Indien. Warum kommt das in den Medien nicht vor?“ …

Dass solche Aussagen in den Medien nicht (auch) vorkämen, stimmt natürlich nicht. Und unsere – von jeglichem Wissen zum Klima und seinem regelmäßigen Wandel befreite (rein persönliche Meinung des Autors, die durch nichts belegt ist) – Umweltministerin ist ja ebenfalls dieser Ansicht:
[3] Merkur 26.11.2019: (Sv. Schulze) „Alarmierend“ Immer mehr „heiße Tage“: Ministerin mit drastischem Urteil über Klima-Folgen für Deutschland … Der Klimawandel hinterlässt in Deutschland immer heftigere Spuren. Laut einem neuen Bericht der Bundesregierung kam es wegen der Hitze sogar zu mehr Todesfällen.
… Die Folgen des Klimawandels lassen sich immer besser erkennen. Bundesumweltministerin Svenja Schulze spricht über „alarmierende“ Befunde …
Nur können Hitze-„Todesmeldungen“ eher selten gebracht werden, denn Herrn Hirschhausens Aussage hat einen gravierenden Fehler: Sie stimmt nicht. Zur Veranschaulichung dieser These, vorab der Verlauf der Sterblichkeit in Deutschland über die letzten fünf Jahre mit Kennzeichnung der „Hitzewellen-Überversterbung“ 2019 und den bisher Covid-19 zugeordneten Sterbewerten:

Bild 1 Deutschland, Verlauf Sterbezahlen 2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Was ist bei uns mortaler? Hitze oder Kälte?

Glaubt man offiziellen „Informationen“, dann muss Sommerhitze ein zunehmendes Sterblichkeits-Problem geworden sein. Zum Beispiel listet der deutsche Klimabericht 2019 dazu Schlimmes, während zur Mortalität im Winterhalbjahr allerdings keine Angaben oder Hinweise enthalten sind:

Bild 2 Deutscher Klima-Monitoringbericht 2019, Angaben zur Hitzemortalität

Auch das Ärzteblatt berichtete darüber:
Ärzteblatt 2019 MEDIZINREPORT: Studien im Fokus: Übersterblichkeit bei Hitzewellen in Deutschland: Zahl der hitzebedingten Todesfälle zwischen einigen Hundert und vielen Tausenden
… In Deutschland traten 11 der extremsten Hitzewellen seit 1950 nach der Jahrtausendwende auf. Dazu gehörten die Sommer der Jahre 2003, 2006, 2013, 2015 und 2018 …

Ein unbedarfter Bürger muss danach annehmen, dass inzwischen wohl die Sommerhitze die im Jahr „anfallenden“ Über-Verstorbenen „erzeugt“ und in den restlichen Jahreszeiten – schließlich werden die Winter immer wärmer – anscheinend keine Übermortalität vorliegt. Wie es schon Bild 1 zeigt, ist allerdings genau das – weiterhin – nicht der Fall.

Eine Studie

Über das „Ärzteblatt“ findet sich eine Studie zur hitzebedingten „Übersterblichkeit“ vom RKI: [5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017,
worin Mortalitätsangaben in einer Grafik ab 1967 und tabelliert ab 1993 angegeben sind.

Die Langzeitgrafik in der Studie ist recht undeutlich abgebildet. Trotzdem zeigt sie die teils extremen Kälte-Mortalitätsspitzen und anhand der kaum erkennbaren roten Hitzemortalitäten, wie vergleichbar niedrig diese sich dagegen ausmachen.

Bild 3 Mortalitätsverlauf seit 1967. Quelle: [5] GRAFIK 1b, Teilbilder vom Autor zusammengesetzt

Die tabellierten Werte der Studie beginnen mit dem Jahr 1992. Diese anbei umgesetzt und dabei gleich mit den Werten des Klimaberichtes 2019 (Bild 2, ab dem Jahr 2001) verglichen.
Sofort spring ins Auge, dass die hitzebedingte Mortalität seit langem abnimmt und von einer Erhöhung überhaupt keine Spur zu sehen ist. Hätte man das nach den Aussagen von Herrn Hirschhausen (und unserer Umweltministerin [3]) auch nur entfernt vermutet?

Bild 4 Deutschland, hitzebedingte Sterbefälle. Tabelle vom Autor erstellt. Daten [5], eTabelle 1 und Klima-Monitoringbericht 2019, Tab. GE-1-2

Absolutwerte sind nicht vergleichend. Deshalb noch die Relativzahlen. Man muss sich diese ganz in Ruhe durch den Kopf gehen lassen, um zu erkennen, für welch kleines, medial jedoch gnadenlos hochgepuschtes (Pseudo-)Problem auch der Wahnsinn an Aufwand und Ausgaben in Billionenhöhe durch CO2-Verhinderung betrieben wird:

Bild 5 Prozentualer Anteil der Hitze-Sterbefälle an der Jahres-Gesamt-Sterbezahl. Tabelle vom Autor erstellt

Und selbst dieses wirklich kleine Problem lässt sich sehr gut vor Ort einfach und billig lösen. Die Studie des RKI hat dazu eine Schlussfolgerung:
[5] … Insgesamt wird der Effekt von Hitze auf die Mortalitätsrate über die betrachteten Dekaden schwächer. Dies deutet auf Anpassungsprozesse hin, die auf einer physiologischen Anpassung (34) beruhen können, aber vermutlich vor allem durch Hitzewarnungen (35) und anderen Präventivmaßnahmen, besonders in der Betreuung älterer Menschen, verursacht wurden …
Solche „Anpassungsprozesse“ sind: Vor allem zur Verhinderung einer Dehydrierung ausreichend Wasser trinken und vielleicht auch endlich einmal den Komfort von Klimatisierung im Altersheim.
Herr Hirschhausen möchte als „Lösung“ dagegen unbedingt weltweit CO2 verhindern und inzwischen auch Bürgerrechte – für Aktivitäten welche CO2 emittieren – einschränken.
Ein besseres Beispiel für den idiotischen, da (falls überhaupt etwas wirksam) hoffnungslos überteuerten und uneffektiven CO2-Wahnsinn, mit dem alleine Deutschland mit Billiardenaufwand vesucht, die Welttemperatur bis zum Jahr 2100 um sagenhafte (nicht einmal gesicherte) 0,035 Grad zu reduzieren [6], findet man selten.

Eigentlich könnte der Artikel nun enden. Wer sich mit dem Thema näher beschäftigt, stellt allerdings fest: Nahezu immer fehlen bei Angaben zur ach so schlimmen Hitzemortalität Vergleiche mit der Mortalität im Winter. Nicht einmal der dicke Klima-Monitoringbericht 2019 erwähnt etwas dazu.
Dieser Mangel soll mit dem nun folgenden Kapitel behoben werden.

Übersterblichkeit

Wie schon bei der Bewertung von Coronadaten stellt sich auch bei der von Hitzewellen-Übersterblichkeit die Frage, wie eine Übersterblichkeit überhaupt definiert wird. Bei „Corona“ gibt es „offiziell“ eine, welche allerdings recht augenscheinlich falsch und unbrauchbar ist [4], was führende Politiker jedoch nicht hindert sie anzuwenden, weil diese sicher alarmistische Ergebnisse liefert und ihnen damit „in den Kram“ passt.

zur Hitzemortalität hat der Autor keine gefunden. Auch anderen scheint es so zu gehen, denn es gibt erhebliche Zahlendifferenzen zwischen einzelnen Publikationen. Deshalb vor der Auswertung der Versuch einer Definition dazu.

Daten zur Langzeit-Sterberate lassen sich finden. Anbei ein Datensatz, der beim Statistischen Bundesamt über einen Link hinterlegt ist.

Bild 6 Deutschland, Sterbezahlen ab 1995 (Auszug der zeitlich längeren Gesamtdaten). Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Betrachtet man die Daten, stellt man verblüffend fest, dass die Werte bis zum Jahr 2000 bezüglich der Auflösung deutlich anders aussehen, als die danach. Und ausgerechnet die wichtigen „Sommer“-Sterbewerte sind in den Daten vor dem Jahr 2000 darin deshalb nicht zu finden. (Wieder) ein exemplarisches Beispiel für die teils erschütternd schlechte Datenqualität in unserem Hochtechnologie-Land und ein Hinweis, Daten nie „Blind“, also rein schematisch oder über so etwas wie „Künstliche Intelligenz“ auszuwerten. Vielleicht auch ein Grund, warum die „Hitzemortalität“ erst seit dem Jahr 2000 (in den Medien) so präsent ist? Jedenfalls sind die Daten erkennbar erst ab dem Jahr 2000 verwertbar.

Den Mortalitätsverlauf seit dem Jahr 2020 zeigt das folgende Bild. Ergänzend zum Bild 1 zeigt es auch die nach Herrn von Hirschhausen besonders erwähnenswerte, „hohe“ Übersterblichkeit im Sommer 2019 im zeitlich längerem Kontext:

Bild 7 Deutschland, Sterbezahlen ab 2000 bis 2020. Jahre mit besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Die zusätzlich eingetragenen, besonderen „Hitze“-Übersterblichkeits-Jahre sind im Monitoringbericht 2019 (Bild 2) deklarierte Jahre und im „Ärzteblatt“ im Jahr 2019 angegebene.

Im Bild 7 muss man die Überverstorbenen der Sommerhitze wirklich suchen, da diese aufgrund der hohen „Wintersterblichkeit“ stark zurücktreten.

Zur Festlegung einer Definition für „Übersterblichkeit“ nun eine Überlegung. Betrachte man die Sterbezahlen der Einzelmonate im Bild 8,

Bild 8 Sterbewerte im Kalendermonat. Grafik vom Autor erstellt

ist erkennbar, dass die minimalen Sterbewerte recht stabil um den Monaten Juni und September liegen. Daraus wäre zu folgern, dass diese Monate sozusagen minimal-Mortalitäts-„Idealtemperatur“ haben. Es erscheint also angebracht, diese zwei Monate als Referenz anzuziehen und Abweichungen von den Sterbewerten dieser „minimal-idealen“ Monate als „Überverstorben“ zu bezeichnen.
Getan, zeigt sich das Ergebnis von Bild 9. Die Fehler dieser Festlegung sind erkennbar (negative Werte), jedoch sehr gering.

Bild 9 Sterbedaten von Bild 7 nach dem Kriterium von Bild 8 bewertet und als positive Abweichungen dargestellt. Grafik vom Autor erstellt

Danach lassen sich die Monate bewerten und die Übermortalität für die Sommerhitze und Winterkälte separieren. Erstmals bekommt man damit ein „Gefühl“ für den Einfluss von Winter- und Sommerzeiten auf die „Übersterblichkeit“.

Bild 10 Bild 9 ausgewertet und die Übermortalitäten als positive Abweichungen separiert. Jahre mit im Klimabericht 2019 besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt

Nicht nur ein „Gefühl“, sondern die konkreten Jahreswerte, und somit einen effektiven Vergleich liefert die Grafik der separierten Jahressummen.
Über die angeblich extrem vielen Hitze-Verstorbenen im Jahr 2019 (rot eingerahmt) hat sich Herr Hirschhausen ganz besonders entrüstet. Wobei sich dazu wirklich die Frage stellt: Ist dieser Herr noch bei Sinnen?

Bild 11 Übersterblichkeiten von Sommerhitze- und Kältezeitraum getrennt als vergleichbare Jahreswerte. Hitzemortalität im Sommer 2019 gekennzeichnet. Grafik vom Autor erstellt

Nochmals der Hinweis, dass die Grafiken Bild 10/11 auch negative Werte haben. Das ist der im Bild 9 erkennbare Überlappungs – und damit fehlerbehaftete Bereich der Separierung. Nimmt man diesen „weg“, was sicher datengemäß nicht einfach zulässig ist, sondern aufwendig korrigiert werden müsste. zeigt sich das folgende Verhältnis zwischen Winter- und Sommer-Übersterblichkeit:

Bild 12 Daten von Bild 11 ohne negative Werte. Grafik vom Autor erstellt

Bleibt noch zuzufügen, dass die Trennung nach der Definition „Überverstorben“ des Autors natürlich zu anderen Werten als in der Studie und im Klimabericht führt. Komischerweise erscheint die größte Abweichung beim oft publizierten, „ganz schlimmen“ Hitze-Mortalitätsjahr 2003.
Eine mögliche Folgerung wäre: Die Übersterblichkeitsangaben für dieses Jahr sind nicht aus Messzahlen abgeleitet, sondern entstammen fiktiven Hochrechnungen (der Autor hält dies auch für Wahrscheinlich).

Bild 13 Vergleich der Hitze-Mortalitätswerte Klimabericht 2019/nach Definition Autor. Mit zugefügter Sommer-Temperaturanomalie. Grafik vom Autor erstellt

Fazit

Alleine anhand der Datenlage würde jeder wirklich an im Jahresdurchschnitt minimalisierter Mortalität Interessierte folgern, dass dazu auf keinen Fall die Hitze verringert, sondern die Kälte weiter reduziert, es also wärmer werden müsste.

Diese einfach zu belegende und dazu auch noch eindeutige Erkenntnis ist für unsere Klimaalarmisten jedoch schon alleine aus ideologischen Gründen nicht entfernt akzeptabel. Und so werden in den Publikationen zur Hitzemortalität in der Regel einfach die Angaben zur wesentlich höheren Mortalität der kühlen bis kalten Jahreszeiten weggelassen, um die Bürger – welche die Maßnahmen bezahlen und immer weiter gehende Einschränkungen ertragen müssen – nicht zu verunsichern und gar „ins Grübeln“ zu bringen
Zwar reduziert dies die Aussagen auf ein fachliches Niveau von Kindergarten- bis Schulkindern, aber die „Experten“ müssen sich so weit herablassen, sonst könnten sie nicht mit denen gemeinsam gegen solche Fakten „hüpfen“.

Herr Hirschhausen ist inzwischen ein reiner Klima-Agitator. Welchen fachlich wirklich extremen Unsinn er dazu unwidersprochen im „Öffentlichen“ vorträgt und auch darf, wurde nun gezeigt. Dass in Talkshow-Runden, woran angeblich so etwas wie wenigstens im Ansatz fachlich zum Thema informierte Personen teilnehmen, es niemand bemerkt, ist inzwischen schon zum „Öffentlichen Markenzeichen“ geworden und zeigt die durchschlagenden Erfolge der Klimapropaganda und Verdummung in Deutschland, auch bei unserer angeblichen „Intelligenz“.

Zufügung: Der Autor tut Herrn Hirschhausen etwas unrecht. Dieser plappert ja nur treu nach, was ihm vorgegeben und gefordert wird, um im lukrativen „Öffentlichen“ auftreten zu dürfen. Vielleicht hat sein kompromissloser Schulterschluss mit den Freitagshüpfern auch solche Gründe. Schließlich wäre es nichts Verwerfliches, auf ein Einkommen angewiesen zu sein.
Fachlich dürfte Herr Dr. med. v. Hirschhausen sehr wohl in der Lage sein, die Faktenlage zu überblicken. Schließlich sind fast alle medizinischen Dissertationen mehr oder weniger statistische Fallanalysen. Seine dürfte dazu gehören: Promotionstitel: Wirksamkeit einer intravenösen Immunglobulintherapie in der hyperdynamen Phase der Endotoxinämie beim Schwein

Personen wie unsere Umweltministerin sind für die Faktenbetrachtung allerdings wirklich zuständig. Wenn solche gegen die Faktenlage Gleiches behaupten, sind sie ihren Amtseid Missachtende. Doch dazu lässt sich hinzufügen: Wäre Frau S. Schulze nicht ohne jegliches belastende Wissen über das Klima und seinem stetigen Wandel (Wiederholung: Rein persönliche Meinung des Autors und unter wirklichen Klima-Fachpersonen nicht belegt), hätte sie unter der unfehlbaren Merkel den Minister*innen-Job niemals bekommen. Das war schon bei ihrer fast schon krankhaft klimahysterischen Vorgängerin so und bei einer ganzen Ministerkette davor ebenfalls.

Quellen

[1] EIKE 19. Januar 2021: Klimawarner Eckart v. Hirschhausen: Mehr Hitzetote als Corona-Opfer

[2] Achgut, 17. Januar 2021: Der Klima-Wendler: Dr. Eckart von Hirschhausen

[3] EIKE 27.11.2019: Deutscher Klima-Monitoringbericht 2019, S. Schulze spricht über alarmierende Befunde

[4] EIKE 17. Januar 2021: Unsere Politiker sollten sich endlich darum kümmern, wie man mit Corona leben kann und nicht umgekehrt

[5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017

[6] EIKE 16.12.2020: Wie „DIE LINKE“ die Tigermücke besonders effektiv verhindert




Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

Ich bedanke mich bei der EIKE-Redaktion dafür, dass sie einem breiten Spektrum von konträren wissenschaftlichen Positionen jenseits des wissenschaftlichen „97%“-Mainstreams ein öffentliches Forum bietet. Sehr eigenartig finde ich dagegen die wiederkehrende Kritik einzelner Leser, EIKE würde keine einheitliche Realisten-Position abbilden. Denn eine solche einheitliche Realisten-Position gibt es gar nicht; aber alle diese Positionen konvergieren auf einer Meta-Ebene mit einem „natürlichen atmosphärischen Treibhauseffekt“ als einem „NON-PROBLEM“ und gar keinem oder einem sehr geringem Einfluss des Menschen auf das globale Klimageschehen.

Die wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt hatte ich bereits ausführlich diskutiert (Darstellung, Diskussion, Ergebnis). Allein mein hemisphärischer S-B-Ansatz kann die Widersprüche des konventionellen 24h-Tag=Nacht-THE-Ansatzes auflösen. Das THE-Paradigma behandelt Tag und Nacht völlig gleich und tut so, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von 235W/m² senkrecht einstrahlen. Nun hat aber noch kein THE-Anhänger erklären können, wie aus einer planaren solaren Einstrahlung eine terrestrische radiale Abstrahlung entsteht. Und, was noch viel offensichtlicher ist, eine atmosphärische „Gegenstrahlung“ von ca. 300 W/m²würde verhindern, dass es irgendwo auf unserer Erde jemals kälter als 270K (-3°C) wird. Das konventionelle THE-Modell für unsere Erde mit den globalen Eckwerten von (33°C und 155W/m²) ist also streng eindimensional und beinhaltet keinerlei Abhängigkeit von der Tages- oder Jahreszeit und von der geographischen Breite. Mein hemisphärisches S-B-Modell kann dagegen die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden und stimmt mit den tatsächlichen Beobachtungen überein (hier Tabelle 1).

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das 24h=Faktor4-THE-Paradigma benötigt dagegen eine zweite Sonne für die 235W/m² der Nachtseite

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die oben genannten räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung sehr wohl abbilden und erfasst damit alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Beschreibung der Temperaturgenese auf unserer Erde. Nehmen wir mal ein ganz einfaches Beispiel, die Erzeugung von Solarstrom in Deutschland:

Abbildung 2: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020 (Quelle: SMARD)

Aus dieser Abbildung wird unmittelbar der natürliche Tag&Nacht-Rhythmus bei der Erzeugung von Solarstrom deutlich. Im Umkehrschluss liefert also der Verlauf der Solarstromerzeugung den Beweis, dass der Wechsel von Tag und Nacht wesentliche physikalische Unterschied beinhaltet, ganz wie es mein hemisphärisches S-B-Modell beschreibt. Und dieser Tag&Nacht-Wechsel sollte sich eigentlich auch korrekt in den Klimamodellen abbilden, die sich aber lediglich auf einen 24h-Tag&Nacht-Durchschnitt stützen. Weiterhin wird die hemisphärische Tag&Nacht-Ungleichheit auf der realen Erde durch das Land-Seewind-System und dessen gegenläufigen Tag#Nacht-Verlauf nachgewiesen. Und auch die sogenannte oberflächennahe „Skin“-Schicht der Ozeane schwankt zwischen bis zu 10 Metern am Tage und weniger als einem Millimeter in der Nacht (hier, erster Absatz).

Kann ein globaler 24h-Durchschnitt solche Tag&Nacht-Unterschiede abbilden? – Nein, das kann er natürlich nicht: Es fängt schon damit an, dass die 24h-Tag&Nacht-Gleichheit des THE-Paradoxons im natürlichen Ablauf von Tag und Nacht gar nicht beobachtet werden kann. Und auch die besten mathematischen Ableitungen verlieren ihre physikalische Aussagekraft, wenn vorher die planare solare Einstrahlung auf der Tageshemisphäre der Erde in einen skalaren globalen Durchschnitt umgewandelt wird. Die Strahlungstransferberechnung leitet also aus der Differenz einer physikalisch fehlerhaften globalen 24h-S-B-Inversion als „Gleichgewichtstemperatur“ für die solare Einstrahlungsleistung (-18°C) und der sogenannten „gemessenen“ globalen Durchschnittstemperatur (NST=14,8°C) den ominösen THE (33°) her. Und auch das immer wieder vorgebrachte Argument, die ominöse „atmosphärische Gegenstrahlung“ würde den 2.HS der Thermodynamik erfüllen, entbehrt jeder physikalischen Beweiskraft.

So stellen Ozawa et al. (2003) in einer Veröffentlichung über das Prinzip der maximalen Entropie im globalen Klimasystem ein Berechnungsschema für die Entropie vor und wenden es auf die Erde an:

Abbildung 3: Fig.3 und 5a aus Ozawa et al. (2003) zur Entropie. Links Fig. 3: “A schematic of heat transport through a small system (C) between two thermal reservoirs with different temperatures (A, cold and B, hot). By the heat transport from hot to cold, entropy of the whole system increases…” Übersetzung: Ein Schema des Wärmetransports durch ein kleines System (C) zwischen zwei Wärmespeichern mit unterschiedlichen Temperaturen (A, kalt und B, heiß). Durch den Wärmetransport von heiß zu kalt nimmt die Entropie des gesamten Systems zu… Rechts Fig. 5a: “Energy and entropy budgets for the Earth. (a) Global-mean (surface-area mean) energy flux components (i.e., shortwave radiation, longwave radiation, vertical turbulent heat transport), in W/m². Übersetzung: Energie- und Entropiebudgets für die Erde. (a) Global-mittlere (Oberflächenmittelwert) Energieflusskomponenten (d. h. kurzwellige Strahlung, langwellige Strahlung, vertikaler turbulenter Wärmetransport) in W/m²

Einmal vorausgesetzt, das Schema von Ozawa et al. (2003) zur Ermittlung der Entropie in deren Fig.3 sei korrekt, dann ist es insofern auf die reale Erde adaptiert worden, als dass in deren Fig.5a die allgemein bekannten Durchschnittstemperaturen korrekt aufgeführt worden sind. Allerdings ist deren jeweilige Entsprechung als spezifisches S-B-Strahlungsäquivalent quantitativ nicht nachzuvollziehen. Zunächst fehlt in Fig.5a schon einmal die Solarkonstante von 1.367W/m², die schließlich das maximal mögliche S-B-Temperaturäquivalent von ca. 120°C auf unserer Erde bestimmt. Vielmehr wird dort der temperaturwirksame Anteil der solaren Einstrahlung nach dem Faktor4-Tag=Nacht-THE-Flacherdeansatz mit 240W/m² entsprechend einem S-B-Temperaturäquivalent von (-18°C=255K) beziffert. Und erstaunlicherweise taucht die ominöse „atmosphärische Gegenstrahlung“ im Betrag von 300-333W/m² ebenfalls nicht auf, sodass diese Abbildung aus sich heraus gar nicht erklären kann, wie sich aus einer Einstrahlung von 142W/m² an der Erdoberfläche die angegebenen 288K herleiten sollen; denn die (vernachlässigbare) natürliche mittlere Wärmestromdichte aus dem Erdinneren beträgt an der Erdoberfläche lediglich 0,065W/m².

Anmerkungen: Eine wissenschaftliche Abbildung sollte insoweit vollständig sein, als dass sie alle wesentlichen Komponenten zum Verständnis des beschriebenen Vorgangs enthält. Die näheren Erläuterungen können dann im Fließtext erfolgen. Eine unvollständige Abbildung, die ausgerechnet strittige Komponenten wie die ominöse „atmosphärische Gegenstrahlung“ ausschließt, ist völlig inakzeptabel und wahrscheinlich nicht einmal für THE-Gläubige verständlich.

Erklärung für den Begriff „Entropie“, Zitat Wikipedia: „In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat.“ Das ist schwerer Tobak, eine recht gute Ableitung findet man hier auf EIKE.

Und hier noch ein ganz einfaches Beispiel aus dem vollen Leben: Das Kinderzimmer war eben noch aufgeräumt, dann haben die lieben Kleinen den ganzen Nachmittag gespielt und am Ende herrscht dort Chaos. Im Kinderzimmer hat sich damit die Entropie als Maß für dessen Unordnungszustand erhöht. Und um diese Unordnung dann wieder zu beseitigen, müssen Sie Arbeit (=Leistung*Zeit) verrichten. Denn jedes System, auch das Kinderzimmer, kann seine Entropie nicht ohne zusätzlich eingebrachte Arbeit wieder verringern.

Ergebnis: Der 2. Hauptsatz der Thermodynamik macht auch vor dem Kinderzimmer nicht halt, denn die Aufräumungsarbeiten im Kinderzimmer machen sich nun mal nicht von alleine…

Fassen wir zusammen: Die von Ozawa et al. (2003) in Fig. 5a angegebenen Werte für die spezifische Strahlungsleistung entstammen einem unvollständigen Faktor4-Tag=Nacht-THE Flacherdeansatz und treffen daher nicht auf die reale Erde mit Tag und Nacht zu. Aber die dort angegebenen Temperaturen stimmen dann erstaunlicherweise trotzdem mit den realen Werten überein, Oberflächentemperatur gleich 288K (~+15°C) und Temperatur auf der „Abstrahlungshöhe“ von ca. 5.000 Metern gleich 255K (~-18°C). Ozawa et al. (2003) sagen nun, die theoretischen Abschätzungen von Paltridge (1978) würden in annehmbarer Übereinstimmung mit den tatsächlichen Beobachtungen stehen:

Abbildung 4: “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)). Reprinted from Paltridge [1978]” aus Ozawa et al. (2003, Figure 4) Übersetzung: Globale Verteilung(en) von (a) mittlerer Lufttemperatur,…, vorhergesagt unter der Bedingung der maximalen Entropieproduktion (Gleichung (9)). Nachdruck aus Paltridge [1978]

Deutlich wird hier allerdings, dass die 273K (~0°C) Isotherme bei Paltridge (1978) deutlich polferner (um 50° N und S) verläuft, als die durchschnittliche Oberflächentemperatur der Ozeane in der NASA-Abbildung (um 70° N und S):

Abbildung 5: Globale Durchschnittstemperaturen (Abbildungen in E-W-Richtung gestaucht) Links: Paltridge [1978] aus Ozawa et al. (2003, Figure 4) “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)).” Rechts: NASA “Annual Mean Ocean Surface Temperature” based on observed data up until 1994

Wir können also feststellen, dass der Faktor4-Tag=Nacht-THE-Flacherdeansatz trotz unklarer/fehlender Zwischenschritte von einer fehlerhaften „Gleichgewichtstemperatur“ (-18°C) zu einem vergleichbaren Ergebnis wie die tatsächlich gemessenen Daten (+15°C) kommt, sich also in der Zielsetzung streng an der gemessenen Realität orientiert. Ergebnis ist eine MATHEMATISCHE Strahlungstransfer-Berechnung zwischen einer PHYSIKALISCH fehlerhaften „Gleichgewichtstemperatur“ und der sogenannten „gemessenen globalen Durchschnittstemperatur“. Diese Lücke zwischen fehlerhafter Theorie und gemessener Realität wird dann mathematisch durch eine willkürliche „atmosphärische Gegenstrahlung“ als imaginärer Antrieb eines „natürlichen atmosphärischen Treibhauseffektes“ von 33° geschlossen, die dem 2.HS der Thermodynamik widerspricht. Denn ein Übergang von Wärme von einem kalten zu einem wärmeren Körper ist PHYSIKALISCH nach dem 2.HS der Thermodynamik ohne zusätzlich aufgebrachte Arbeit völlig unmöglich, wie eben auch das Aufräumen eines Kinderzimmers.

In der nachfolgenden Abbildung wird ein älteres Beispiel aus meinem hemisphärischen Modell, das die Entropie der solaren Strahlungsleistung beschreibt (A), durch eine aktuelle Abbildung von Joe Postma (B) nochmals bestätigt:

Abbildungen 6 A&B zum Wärmetransport nach dem 2.HS der Thermodynamik

A – Abbildung Weber: Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfasst einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung (235W/m²) fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung (größer 235W/m²) weg, der Temperaturen oberhalb von (-18°C) erzeugen kann.

B – Abbildung Postma: Die schwarze Kurve zeigt die Differenz der IR-Spektren von (22°C=rot) und (-18°C=blau). Es wird deutlich, dass das (-18°C)-Spektrum diese Differenz, insbesondere zu den hohen IR-Frequenzen hin, gar nicht im erforderlichen Umfang enthält.

ERGO: Beide Abbildungen 6 A und B beweisen, dass ein kalter Körper (=hohe Entropie) gar nicht die notwendige physikalische Ordnung besitzt, um einen wärmeren Körper (=geringe Entropie) noch weiter zu erwärmen. Die Entropie erklärt übrigens auch die allgemein bekannten Vorgänge in der unbelebten Natur, beispielsweise die geologische Erosion. Denn während die inneren Kräfte der Erde gerade neue Gebirge auftürmen, beginnt an der Oberfläche bereits deren Erosion. Und das Ergebnis dieser Erosion landet zunächst als Erosionsschutt an der tiefsten topographischen Stelle mit der geringsten potentiellen Energie, also in irgendeinem Tal. Um diesen Schutt dann weiter zu bewegen, sind erneut Kräfte erforderlich, diesmal die Kräfte des gravitativ abfließenden Wassers.
Und die Entropie würde selbstverständlich auch „zerstreuend“ auf einen äquatorialen Hotspot wirken. Und deshalb kann sich ein solcher Hotspot nur in einem Computerprogramm entwickeln, das nach dem 24hTag=Nacht-THE-Ansatz entwickelt worden ist. Nach 10, 100, 1000 oder noch mehr 24h-Tag=Nacht-Zyklen entsteht dann eine solche digitale Wissenschaftsschimäre aus einem physikalischen Ansatz, der nicht mit der alltäglichen Tag#Nacht-Beobachtung in der realen Welt übereinstimmt. Und deshalb konnte dieser theoretische Hotspot bisher auch noch nirgendwo nachgewiesen werden, wie die nachstehende Abbildung aus Henney & Monckton zeigt:

Abbildung 7: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre – links: IPCC (2007, Abb. 9.1c), rechts: Lanzante et al. (2006) (Abbildung 15 aus Henney & Monckton)

Denn ein solcher äquatorialer Hotspot würde eine ständige solare Energiezufuhr erfordern, wie sie nur rein rechnerisch in einem 24h-Tag=Nacht-Modell vorhanden ist. Die Realität des täglichen 24h-Zykus wird dagegen regelmäßig durch die hemisphärische Nacht unterbrochen. Und in dieser hemisphärischen Nacht wirkt die Entropie zerstreuend auf die geringste herausgehobene Energiekonzentration, sodass sich ein solcher vorhergesagter Hotspot aus 24h-durchschnittlichen Computerberechnungen in der Realität niemals aufbauen kann. Joe Postma fasst eine solche Situation mit den Worten zusammen, „Kann man Laufen speichern, um schneller zu laufen?“.

Die menschengemachte Klimakatastrophe ist auf eine Physik-Wende zurückzuführen

Highspeed-Computerspekulationen sind die Astrologie unserer Tage. Aufgebaut auf undurchsichtigen und/oder unzureichenden Algorithmen verbreiten sie Zukunftsvisionen, ohne je den Beweis für die physikalische Richtigkeit ihrer Algorithmen an historischen Daten nachgewiesen haben zu müssen. Und solange die Freiheit der Wissenschaft darin besteht, voll alimentiert gesellschaftspolitisch erwünschte Ergebnisse liefern zu dürfen, wird sich daran auch nichts ändern; den Plot dazu finden Sie hier. Das politisch und medial allgegenwärtige „Hört auf DIE Wissenschaft!“ müsste nämlich eigentlich heißen, „Hört auf UNSERE Wissenschaft!“.

Das hemisphärische S-B-Modell definiert den THEORETISCHEN GRENZWERT der terrestrischen Temperaturgenese aus sich selbst heraus zu (+15°C) und stimmt ohne einen sogenannten THE mit der „gemessenen globalen Durchschnittstemperatur“ von (+15°C) überein. Diese (+15°C) sind übrigens nur abhängig von der Solarkonstanten und der terrestrischen Albedo. Das THE-Paradigma definiert dagegen den fehlerhaften ANFANGSWERT („Gleichgewichtstemperatur“ von -18°C) seiner atmosphärischen Resonanzfunktion (-18°C=>Gegenstrahlung=>THE=>+15°C), kann aber einen konkreten Endpunkt dieser Resonanz aus sich selbst heraus gar nicht bestimmen. Es rekurriert mit seiner „Gegenstrahlung“ vielmehr direkt auf die „gemessene globale Durchschnittstemperatur“, und das könnten dann auch (-5°C), (+20°C) oder (+45°C) sein. So würden beispielsweise die Schwankungen des Paläoklimas allein durch eine veränderte „Gegenstrahlung“ erklärt werden können, man muss dort einfach nur die erforderlichen Zahlenwerte einsetzen.

Also noch einmal in aller Kürze: Es gibt keinen „natürlichen atmosphärischen Treibhauseffekt“, weil die Sonne nur am Tage scheint. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwellig (solar=niedrige Entropie) zu langwellig (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie, und das ist nur auf der Tagseite der Erde möglich:

(Solare HF-Einstrahlung) => (Erwärmung von Materie @2PIR²) => (IR-Abstrahlung @4PIR²)

Solange aber der Klimamainstream den längst widerlegten Hockeystick, der ein konstantes Paläoklima in den IPCC-Bericht AR3 hinein gezaubert hatte, weiterhin als Vorhersagekrücke benutzt, liefert eine Physik-Wende die für einen anthropogenen Klimawandel zwingend erforderliche sogenannte „Klimasensitivität“ des CO2-Moleküls. Und schon hat man sich durch eine solche Physik-Wende in den Klimawissenschaften einen schönen neuen CO2-Motor für das Paläoklima gebastelt, der dann eine Energie-Wende erfordert – und eine Agrar-Wende – und eine Verkehrs-Wende – und eine Industrie-Wende – und schließlich auch noch den Großen Reset mit einer anthropogenen Existenz-Wende zurück in ein ökologisches, ökonomisches und intellektuelles Mittelalter. Diesem Wahnsinn steht nicht nur mein hemisphärisches S-B-Modell entgegen, sondern auch das Aktualitätsprinzip der Geologie – aber wer kennt das nach der Bildungs-Wende überhaupt noch…

Es folgen drei Beispiele für den Fußabdruck meines hemisphärischen S-B-Modells in den real existierenden Klimawissenschaften: Das hemisphärische S-B-Modell ermöglicht in Form von einfachsten Plausibilitäten einen qualitativen Blick auf die räumlichen und zeitlichen Abhängigkeiten des Klimageschehens auf unserer realen Erde und entzaubert damit die supercomputer-gestützten Weissagungen der modernen Klimaforschung.

1. Beispiel: Die Sommerpole unserer Erde sind gar keine Temperatur-Hotspots.
Klimamodelle sind nicht in der Lage, die von jedermann zu beobachtende Realität in Form des natürlichen Wechsels von Tag und Nacht abzubilden. Und wenn dort auch noch auf die Polarzonen fokussiert wird, dann kommt es zu ganz eigenartigen klimawissenschaftlichen Stilblüten, die sich wiederum jeder realen Beobachtung entziehen. Eine der Kernerzählungen der Klimareligion ist das Abschmelzen der Polkappen durch den „menschengemachten Klimawandel“, wodurch weite Teile der heute besiedelten Tiefländer der Welt unbewohnbar werden sollen. Manche Klimarealisten sehen in dem Spiegel-Titel „Die Klima-Katastrophe“ Nr. 33/1986 mit dem versinkenden Kölner Dom den Beginn der medialen Klimahysterie.

In der Mainstream-Klimawissenschaft ist es üblich, die physikalischen Einheiten „Leistung (WATT)“ und „Arbeit (JOULE = WATT x ZEIT)“ über die ZEIT, meist den 24h-Tag, nach Belieben aus der jeweils anderen Größe abzuleiten. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ leitet sich nun wiederum aus einer globalen 24-Stunden Mittelung der solaren Einstrahlung her, bei der ein gemeinsamer Mittelwert der Sonneneinstrahlung für Tag und Nacht für die Weiterverwendung in Klimamodellen berechnet wird. Das bedeutet, die tagseitige Sonneneinstrahlung (Solarkonstante S0=1.367W/m²) wird rechnerisch so verteilt, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von lediglich 235W/m² (=S0*(1-Albedo)/4) senkrecht einstrahlen. Und um diesen physikalisch fehlerhaften Ansatz etwas zu verbessern, führen manche Wissenschaftler nun eine breitenabhängige (zonale) Mittelung der globalen Sonneneinstrahlung ein. So wird, wie bereits gezeigt wurde, aus 24h-Zeitintegralen der solaren Strahlungsleistung ein physikalisch sinnfreier breitenabhängiger spezifischer Leistungsdurchschnitt abgeleitet, der am Ende zu rein rechnerischen Temperaturen jenseits jeglicher realer Beobachtungen führt, wie die nachstehende linke Abbildung mit dem jeweiligen Sommerpol als globaler Temperatur-Hotspot beweist:

Abbildung 8: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Die tatsächliche Maximaltemperatur auf unserer Erde wird zwischen den Wendekreisen und bis in mittlere Breiten der Sommerhemisphäre erreicht. Die Sommerpole unserer Erde sind nämlich gar keine Temperatur-Hotspots, sondern dort ist lediglich die aus einer 24h-durchschnittlichen ARBEIT in JOULE abgeleitete 24h-Durchschnittsleistung ((Leistung @ 24h)/24h) aufgrund der polaren Tageslängen um die jeweilige Sommersonnenwende global gesehen am größten („Max. Arbeit“ in der nachfolgenden Abbildung 9 rechts). Und aus solchen 24h-Durchschnittswerten sollte man tunlichst keine Ortstemperaturen ableiten, sonst kommt es halt zu wissenschaftlichen Verwerfungen…

2. Beispiel: Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden lediglich das chaotische globale Wettergeschehen ab.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch eine „atmosphärische Gegenstrahlung“ verursacht werden, die wiederum aus der IR-Abstrahlung unserer Erde gespeist wird. Die beiden ursächlichen Steuergrößen für eine solche „atmosphärische Gegenstrahlung“, nämlich die aus den solaren Primärantrieben „tägliches solares Strahlungsmaximum“ und „örtliche Tageslängen“ induzierte Gesamtwärmemenge, lassen sich sekundär unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den „menschengemachten“ IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung 9: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der tatsächlichen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung aus meinem hemisphärischen S-B-Modell (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft. Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden also lediglich das chaotische globale Wettergeschehen ab.

3. Beispiel: Der experimentelle Nachweis für den hemisphärischen S-B-Ansatz ist anhand von Satellitenmessungen gelungen.

Das IPCC-Modell KT97 gilt als Grundlage für alle computergestützten Klimamodelle. Herr Albert (Aulus) Agerius hatte auf Grundlage meines hemisphärischen Strahlungsmodells ein alternatives Klimamodell erstellt. In seinem BuchKritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf:

Tabelle 1: Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich (Quelle: A. Agerius)

Dem IPCC-Modell KT97 gelingt es also lediglich, 5 von 11 Messreihen abzubilden. Diesem IPCC-Modell KT97 stellt Agerius nun sein „Modell 5“ entgegen, das alle 11 Messreihen ohne einen atmosphärischen Treibhauseffekt abbildet und damit meinen hemisphärischen S-B-Ansatz voll betätigt.

Zum besseren Verständnis können Sie einmal die Perspektive eines Satelliten einnehmen: Die planare solare Einstrahlung erfolgt auf einer Kreisfläche (PIR²) und die jeweiligen Messwerte beziehen sich auf Schnittpunkte solcher Einstrahlungsflächen mit der entsprechenden Satellitenbahn (@4PIR²). Die Satellitenmesswerte für die Solarkonstante können die Erdkrümmung also gar nicht abbilden.

Nachtrag: Ich bitte höflich darum, im Interesse der objektiv interessierten Leser auf kreative Designerzitate und daraus abgeleitete sophistische Skandalisierungen zu verzichten. Das Stilmittel der sophistischen Skandalisierung einer ausschließenden gegenteiligen Eigenschaft (Disjunktion) fällt sofort auf, wenn es sich um Alltagswissen handelt. Ein Beispiel für den offensichtlichen Widersinn eines solchen skandalisierenden Sophismus‘ wäre die Aussage: „Der Dieselmotor widerspricht dem Prinzip der Elektromobilität“. Bei wissenschaftlichen Zusammenhängen, die zur Beurteilung einer Aussage zumindest die inhaltliche Abgrenzung zwischen Fachbegriffen erfordern, ist eine solche sophistische Skandalisierung für den interessierten Leser dagegen sehr viel schwerer zu erkennen, wie die nachfolgende Aussage beweist: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER (2019) in seinem Beitrag aufgestellten Behauptungen zur Ermittlung der global gemittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“ Solche sophistischen Gegenargumente lassen sich nämlich für mein hemisphärisches S-B-Modell mittels einer oder mehrerer ausschließender gegenteiliger Eigenschaften jederzeit zurechtbiegen:

Sie können jetzt also sehr einfach mein hemisphärisches S-B-Modell skandalisieren, indem Sie ihm die Nichterfüllung seiner rechts aufgeführten ausschließenden Gegensätze vorhalten, also: Das hemisphärische S-B-Modell von Weber ist Mist, weil es

  • dem Prinzip der globalen Mittelung widerspricht,
  • dem Prinzip einer „Erde ohne Atmosphäre“ widerspricht,
  • dem anerkannten Lehrbuchwissen nach (Professor Dr. Beliebig) widerspricht.

Vielleicht erkennen Sie in diesen Aussagen ja den einen oder anderen Kommentar zu meinem hemisphärischen S-B-Modell wieder; sachlich korrekt oder gar verständnisfördernd sind solche Sophismen jedenfalls nicht. Für seriöse Verständnisfragen verweise ich gerne nochmals auf den Vergleich meines hemisphärischen Modells mit den wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt (Darstellung, Diskussion, Ergebnis) oder dessen direkten Abgleich mit dem sogenannten THE (hier Tabelle 1).

Einer physikalischen (nicht mathematischen) Beweisführung über eine Übereinstimmung der ominösen Faktor4-Tag=Nacht-Flacherde mit der tatsächlich beobachteten Tag#Nacht-Realität sehe ich mit Interesse entgegen.

 




Übersterblichkeit? „Sehr weit weg von allen Katastrophenszenarien“Eine mathematische Auswertung der Sterbefälle

Ein Gastbeitrag von Prof. Dr. Thomas Rießinger

Am 15. Januar 2021 hat das Statistische Bundesamt seine neue „Sonderauswertung zu Sterbefallzahlen des Jahres 2020“ vorgelegt, in der die Sterbefälle bis zum 20.12.2020 dokumentiert werden – ein Anlass, noch einmal auf meine Untersuchung der Sterbefälle des Jahres 2020 einzugehen, die am 29.12.2020 veröffentlicht wurde. Dazu gleich mehr.

Zunächst ist aber ein Wort der Verwunderung angebracht. Zum Zeitpunkt der Veröffentlichung der Sonderauswertung waren im neuen Jahr schon zwei Wochen ins Land gegangen. In wenigen Tagen wird das neue oberste Entscheidungsgremium Deutschlands, die in der Verfassung nicht vorgesehene Konferenz aus Kanzlerin und Ministerpräsidenten, neue verheerende Entscheidungen für die nächsten Wochen treffen. Hätte man nicht dafür sorgen können, dass dann wenigstens die – und seien es vorläufigen – Sterbefallzahlen für das gesamte Jahr 2020 vorliegen? Dem Bundesamt selbst und seinen Mitarbeitern kann man keinen Vorwurf machen, denn sie handeln dort wie in jeder Behörde auf Anweisung, und solange keine politischen Vorgaben vorliegen, wird man an der eigenen Vorgehensweise nichts ändern. Und genau hier liegt das Problem, denn selbstverständlich hätte es einer verantwortlichen Politik gut zu Gesicht gestanden, ihre oberste statistische Behörde mit den Mitteln und mit der Anweisung zu versehen, die nötigen Vorkehrungen zu treffen, um entscheidungsrelevante Daten schneller zur Verfügung zu stellen. Nun müssen wir auf die Daten für das Gesamtjahr voraussichtlich bis zum 29.01.2021 warten.

Man muss natürlich zugeben: Die Politik hatte Besseres zu tun, als sich um die schnelle Bereitstellung relevanter Daten zu kümmern. Schließlich war man vollauf damit beschäftigt, die Risikogruppen der Pandemie, die Alten mit Vorerkrankungen, die Insassen der Pflegeheime, zu vernachlässigen und ihren Schutz anderen Leuten zu überlassen. Schließlich musste man dafür sorgen, dass es in Anbetracht des Impfstoffes, der doch von der Regierung so sehnlich erwartet wurde, nicht zu einem verwerflichen Ausbruch von Impfnationalismus kommen konnte, indem man die Bestellung des Impfstoffs den bekanntermaßen schnellen und effektiven Gremien der Europäischen Union überließ. Schließlich kostete es ein gerüttelt Maß an Energie, alle Stimmen der Kritik an den Regierungsmaßnahmen im besten Fall zu ignorieren, wenn nicht gar zu diskreditieren. Und schließlich – um ein letztes Beispiel zu nennen – musste man selbstverständlich, da es offenbar keine bessere Mittelverwendung gab, mehr als eine Milliarde Euro für den lebensnotwendigen Kampf gegen Rechts in die immer gern bereiten Kanäle empfangswilliger Organisationen leiten. Man versteht, dass bei all diesen wichtigen Aktivitäten einfach weder Zeit noch Geld für die schnelle Beschaffung wichtiger Daten zur Verfügung stand. An den Mitarbeitern des Amtes liegt das nicht, sondern an den Prioritäten der Politik.

Nun aber zu den Daten, soweit sie bisher vorliegen. In meiner schon erwähnten Untersuchung war ich zu dem Schluss gekommen, dass eine Zahl von etwa 967.000 Sterbefällen für das Jahr 2020 im Normalbereich dessen liegt, was man auf Basis einer linearen Regression über die Sterbefälle für die Jahre von 2006 bis 2019 erwarten kann. Nach der neuen Sonderauswertung hat es bis zum 20.12.2020 941.199 Sterbefälle gegeben. Nimmt man für die letzten 11 Tage des Jahres eine mittlere Zahl von Todesfällen in der Höhe von 3.300 an, so kommt man auf eine Gesamtzahl von etwa 977.500, bei einer höher angesetzten mittleren Zahl von 3.400 ergeben sich entsprechend 978.600. Es wird also mehr Sterbefälle geben, als meine einfache Beispielrechnung erwarten ließ.Man kann damit nun auf zwei verschiedene Arten umgehen. Entweder man bleibt bei der ursprünglichen Analyse und stellt fest, welche Bedeutung die Abweichung hat, oder man unterzieht die Analysemethode einer Revision und sieht zu, zu welchen Ergebnissen genauere Methoden führen. Da es im Zuge der Coronakrise schon ein Übermaß an Einseitigkeiten gibt, werde ich hier das eine tun, ohne das andere zu lassen.

Gehen wir also für den Anfang von 978.600 Sterbefällen für das Jahr 2020 aus, das sind 11.600 mehr, als der von mir bisher berechnete Normalbereich der linearen Regression hergegeben hat. Auch wenn sich die absolute Zahl hoch anhört und jeder Einzelfall – heute muss man diese Selbstverständlichkeit immer wieder betonen, um nicht von den üblichen Vorwürfen umtost zu werden – unzweifelhaft traurig und schlimm ist, so handelt es sich doch nur um eine Erhöhung um 1,2 %, die man als Übersterblichkeit interpretieren kann. In den Jahren 2015 und 2018 gab es in diesem Sinne Übersterblichkeiten von etwa 1 %, und niemand hat das Ende der Welt ausgerufen. Noch deutlicher wird die Größenordnung, wenn man die Zahl der zusätzlichen Sterbefälle pro 10.000 Einwohner bestimmt: die liegt dann bei 1,4 zusätzlichen Toten pro 10.000 Einwohner. Eine mittelgroße Stadt wie mein Wohnort zählt knapp 44.000 Einwohner, woraus folgt, dass man hier sechs zusätzliche Tote zu registrieren hätte. Nicht pro Tag. Auch nicht pro Woche oder pro Monat, sondern im gesamten Jahr. Bei einer Gesamtzahl von etwa 500 Sterbefällen pro Jahr darf man sich fragen, ob diese Erhöhung ohne die immerwährend geschürte Coronafurcht zu einem gesonderten Eintrag im örtlichen Jahresrückblick geführt hätte. Man sollte zudem nicht ganz übersehen, dass diese Größenordnung der Übersterblichkeit weit unter den berichteten Zahlen von „an oder mit Covid19 Verstorbenen“ liegt und somit die Frage nahelegt, ob bei zwei Dritteln oder gar drei Vierteln dieser Sterbefälle selbst dann, wenn Covid19 ursächlich beteiligt war, nicht ansonsten eine andere Todesursache zum Tragen gekommen wäre und somit eine Verschiebung der Todesursachen stattgefunden hat.

Nun muss man aber bei den einmal gewählten Methoden nicht stehenbleiben. Ich darf daran erinnern, dass in meiner ersten Berechnung eine lineare Regression vorgenommen wurde, bei der die Anzahl der Sterbefälle direkt in Relation zu den Kalenderjahren gesetzt wurde, woraus sich eine deutliche lineare Tendenz ergab. Kommentatoren haben mir mit einem gewissen Recht vorgeworfen, ich hätte noch die Bevölkerungsentwicklung berücksichtigen müssen, denn je mehr Leute zu Beginn eines Jahres leben, desto größer wird voraussichtlich die Zahl der Sterbefälle sein. Das ist sicher wahr, und natürlich geht die Bevölkerungsentwicklung auch implizit in meine einfache Regression ein, aber da die Daten explizit vorliegen, werde ich jetzt nicht mehr nur die Gesamtzahl der Sterbefälle pro Jahr betrachten, sondern die jährlichen Sterbefälle pro 10.000 Einwohner. Die ist leicht herauszufinden. Im Jahr 2019 gab es beispielsweise 939.520 Sterbefälle, während die Bevölkerung am 1. Januar 2019 bei 83.019.213 Einwohnern lag. Pro 10.000 Einwohner sind daher 939.520*10.000/83.019.213, also 113,17 Menschen verstorben. Trägt man die vorliegenden Daten für die Jahre 2006 bis 2019 in eine Tabelle ein und bestimmt zusätzlich die Sterbefälle pro 10.000 Einwohner, so ergibt sich die folgende Auflistung.

Zur besseren Übersicht ist es sinnvoll, die Entwicklung der jährlichen Sterbefälle pro 10.000 Einwohner in einem Streudiagramm grafisch darzustellen.

Wie schon bei der Auswertung der Gesamtsterbezahlen geschehen, kann man nun die vertraute Regressionsgerade einzeichnen, gewonnen mit der üblichen Methode der linearen Regression. Offenbar gibt es eine steigende lineare Tendenz, deren Güte man wieder mit dem Korrelationskoeffizienten r berechnen kann; die Rechnung ergibt r=0,950. Hier ist es vielleicht nötig, die Rolle des Korrelationskoeffizienten noch einmal zu betonen: Bei einem steigenden Verlauf kann r nicht größer als 1 sein, und der Wert 1 bedeutet, dass die Punkte alle auf einer Geraden liegen, während der Wert 0 anzeigt, dass die Daten keinerlei lineare Tendenz aufweisen. Der Wert r=0,950 liegt nun sehr nahe bei 1, woraus folgt, dass es eine annähernd lineare – und zwar ansteigende – Tendenz bei der Anzahl der Sterbefälle pro 10.000 Einwohner in Deutschland gibt.

Auch wenn Gleichungen nur selten auf große Gegenliebe stoßen, will ich doch die Gleichung der Regressionsgeraden angeben, die man ohne nennenswerten Aufwand berechnen kann. Sie lautet: Fälle=1,1759*Jahr–2258,7217, womit die Anzahl der Sterbefälle pro 10.000 Einwohner beschrieben ist, die man nach dem Trend der letzten 14 Jahre erwarten kann. Für das Jahr 2019 liegt der Trendwert daher bei 1,1759*2019–2258,7217=115,42; rechnet man etwas genauer, also mit mehr Nachkommastellen, hat man 115,45. Selbstverständlich ist das ein Trendwert und kein exakter Wert. Um nun die Trendwerte mit den konkreten gezählten Werten zu vergleichen, muss man nur die Abweichung des konkreten Wertes vom jeweiligen Trendwert ausrechnen und dann den Durchschnitt der Absolutbeträge bilden mit dem Resultat einer durchschnittlichen Abweichung von 1,2426 Sterbefällen pro 10.000 Einwohnern.
Soweit handelt es sich um historische Daten, deren Bedeutung sich zeigt, wenn man zusieht, was sich nach dem berechneten Trend für das Jahr 2020 ergeben müsste. Das ist nicht schwierig, man muss nur den Wert 2020 in die Geradengleichung einsetzen und erhält einen vermuteten Wert von 116,6298 Sterbefällen pro 10.000 Einwohner – hier zeigt wieder die steigende Tendenz ihre Wirkung. Da wir nicht damit rechnen können, dass der Trendwert exakt eintreffen wird, lege ich zur Berechnung eines Normalbereiches die durchschnittliche Abweichung von 1,2426 Sterbefällen zugrunde und erhalte einen Bereich zwischen 116,6298–1,246=115,3872 und 116,6298+1,2426=117,8724. Und da es sich 2019 um ein im Vergleich zur Trendgeraden offenbar sehr mildes Jahr gehandelt hat, liegt die Vermutung nahe, dass das Folgejahr ein härteres sein wird und sich die Sterblichkeit eher im oberen als im unteren Bereich bewegen wird.

Ist man einmal so weit gekommen, findet man auch schnell die entsprechenden Daten für die Gesamtsterblichkeit 2020: Wenn der Trendwert der Sterblichkeit pro 10.000 Einwohner bei 116,6298 liegt und die Anzahl der Einwohner bei 83166711, so kommt man auf einen Trendwert für die Gesamtsterblichkeit von 83166711*116,6298/10000=969971. Das ist der Trendwert. Auf die gleiche Weise berechnet man die untere Grenze des Normalbereiches zu 959.637 und die obere Grenze zu 980.306. Geht man davon aus, dass man sich wegen des milden Jahres 2019 und der zu erwartenden nachgeholten Sterbefälle im oberen Bereich bewegt, so stellt sich heraus, dass bei genauerer Betrachtung der Bevölkerungsentwicklung im Jahr 2020 eine Gesamtsterblichkeit zwischen etwa 960.000 und 980.000 Sterbefällen zu erwarten ist, und in diesem Bereich scheinen wir uns nach den bisher vorliegenden Daten auch zu befinden. Kurz gesagt: Die oben berechnete Schätzung von etwa 978.600 Todesfällen im Jahr 2020 auf Basis der Werte bis zum 20.12.2020 lässt, sofern sie denn eintrifft, keinen Schluss auf eine Übersterblichkeit zu.

Das Resultat ist zunächst wenig überraschend. Nimmt man den Anstieg der Bevölkerungszahl genauer ins Visier, so ist tatsächlich anzunehmen, dass auch die Gesamtanzahl der Sterbefälle genauer abgeschätzt werden kann und in jedem Fall steigen wird. Ganz so einfach ist die Lage aber nicht, denn immerhin wäre die Gesamtanzahl über die Jahre selbst dann angestiegen, wenn die Anzahl der Sterbefälle pro 10.000 Einwohner einigermaßen konstant geblieben, die Bevölkerung selbst aber gewachsen wäre. Die Daten zeigen aber, dass selbst die relative Anzahl der Sterbefälle ein klares lineares Wachstum aufweist, das mit der wachsenden Bevölkerung allein nicht zu klären ist.

Hier kommt ein weiteres Phänomen zum Tragen, das ich in der bisherigen Rechnung nicht berücksichtigt habe: das Phänomen der Verteilung der Bevölkerung auf Altersgruppen. Kaum jemand wird abstreiten, dass mit zunehmendem Alter das Risiko für Erwachsene, in absehbarer Zeit zu sterben, ansteigt. Welche Folgen das haben kann, zeigt das folgende fiktive Beispiel. Nimmt man eine 10.000-köpfige Gruppe in einer Bevölkerung an, von denen 5.000 eine Sterbewahrscheinlichkeit von 5 % aufweisen, während die anderen 5.000 aufgrund ihres Alters eine Sterbewahrscheinlichkeit von 15 % erreicht haben, so sind in der ersten Gruppe 250 Tote zu erwarten, in der zweiten dagegen 750: 5 % von 5.000 und 15 % von 5.000. Zusammen ergibt das 1.000 Sterbefälle. Lässt man nun genug Zeit verstreichen, so hat man in einer 10.000-köpfigen Gruppe vielleicht nur noch 4.000 Mitglieder der ersten Kategorie und 6.000 aus der zweiten, weil die Bevölkerung insgesamt gealtert ist und nur weniger Junge nachwachsen. Bei gleichbleibenden Raten sind dann in der ersten Gruppe nur noch 200 Sterbefälle zu erwarten, in der zweiten dagegen 900: 5 % von 4.000 und 15 % von 6.000. Obwohl sich an den eigentlichen Sterberaten rein gar nichts geändert hat, wird man nun 1.100 Tote verzeichnen statt wie vorher 1.000, die aber ausschließlich auf das Konto der veränderten Altersstruktur gehen und mit Übersterblichkeit nichts zu tun haben.

Zum Glück sind die Altersstruktur der deutschen Bevölkerung und die Sterbefälle nach Altersgruppen seit 2016 in der Datensammlung des Statistischen Bundesamtes aufzufinden. Die folgende Tabelle zeigt, wie sich jeweils zu Beginn eines Kalenderjahres die Bevölkerung auf die einzelnen Altersgruppen verteilt hat.

2019 gab es also beispielsweise 3.111.597 Menschen zwischen 80 und 85 Jahren, 2020 waren es schon 3.294.281. In der Gruppe der mindestens 85-Jährigen waren es 2.277.509 bzw. 2.386.854. Offenbar gibt es ein gewisses Wachstum in der Gruppe der Menschen, die das achtzigste Lebensjahr erreicht haben, was ihnen jederzeit zu gönnen ist.

Nun kennen wir aber auch die Anzahl der Sterbefälle in den einzelnen Altersgruppen für die Jahre von 2016 bis 2019; man findet sie beim Statistischen Bundesamt. Ich will sie hier nicht auch noch in tabellarischer Form anführen, sondern nur an einem Beispiel zeigen, welche relevanten Kennziffern man daraus berechnen kann. Im Jahr 2016 sind in der höchsten Altersgruppe der Menschen ab 85 Lebensjahren 337.288 Sterbefälle aufgetreten. Der obigen Tabelle kann man den Ausgangswert von 2.204.791 Gruppenmitgliedern entnehmen. Dividieren führt dann zu dem Ergebnis, dass im Jahr 2016 15,298 % der Mitglieder dieser Altersgruppe verstorben sind. Diese Rechnung kann man ohne großen Aufwand für jede Altersgruppe und jedes Jahr vornehmen und kommt zu der nachstehenden Tabelle.


Für 2020 kann man diese Prozentzahlen noch nicht angeben, da die Gesamtzahl der Sterbefälle noch nicht vorliegt, natürlich auch nicht pro Altersgruppe. Und nun sehen wir, dass es natürlich auch bei den relevanten Prozentsätzen leichte Schwankungen gibt: In der Gruppe der mindestens 85-Jährigen liegt der Prozentsatz beispielsweise zwischen 15,298 % und 15,9 %.

Was hilft das für das Jahr 2020? Man kann nun nachrechnen, welche Sterbefallzahl 2020 zu erwarten wäre, wenn man die prozentualen Anteile der Verstorbenen aus den Jahren 2016 bis 2019 der Berechnung zugrunde legt. Wieder ein Beispiel. 2016 sind in der Gruppe „65 bis unter 70“ 1,404 % der Gruppenzugehörigen verstorben. Hätte man den gleichen Prozentsatz in der entsprechenden Gruppe des Jahres 2020, die aus 4.859.032 Mitgliedern bestand, so müsste man mit etwa 68.200 Toten in dieser Gruppe rechnen. So kann man für jede Altersgruppe und jedes Jahr rechnen und dann die Daten der einzelnen Gruppen zu einer Gesamtsterblichkeit aufaddieren. Das führt zu interessanten Ergebnissen. Hätten wir 2020 Verhältnisse wie im Jahr 2016 und daher die gleichen prozentualen Sterbesätze, so käme man für 2020 auf 980.288 Sterbefälle. Unter den Voraussetzungen und Prozentsätzen von 2017 wären es 984.129, die Umstände von 2018 würden sogar zu 993.580 Sterbefällen führen, während bei Bedingungen wie 2019 963.906 Sterbefälle zu verzeichnen wären. Übertragen auf die Altersstruktur von 2020 ergibt sich somit eine Bandbreite von etwa 964.000 bis 993.000 Sterbefällen.

Noch einmal, ganz langsam für Politiker und Journalisten des öffentlich-rechtlichen Rundfunks: Das sind Zahlen, die sich aus den vorhandenen historischen Daten der Jahre 2016 bis 2019 ergeben, sofern man die jeweilige Altersstruktur der Bevölkerung berücksichtigt. Im Jahr 2018 hat allerdings niemand Horrormeldungen verbreitet, die sich 2020 bei etwaigen Todeszahlen in der Größenordnung von 993.000 Fällen sofort erheben würden. Es hat auch niemand einen Lockdown verhängt und sich redlich bemüht, ein ganzes Land – und nicht nur eines – zu ruinieren.

Ein kurzes Fazit der Berechnungen ist angebracht

  1. Bleibt man bei der alleinigen Berücksichtigung der Gesamtsterbezahlen für die lineare Regression, so führt das für 2020 zu einer voraussichtlichen Übersterblichkeit von etwa 1,2 %. Das ist nicht schön, aber sehr weit weg von allen Katastrophenszenarien.
  2. Geht man, um genauer zu sein, zu den Sterbefällen pro 10.000 Einwohnern über, so kann man eine Gesamtsterblichkeit zwischen etwa 960.000 und 980.000 Sterbefällen erwarten, und in diesem Bereich scheinen wir uns nach den bisher vorliegenden Daten auch zu befinden. Auf die genaueren Daten müssen wir noch bis Ende Januar warten.
  3. Berücksichtigt man zusätzlich, dass sich die Altersstruktur der Bevölkerung verändert hat und rechnet die Sterblichkeitsraten der Jahre 2016 bis 2019 pro Altersgruppe hoch auf die Verhältnisse des Jahres 2020, so ergibt sich sogar eine Bandbreite von 964.000 bis 993.000 Sterbefällen, je nachdem, welches der vier zurückliegenden Jahre als Basis dient.

Nun kann man schon die Einwände hören, bevor sie geäußert worden sind. Besonders beliebt ist der Einwand des Präventions-Paradoxons, nach dem nur die harten Maßnahmen zu einer auch unter normalen Umständen erwartbaren Sterberate geführt haben können.

„Getretner Quark
Wird breit, nicht stark“,

wusste schon Goethe. Ich hatte es schon einmal gesagt: Trotz aller Maßnahmen wird noch immer Tag für Tag eine hohe Zahl mutmaßlich neu Infizierter gemeldet, die aber im Falle der vermuteten Sterberate keinen nennenswerten Einfluss auf die Gesamtzahl der Toten gehabt haben können – die Rate liegt dann ja nach den bisherigen Daten im Rahmen des auch ohne Infektionsfälle Erwartbaren. Wie sollen die Maßnahmen etwas verhindert haben, wenn erstens dennoch Zehntausende von mutmaßlichen Neuinfektionen auftreten und zweitens die Gesamtsterbezahlen sich nicht anders entwickeln als nach den vorherigen Jahren zu erwarten? Die Vermutung liegt nahe, dass hier Covid19 andere Todesursachen ersetzt hat und die entsprechenden Todesfälle sich nur in ihrer Ursachenstruktur und nicht in ihrer Häufigkeit verändert haben. Zudem liegen inzwischen etliche Studien vor, die sich mit der Sinnhaftigkeit harter Maßnahmen wie Lockdowns befassen und zu dem Schluss kommen, dass eine nennenswerte Wirksamkeit nicht nachgewiesen werden kann. Nennen kann man hier als Beispiele die neue Studie von John Ioannides und Kollegen vom Januar 2021, die immerhin einen regulären Peer-Review-Prozess durchlaufen hat und sich damit wohltuend von der grundlegenden Arbeit zum PCR-Test von Christian Drosten unterscheidet. Oder die Studie von Ari Joffe, der zeigt, dass die Schäden von Lockdowns ihren Nutzen in jeder Hinsicht bei weitem überschreiten. Dagegen ist die gern zitierte Stellungnahme der Leopoldina, auf die sich die Regierung so begeistert beruft, weit von jeder Wissenschaftlichkeit entfernt, wie man unter anderem hier oder auch hiernachlesen kann.

Von der Antike bis zum frühen 19. Jahrhundert hat man Patienten verschiedenster Art gerne zur Ader gelassen, um durch die Blutabnahme die schlechten Säfte aus dem Körper zu entfernen. Wurde der Patient gesund, konnte man sich darauf berufen, ihn erfolgreich zur Ader gelassen zu haben. Verbesserte sich sein Zustand nicht oder verschlechterte er sich sogar, so konnte man die Auffassung vertreten, der Aderlass sei noch nicht lang und gründlich genug gewesen und müsse daher bis zur Gesundung immer wieder fortgesetzt werden. Und überlebte der Patient die Behandlung nicht, dann fand sich immer ein Grund, warum es nicht an der Therapie lag, zum Beispiel der mangelnde reine Glaube des Patienten. Damals wusste man es wohl nicht besser. Der Aderlass unserer Gesellschaft ist der immer und immer wieder neu aufgelegte Lockdown, und man könnte es besser wissen. Jeder mag sich selbst überlegen, warum man uns dennoch immer aufs Neue zur Ader lassen will.

Thomas Rießinger ist promovierter Mathematiker und war Professor für Mathematik und Informatik an der Fachhochschule Frankfurt am Main. Neben einigen Fachbüchern über Mathematik hat er auch Aufsätze zur Philosophie und Geschichte sowie ein Buch zur Unterhaltungsmathematik publiziert.

Der Beitrag erschien zuerst bei Reitschuster hier




Verschärfte Fakten für den Unlock

Das ist aber nicht die Übersterblichkeit. Um diese zu berechnen, muss die Basiszunahme der Toten pro Jahr aufgrund der demographischen Alterung herausgerechnet werden. Aufgrund dieses Effekts sterben so lange, bis die Bevölkerungszahl oder das Durchschnittsalter in Deutschland deutlich sinken, jedes Jahr mehr Menschen. Diese zu erwartende Zunahme hat der Mathematiker Thomas Rießinger mit Hilfe eines Regressionsmodells aus den Sterbezahlen der letzten 14 Jahre modelliert. Demzufolge müssten 2020 in Deutschland 957.006 Menschen sterben. Verwendet man diesen korrigierten Wert als Referenzgröße, kommt man für 2020 auf eine Übersterblichkeit von 2 Prozent, es sind etwa 19.600 Menschen mehr gestorben als laut Modell zu erwarten wären.

Was die 2 Prozent Übersterblichkeit bedeuten

Dieser Wert kann zum Teil durch COVID erklärt werden, denn die Krankheit ist bei Menschen am Ende ihres Lebens eine natürliche Todesursache, die aber die Lebenserwartung um einige Wochen verkürzen kann (harvest effect), bei wenigen Patienten auch um mehr Lebenszeit. Dieser Effekt kann die Übersterblichkeit zum Teil erklären, doch kann ein Teil der 19.600 zusätzlichen Toten auch durch ganz andere Ursachen hervorgerufen worden sein, wir kennen die Kausalzusammenhänge im komplexen System der Interaktion von Mensch und Umwelt, die letztlich bei jedem von uns eines Tages zum Ende des Lebens führt, oft nicht einmal beim Einzelnen genau, aber in der Gesamtpopulation erst recht nicht.

Sicher ist, dass wir nicht um die 1.000 COVID-Tote am Tag zu beklagen haben, wie es das RKI berichtet, denn dann müssten wir es mit einer in allen Altersgruppen viele Todesopfer fordernden schweren Epidemie zu tun haben, die die Reihenfolge der Todesursachen verändert. Seit Jahrzehnten sterben etwa 35 Prozent an Herz-Kreislauf-Erkrankungen, 25 Prozent an Krebs, 7,5 Prozent an Erkrankungen des Atemsystems und alle anderen an selteneren Erkrankungen.

2018 starben laut Statistischem Bundesamt etwa 20 Tausend Menschen an Pneumonie und 34 Tausend an chronischen Atemwegserkrankungen, vor allem an der Raucherkrankheit COPD. Viele dieser Patienten sterben akut an Pneumonie, doch wird dies nicht als Todesursache angegeben, da die zugrundeliegende Krankheit den Tod verursacht hat. Geht man, um eine grobe Einschätzung der RKI-Zahlen zu erhalten, davon aus, dass 2018 etwa 40 Tausend Menschen akut an Pneumonie gestorben sind, wären das 4 Prozent der Verstorbenen. Wenn man nun großzügig abschätzt, dass sich aufgrund von COVID diese Quote im Dezember vervierfacht hat, käme man auf etwa 500 COVID-Tote pro Tag (16 Prozent).

Behördliche Uminterpretation der Todesursachen

Um auf 1.000 Tote am Tag zu kommen, müsste COVID als Todesursache Krebs überholen und etwa so bedeutsam sein wie Herz-Kreislauf-Erkrankungen, nämlich ein Drittel aller Toten verursachen. Doch dafür müsste es auch bei Patienten unter 70, die für die Todesquoten der Herz-Kreislauf-Erkrankungen und Krebsarten relevant sind, eine hohe Letalität aufweisen. Wir wissen jedoch, dass die Letalität bei den über 70-Jährigen bei 1–2 Promille und bei den unter 70-Jährigen zehnmal niedriger oder noch viel niedriger liegt.

Daher kann der Anteil der COVID-Toten kaum auf 16 Prozent, geschweige denn auf 32 Prozent pro Tag gestiegen sein, denn sonst müsste es noch deutlich mehr und vor allem mehr junge Tote geben. Maximal gab es laut RKI 2020 etwa 30 Tausend COVID-Tote, wobei die vom RKI betriebene COVID-Überdiagnose in diese Zahl schon eingeflossen ist. Die Influenza-Welle 2017/2018 brachte es auf eine ähnliche hohe Zahl, 1968/69 starben über hunderttausend Westdeutsche an der Hongkong-Grippe.

Wir haben es also mit einer milden Übersterblichkeit zu tun, wie sie immer wieder auftritt, genauso wie die Untersterblichkeit, die es auch in manchen Jahren gibt. Solange wir nicht 5 oder 10 Prozent Übersterblichkeit und eine deutliche Zunahme junger Toter haben, kann von einer echten Seuche keine Rede sein. Was das RKI mit seinen Zahlen zu den täglichen Todesurachen macht, ist eine behördliche Uminterpretation der Todesursachen. Wie ist das möglich?

Ersten sind die SARS-CoV-Viren, die Erreger von COVID, endemisch und derzeit stark verbreitet, die Prävalenz, das ist die Anzahl der Kranken in einem Intervall, wird gar nicht gemessen. Sie könnte laut der Ergebnisse der Arbeitsgruppe um Professor Matthias Schrappe bei 5 Prozent der Bevölkerung oder auch höher liegen. Die Inzidenz (die Anzahl der Neuerkrankten in einem Intervall) wird laut Schrappe (und Epidemiologielehrbuch) gar nicht gemessen, was das RKI als “Inzidenz” angibt, ist eine wöchentliche Addition von heuristischen Punktprävalenzen, die nichts über das Infektionsgeschehen aussagt.

Denn zur Berechnung einer Inzidenz bräuchte man (i) die Anzahl der Personen in der untersuchten Population, (ii) eine vollständige Untersuchung der Population, (iii) eine Untersuchung der Population über den gesamten Zeitraum, für die eine Inzidenzaussage getroffen werden soll, (iv) eine bei Beginn der Untersuchung merkmalsfreie Population, (v) einen Beobachtungszeitraum, der ausreicht, um ein Neuauftreten des Merkmals ermitteln zu können (also muss der Zeitraum länger als die Inkubationszeit sein).

Die Angaben sind politische, keine wissenschaftlichen

Keines der Kriterien erfüllen die Zahlen des RKI; die echte Prävalenz des Erregers ist viel höher, die Inzidenz schlicht und ergreifend unbekannt. Die hohe Prävalenz ist – wie bei anderen Erregern grippaler Infekte – kein Problem, da 90 Prozent der Infizierten keine oder nur schwache Symptome haben und nur sehr wenige daran sterben.

Zweitens ist der verwendete PCR-Test unspezifisch und invalide, ein positiver Test besagt nicht, dass der getestete Patient tatsächlich mit SARS-CoV-2x (den evolutionären Nachkommen von SARS-CoV-2) infiziert ist, und erst recht nicht, dass der Patient daran gestorben ist. Doch wird jeder positive Test unabhängig von den Symptomen und der eigentlichen Todesursache als Infektion und oft auch als Todesursache bewertet.

Die hohen Zahlen an COVID-Toten, die das RKI täglich berichtet, kommen also durch die Kombination aus hoher Prävalenz des Virus und der mangelhaften Spezifität des PCR-Tests zustande. Mindestens die Hälfte der als COVID-Tote klassifizierten Patienten haben eine andere Todesursache. Doch diese Angaben sind politische, keine wissenschaftlichen Zahlen. Das RKI betreibt eine epidemiologisch nicht haltbare Uminterpretation der Zahlen. Am RKI arbeiten erstklassige Epidemiologen und Virologen. Ihre Berichterstattung erfolgt aufgrund politischer Anweisungen.

Insgesamt haben wir es bei SARS-CoV-2x mit einem Erreger zu tun, der etwas pathogener und letaler ist als vergleichbare Erreger der Corona-Viridae. Dies gilt auch für die nun beschriebenen Mutanten, von denen es zahlreiche gibt – wie bei jedem Virus dieser Familie. Die 2020 gemessene Übersterblichkeit ist gering und betrifft fast nur alte Menschen am Ende ihres Lebens. Wir könnten sofort mit den Tests und allen Maßnahmen aufhören und würden gar nichts von SARS-CoV merken, denn nichts ist anders als in den Vorjahren, auch nicht die Belegung der Krankenhäuser (Schrappe-Bericht 6.1, p. 37f.) im Winter.

 

Dr. Jochen Ziegler ist Arzt und Biochemiker. Er arbeitet als Berater für private Anbieter des Gesundheitssystems und lebt mit seiner Familie in Hamburg.

Der Beitrag erschien zuerst bei ACHGUT hier




Gab es wirklich eine Rekord-Saison bzgl. atlantischer Hurrikane?

Aufgrund der Tendenz, heutzutage auch kleinen Stürmen einen Namen zu verpassen, ganz zu schweigen von der Fähigkeit der Satelliten, sie zu erkennen, war die Behauptung schon immer eine fadenscheinige.

Jetzt, wo wir glücklicherweise die Accumulated Cyclone Energy (ACE) Daten für das Jahr zur Verfügung haben, ist die Behauptung erwiesenermaßen unsinnig und trügerisch.

Kurz gesagt, ACE ist ein Maß für die Intensität und Dauer von tropischen Stürmen und Zyklonen. (Tropischer Zyklon ist ein Oberbegriff für Stürme, die im Atlantik als Hurrikane und im W-Pazifik als Taifune bezeichnet werden).

Zuverlässige Daten für den Atlantik, sowohl Anzahl der Stürme als auch ACE, sind erst seit der Ära der Satelliten im Jahr 1966 verfügbar, wie die NOAA hier erklärt:

Die Datenbank der atlantischen Hurrikane (oder HURDAT) reicht bis ins Jahr 1851 zurück. Da Tropenstürme und Hurrikane jedoch einen Großteil ihrer Lebenszeit über dem offenen Ozean verbringen – einige treffen nie auf Land – wurden viele Systeme im späten 19. und frühen 20. Jahrhundert „übersehen“ (Vecchi und Knutson 2008). Ab 1944 wurde mit der systematischen Flugzeugaufklärung zur Überwachung von bothtropischen Wirbelstürmen und Störungen, die das Potenzial hatten, sich zu Tropenstürmen und Hurrikanen zu entwickeln, begonnen. Dies führte zwar zu einer deutlich verbesserten Überwachung, aber immer noch wurde etwa die Hälfte des atlantischen Beckens nicht erfasst (Sheets 1990). Ab 1966 standen dem National Hurricane Center tägliche Satellitenbilder zur Verfügung, so dass die Statistiken ab diesem Zeitpunkt am vollständigsten sind (McAdie et al. 2009). Für Hurrikane, die die Atlantik- und Golfküste der USA treffen, kann man mit relativ zuverlässigen Zählungen der Systeme weiter in die Vergangenheit zurückgehen, da seit 1900 genügend Menschen an den Küsten gelebt haben. Daher gelten die folgenden Aufzeichnungen für den Zeitraum zuverlässiger Daten für das gesamte Atlantikbecken (von 1968-2018) und für die Küstenlinie der USA (1900-2018).

Wissenschaftler der Hurricane Research Division der NOAA haben jedoch fleißig ältere meteorologische Aufzeichnungen untersucht, um Hurrikane vor 1966 neu zu analysieren – Details hier.

Dies erlaubt uns, viel aussagekräftigere Langzeitvergleiche anzustellen. Ihre Daten zeigen, dass das vergangene Jahr weit davon entfernt war, eine Rekord-Hurrikansaison oder gar hinsichtlich tropischer Stürme zu sein.

In Bezug auf ACE war es nur die zehntstärkste Saison, das Rekordjahr war 1933:

Quellen: hier und hier

Es gibt ein klares zyklisches Muster, mit intensiverer Aktivität in der Zeit von 1930 bis 1970, weniger zwischen 1970 und den späten 1990er Jahren und einer Zunahme seither. Dies steht in direktem Zusammenhang mit der Atlantischen Multidekadischen Oszillation (AMO), einem natürlichen Zyklus, der in einem 50- bis 60-jährigen Zyklus von warm zu kühl wechselt. In den 1930er bis 60er Jahren befand sie sich in der warmen Phase, und seit Mitte der 1990er Jahre ist sie ebenfalls im warmen Modus.

Die NOAA erklärt den Zusammenhang zwischen AMO und der Hurrikan-Aktivität im Atlantik so:

Wie wichtig ist die AMO, wenn es um Hurrikane geht – mit anderen Worten – ist sie einer der größten Treiber? Oder nur ein Nebenakteur?

Während warmer Phasen der AMO ist die Zahl der Tropenstürme, die zu schweren Hurrikanen heranreifen, viel größer als während kühler Phasen, mindestens doppelt so groß. Seit die AMO um 1995 in ihre warme Phase wechselte, sind schwere Hurrikane viel häufiger geworden, was zu einer Krise in der Versicherungswirtschaft geführt hat.

Beeinflusst die AMO die Intensität oder die Häufigkeit von Hurrikanen (welche)?

Die Häufigkeit von Stürmen der schwachen Kategorie – tropische Stürme und schwache Hurrikane – wird von der AMO nicht wesentlich beeinflusst. Die Anzahl der schwachen Stürme, die zu größeren Hurrikanen heranreifen, ist jedoch deutlich erhöht. Die Intensität wird also beeinflusst, aber natürlich auch die Häufigkeit der großen Hurrikane. In diesem Sinne ist es schwierig, zwischen Häufigkeit und Intensität zu unterscheiden, und die Unterscheidung wird etwas bedeutungslos.

Es ist auch erwähnenswert, dass die Hurrikanaktivität auch nach der Reanalyse wahrscheinlich immer noch unter den Aufzeichnungen der Hurrikanaktivität vor der Satellitenära liegt. Chris Landsea vom National Hurricane Centre, der einen Großteil der Re-Analyse-Arbeiten durchgeführt hat, erklärte hier in seiner Studie Reanalysis of the 1921-30 Atlantic Hurricane Database:

7) Trotz der Reanalyse-Änderungen gibt es erhebliche Unsicherheit in den TC-Spuren, signifikante Unterschätzungen in der TC Häufigkeit und eine signifikante Unterschätzung der TC-Intensität
und Dauer, insbesondere für die Systeme über dem offenen Ozean.

Dieser letzte Punkt bedarf einer näheren Erläuterung. In der jüngsten Vergangenheit gab es einige Studien zum Klimawandel, die HURDAT, die im Wesentlichen gekennzeichnet war von fehlenden TCs, fehlenden Teile der TC-Lebenszyklen oder einer Unterschätzung der Intensität bestehender TCs ab Mitte des zwanzigsten Jahrhunderts oder sogar bis zum Beginn der Datenbank im Jahr 1851 (z.B. Emanuel 2005; Mann und Emanuel 2006; Holland und Webster 2007). Neuere Arbeiten (Vecchi und Knutson 2008, 2011; Landsea et al. 2010) kommen zu glaubwürdigen, quantitativen Schätzungen darüber, wie viele TCs und Hurrikane auch in der reanalysierten historischen Datenbank „übersehen“ worden waren. Solche Arbeit muss …

Man beachte, dass die Namen von Emmanuel und Mann auftauchten!

In Wirklichkeit werden wir nie in der Lage sein, die gesamte Hurrikanaktivität der Vergangenheit aufzuzeichnen, so wie wir es jetzt können. Nichtsdestotrotz ist es offensichtlich, dass weder die Hurrikanaktivität des letzten Jahres noch die der vorangegangenen Jahre beispiellos ist.

Link: https://wattsupwiththat.com/2021/01/15/record-atlantic-hurricane-season/

Übersetzt von Chris Frey EIKE