Wolken von allen Seiten

In vielen Klimamodellen können Details in der Darstellung von Wolken die Modellschätzungen der Wolkenrückkopplung und der Klimasensitivität erheblich beeinflussen. Darüber hinaus ergibt sich die Streuung der Klimasensitivitäts-Schätzungen zwischen den aktuellen Modellen hauptsächlich aus den Unterschieden zwischen den Modellen bei den Wolkenrückkopplungen. Daher sind die Wolkenrückkopplungen nach wie vor die größte Quelle der Unsicherheit bei den Schätzungen der Klimasensitivität.

Die wichtige Frage ist folgende: Wenn sich die Erde erwärmt, werden die Wolken die Erwärmung verstärken oder werden sie die Erwärmung reduzieren? Die allgemeine Behauptung der Mainstream-Klimawissenschaftler und des IPCC ist, dass die Wolken die Erwärmung verstärken werden, d. h:

Alle globalen Modelle erzeugen weiterhin eine nahezu null bis mäßig starke positive Netto-Wolkenrückkopplung.

Nach meiner eigenen Theorie wirken Wolken und andere auftretende Klimaphänomene im Allgemeinen einem Anstieg der Oberflächentemperatur entgegen. Ich würde also das Gegenteil von dem erwarten, was die Modelle zeigen. Ich dachte mir, dass es eine negative Wolkenrückkopplung geben sollte, die der Erwärmung entgegenwirkt.

Also warf ich einen Blick auf die Beantwortung der Frage mit Hilfe des CERES-Satelliten-Datensatzes. Als Prolog hier eine kurze Erklärung zur Messung der Wirkung von Wolken.

Wolken haben zwei Auswirkungen auf die Strahlungsbilanz der Oberfläche und damit auf die Oberflächentemperatur. Einerseits reflektieren sie Sonnenlicht (kurzwellige Strahlung, „SW“) zurück in den Weltraum und kühlen so die Oberfläche ab. Andererseits blockieren und absorbieren Wolken die aufsteigende Wärmestrahlung (Langwelle, „LW“) von der Oberfläche und strahlen etwa die Hälfte der absorbierten Strahlung wieder in Richtung Oberfläche ab. Diese zusätzliche abwärts gerichtete Strahlung lässt die Oberfläche wärmer werden, als sie es ohne die Wolken wäre.

Beide Effekte können wir tatsächlich physisch wahrnehmen. An einem klaren Sommertag zieht eine Wolke vorbei und kühlt uns sofort ab. Und während einer klaren Winternacht kommt eine Wolke vorbei und wir fühlen uns sofort wärmer.

Diese beiden Veränderungen, Abkühlung und Erwärmung durch unterschiedliche Phänomene, werden unter dem Begriff „CRE“ zusammengefasst, der für den Cloud Radiative Effect steht. Wie bereits erwähnt, gibt es eine kurzwellige (SW) und eine langwellige (LW) Komponente, und wenn man diese addiert, erhält man den „Gesamt-CRE“. Wie allgemein bekannt führt der Netto-CRE im Durchschnitt zu einer Oberflächenkühlung von etwa 20 Watt pro Quadratmeter (W/m²). Das heißt, die Wolken kühlen die Oberfläche mehr ab, als sie sie erwärmen. Hier sieht man die Auswirkung rund um den Planeten:

Abbildung 1. Netto-Wolkenstrahlungseffekt (LW-Erwärmung minus SW-Abkühlung)

Man beachte die starke Abkühlung entlang der innertropischen Konvergenzzone (ITCZ) über dem Äquator und im pazifischen Warmpool nördlich von Australien. Dort sorgen die Wolken für eine Abkühlung von bis zu sechzig Watt pro Quadratmeter (W/m²). Zum Vergleich: Eine Verdoppelung des CO2 soll die Erwärmung um 3,5 W/m² erhöhen, eine Größenordnung weniger …

Und hier ist das gleiche Bild, aber von der Atlantikseite:

Abbildung 2. Wie in Abbildung 1, atlantische Seite. Netto-Strahlungseffekt der Wolken (LW-Erwärmung minus SW-Kühlung)

Wie man sieht haben Wolken überall einen kühlenden Nettoeffekt, außer über einigen Wüsten und an den Polen. An den Polen erwärmen die Wolken sogar die Oberfläche. Und im Durchschnitt ist die Abkühlung über den Ozeanen viel größer (25 W/m²) als über dem Land (8 W/m²).
Kurz gesagt, die Wolken kühlen die heißen Tropen und erwärmen die kalten Pole, genau wie meine Theorie es vorhersagt.

Die eigentliche Frage ist jedoch nicht der statische Zustand. Es geht darum, was passiert, wenn sich der Planet erwärmt. Zu diesem Zweck habe ich die Änderungen der Gesamt-CRE in Bezug auf die Oberflächentemperatur für jede 1°C x 1°C-Gitterzelle berechnet. Hier sind die Ergebnisse, wieder von der pazifischen und der atlantischen Seite aus gesehen:

Abbildung 3. Änderung des Netto-Wolkenstrahlungseffekts (LW-Erwärmung minus SW-Abkühlung) pro ein Grad C Oberflächenerwärmung. Negative Werte zeigen an, dass es eine größere Wolkenabkühlung mit steigender Oberflächentemperatur gibt.

Und hier ist der Blick auf den Atlantik:

Abbildung 4. Wie in Abbildung 3, aber eine atlantische Ansicht. Änderung des Netto-Wolkenstrahlungseffekts (LW-Erwärmung minus SW-Abkühlung) pro ein Grad C der Oberflächenerwärmung. Negative Werte zeigen an, dass mit steigender Oberflächentemperatur eine stärkere Wolkenabkühlung stattfindet.

Dies ist ein sehr interessantes Ergebnis. Wie von meiner Theorie vorhergesagt, dass Wolken ein wichtiger Teil des den Planeten vor thermischer Überhitzung schützenden thermo-regulatorischen Systems sind, stellen wir fest, dass fast überall auf der Erde mit steigender Oberflächentemperatur auch die Wolkenabkühlung zunimmt (negative Werte). Dies gilt für beide Hemisphären, die Tropen, das Land, den Ozean und sowohl für die Arktis als auch die Antarktis. Nur in wenigen isolierten Bereichen des Ozeans nimmt die Wolkenabkühlung mit zunehmender Oberflächentemperatur ab.

Ich bin gerade dabei, meine Theorie aufzuschreiben, dass emergente Phänomene die Oberflächentemperatur in engen Grenzen halten, um sie bei einer noch nicht entschiedenen wissenschaftlichen Zeitschrift einzureichen. Diese Analyse ist definitiv ein Beweis für diese Theorie, also bin ich froh, dass ich diese spezielle Arbeit gemacht habe. Aber Mann, ich hasse es, für Journale zu schreiben. Ich habe immer das Gefühl, dass ich mir selbst eine Gehirnwäsche verpassen muss, um in dem dicken, schwülstigen, langatmigen Stil zu schreiben, den sie mögen. Und mit dem kleinen Wortlimit und der begrenzten Anzahl von Grafiken habe ich das Gefühl, mit gebundenen Händen zu kämpfen.

Nun ja, das ist nur ein weiterer Teil des reichhaltigen Spektakels des Lebens, und ich habe in den 17 Jahren, in denen ich auf kleinen Inseln im Südpazifik gelebt habe, eine wichtige Lektion gelernt – das Universum gibt wirklich keinen Pfifferling darauf, was ich als nächstes möchte.

Also muss ich einfach weitermachen …

Link: https://wattsupwiththat.com/2021/03/15/clouds-from-both-sides-now/

Übersetzt von Chris Frey EIKE

 




Fakten zur Corona-Situation

Das Bundesverfassungsgericht hat schon vor Jahrzehnten den Wesentlichkeitsgrundsatz entwickelt, und der besagt: Wesentliche Fragen, insbesondere der Grundrechtsverwirklichung, sind durch die Parlamente selbst zu regeln. Diese Entscheidungen dürfen nicht an die zweite Gewalt delegiert werden. Genau das aber geschieht in dieser Pandemiephase seit einem Jahr. … Es wäre zu begrüßen, wenn jeder Bürger sich des Wertes der Freiheit, immer verbunden mit Verantwortung gegenüber dem Gemeinwesen, dem Anderen und auch gegenüber sich selbst, bewusst wäre.“
(Hans-Jürgen Papier, ehemaliger Präsident des Bundesverfassungsgerichts, in der Welt am 7.3.2021)

Der Entzug unserer Grundrechte und die Lockdowns werden mit der epidemischen Lage von nationaler Tragweite begründet. „Erstmals stellte der Deutsche Bundestag am 25. März 2020 mit Wirkung zum 28. März 2020 die epidemischen Lag (sic!) von nationaler Tragweite fest. Am 18. November 2020 beschloss das Parlament deren Fortbestehen wie auch am 4. März 2021.“ (https://www.bundesregierung.de/breg-de/themen/coronavirus/pandemische-lage-verlaengert-1872464) Wie die Rechtschreibfehler zeigen, sitzen die Halbgebildeten nicht nur auf Ministersesseln.

Laut Infektionsschutzgesetz: „Eine epidemische Lage von nationaler Tragweite liegt vor, wenn eine ernsthafte Gefahr für die öffentliche Gesundheit in der gesamten Bundesrepublik Deutschland besteht, weil

1. die Weltgesundheitsorganisation eine gesundheitliche Notlage von internationaler Tragweite ausgerufen hat und die Einschleppung einer bedrohlichen übertragbaren Krankheit in die Bundesrepublik Deutschland droht oder

2. eine dynamische Ausbreitung einer bedrohlichen übertragbaren Krankheit über mehrere Länder in der Bundesrepublik Deutschland droht oder stattfindet.“

Der erste Punkt trifft nicht zu, weil die übertragbare Krankheit bereits eingeschleppt wurde. Trifft der zweite Punkt zu? Wie bedrohlich ist die Krankheit?

  1. Die „Qualitätsmedien“ verbreiten Falschnachrichten, z. B. zur Sterblichkeitsrate

Auf der Startseite der Süddeutschen Zeitung ist unter der Überschrift „Das Wichtigste zum Coronavirus“ eine Grafik zu sehen, die für jeden Landkreis in Deutschland die 7-Tage-Inzidenz anzeigt und beim Darüberfahren mit der PC-Maus die Anzahl der an Covid-19 Verstorbenen und die angebliche Sterblichkeitsrate, z. B. für den Landkreis Rosenheim den Wert 3,97 % (Stand 26.2.21). Diese Sterblichkeitsrate ist in der SZ-Grafik die Anzahl der an oder mit Covid-19 Verstorbenen dividiert durch die Anzahl der positiv Getesteten.

Die Zahl der Verstorbenen ist mit hohen Unsicherheiten behaftet, weil nicht jeder Verstorbene, der irgendwann zuvor positiv getestet wurde, an Covid-19 verstorben ist. Die Zahl der positiv Getesteten ist weitaus geringer als die Zahl der Infizierten, denn oft verläuft die Infektion ohne Symptome und die Infizierten werden dann nicht getestet. Die Dunkelziffer kann man aus einer Studie des RKI abschätzen. Das RKI hatte zum Stichtag 5.11.2020 knapp 50 000 Proben von Blutspendern auf das Vorhandensein von Antikörpern gegen SARS-CoV-2 untersucht. Bei 1,35 % aller Proben wurden Antikörper nachgewiesen. Weil nur bei 35 % aller zuvor positiv Getesteten Antikörper gefunden wurden, heißt das, dass man davon ausgehen muss, dass 3,9 % der Spender zu irgendeinem Zeitpunkt infiziert waren. Hochgerechnet auf die Bevölkerungszahl Deutschlands wären das zum Stichtag 5.11. 3,24 Millionen Menschen gewesen. An diesem Tag hatte das RKI eine kumulierte Fallzahl von 635 Tausend Menschen gemeldet. Daraus ergibt sich eine Dunkelziffer von Faktor 5 und eine entsprechend niedrigere tatsächliche Sterblichkeitsrate. Nach der SZ-Berechnung ist die Sterbeziffer für ganz Deutschland bei 2,9 %. Unter Berücksichtigung der Dunkelziffer ist sie aber nur 0,6 %! Alle wissenschaftlichen Veröffentlichungen kommen auf ein Ergebnis von maximal 0,6 %. Die von der WHO veröffentlichte Metastudie von Prof. Ioannidis sogar auf weniger als 0,3 %, was im Bereich einer gefährlichen Grippe liegt.

Die zweite Grafik, mit der regierungsnahe Medien wie die öffentlich-rechtlichen Sender und die SZ Angst machen, ist die mit der wöchentlichen Sterbezahl im Vergleich mit den Vorjahren (Destatis). Die rote Kurve sind die Zahlen von 2020. Die Zahlen von 2016 bis 2019 liegen im blau gefärbten Bereich. Die Spitze in KW10 bezeichnet den Höhepunkt der Grippewelle 2018. In dieser Woche sind mehr Menschen in Deutschland gestorben als in jeder Woche des Jahres 2020. Das hat niemand interessiert, genauso wenig wie die Überlastung der Krankenhäuser zu dieser Zeit. Die Grafik soll suggerieren, dass die Zahl der Todesfälle im Dezember 2020 stark anstieg und erst durch den Lockdown wieder zurückging. Dazu mehr unter Punkt 2. Was zu dieser Grafik fehlt, ist das „Kleingedruckte“, der Hinweis auf wichtige Punkte, um die Daten einordnen zu können:

a) In 2019 gab es keine ausgeprägte Grippewelle. Das führt zu dem erwartbaren Ergebnis, dass im Folgejahr, also 2020, mehr Menschen mit Vorerkrankungen an einer zusätzlichen Viruserkrankung sterben, in diesem Fall an Covid-19. Der dänische Statistiker Jonas Herby führte die im Vergleich mit anderen nordischen Ländern erhöhte Sterberate in Schweden während der „ersten Welle“ darauf zurück. Er nannte es den „dry tinder“ (trockenes Unterholz) Effekt.

b) Die Bevölkerungsstruktur in Deutschland ändert sich. Die Zahl der Menschen, die 80 Jahre oder älter sind, hat sich von Anfang 2016 bis Anfang 2020 um 18,7 % erhöht. Es ist deshalb logisch, dass in dieser Altersgruppe in 2020 mehr Menschen gestorben sind als in den vergangenen Jahren. Die altersbereinigten Sterberaten, die das berücksichtigen, zeigen, dass 2020 unter den Jahren 2016 bis 2018 liegt.

c) Wenn man noch genauer hinsieht, stellt man fest, dass in der Grippesaison 2018 viele Menschen in der Altersgruppe 40 bis 69 Jahre gestorben sind, die „verlorenen Lebensjahre“ also deutlich mehr waren als 2020 durch Covid-19, als der Altersmedian der Verstorbenen laut RKI bei 84 Jahren lag.

d) Die aktuelle Statistik von Destatis zeigt, dass im Februar 2021 3 % weniger Menschen in Deutschland gestorben sind, als im Schnitt der Jahre 2017 bis 2020.

  1. Die Sterbezahlen gehen seit der Umstellung der Behandlung im November zurück

Der Höchststand der gemeldeten Covid-19 Sterbezahlen war laut RKI im 7-Tage-Mittel am 10.1.2021. Das mittlere Alter der übermittelten Zahlen beträgt 4 Wochen laut IGES (Institut für Gesundheits- und Sozialforschung). Der effektive Höchststand war deshalb am 13.12.2020, das bedeutet, dass seit fast drei Monaten die Sterbezahlen zurückgehen, sh. Grafik (blaue Kurve).

Möglicherweise unternehmen die Gesundheitsämter und das RKI den löblichen Versuch, den Verzug bei den gemeldeten Sterbezahlen zu reduzieren. Das würde bedeuten, dass die gemeldeten Sterbezahlen langsamer zurückgehen, als die tatsächlichen, bis der Verzug auf einem neuen, dann hoffentlich niedrigen Niveau ist. Bis dahin sind die Sterbezahlen des RKI, falls sie ohne das tatsächliche Sterbedatum der Patienten oder den mittleren Verzug gemeldet werden, noch irreführender als sie so schon sind!

Die Patienten sterben im Schnitt nach 2 bis 3 Wochen auf der Intensivstation. Das heißt, die Behandlung der Patienten, die um den 13.12. verstarben, wurde um den 28.11.2020 begonnen. Das war der tatsächliche Höhepunkt der zweiten „Welle“, vor mittlerweile mehr als 3 Monaten und viele Wochen, bevor die Lockdown-Maßnahmen „greifen“ konnten.

Bis zum 23.11.2020 galten die „Empfehlungen zur intensivmedizinischen Therapie von Patienten mit COVID-19“ vom März 2020, in denen es hieß: „Beachtet werden muss, dass die Anwendung der High-flow-Sauerstofftherapie sowie der nichtinvasiven Beatmung zu einer Aerosolbildung führt … Insgesamt sollte daher die Indikation für HFNC/NIV bei akuter hypoxämischer respiratorischer Insuffizienz im Rahmen von COVID-19 eher zurückhaltend gestellt werden.“ Das heißt auf Deutsch: Lieber gleich invasiv beatmen, statt mit Sauerstoffmaske oder –Kanüle, wegen der Gefahr durch das Ausatmen von Viren. Und das bedeutet Intubieren, also Luftröhrenschlauch und künstliches Koma, mit dem Risiko der Lungenschädigung und erhöhtem Infektionsrisiko. Die Intubation solle „durch nichtinvasive Beatmung nicht verzögert werden“, empfahl die Deutsche Gesellschaft für Anästhesiologie und Intensivmedizin.

Im September 2020 wurde im führenden medizinischen Fachblatt „The Lancet“ eine Studie veröffentlicht, in der berichtet wurde, dass 53 % der invasiv beatmeten Covid-19 Patienten in Deutschland starben. Das frühe Intubieren war auch ein Grund für die hohen Sterbezahlen in Spanien, Frankreich, Italien und New York, wo bis zu 80% der intubierten Patienten starben.

Am 23.11. wurde eine neue Leitlinie veröffentlicht. Darin steht: „Therapeutisch stehen bei Vorliegen einer Hypoxämie bzw. einer respiratorischen Insuffizienz zunächst die Gabe von Sauerstoff über Nasensonde, Venturi-Maske, und High-Flow-Sauerstofftherapie (HFNC) im Vordergrund. Die High-Flow-Sauerstofftherapie wird bei akuter hypoxämischer respiratorischer Insuffizienz häufig eingesetzt und kann im Vergleich zur konventionellen Sauerstofftherapie die Notwendigkeit einer Intubation reduzieren, ohne die Sterblichkeit signifikant zu beeinflussen.Es soll also zunächst nichtinvasiv beatmet werden. Leider ist auch in der neuen Leitlinie eine feste Untergrenze für die Sauerstoffsättigung von 90% vorgegeben. https://www.awmf.org/leitlinien/detail/ll/113-001.html

Würde man nicht nach einer fest vorgegebenen Sauerstoffsättigungsgrenze vorgehen, sondern den Patienten genauer beobachten und erst dann intubieren, wenn es wirklich nicht anders geht, so wie Dr. Voshaar vom Krankenhaus Bethanien in Moers (gleichzeitig Präsident des Verbands Pneumologischer Kliniken) es bereits seit längerer Zeit macht – nach der Devise „Invasive Beatmung solange es geht vermeiden!“ und „Effekt von Lagerungswechsel dokumentieren (incl. Bauchlage)“ – dann wäre es für die Patienten besser, denn er erreicht damit eine reduzierte Sterblichkeit (https://www.bethanien-moers.de/download/sop-covid-behandlung-von-respiratorischem-versagen).

  1. Viele Covid-19 Patienten bekamen falsche Medikamente in zu hoher Dosis

Ein weiterer Grund für die anfangs hohe Sterblichkeit von Covid-19 Patienten bestand in der Gabe von hohen Dosen von Chloroquin bzw. Hydroxychloroquin. Dieses ehemalige Malariamedikament (heute hilft es nicht mehr wegen Resistenzen der Malaria-Parasiten) wurde in der WHO-Studie Solidarity trotz Sicherheitsbedenken in der dreifachen Malaria-Dosis verabreicht, in der WHO-Studie Discovery und auch außerhalb dieser Studien, auch an ungefähr 10 000 Patienten in Deutschland, das selbst nicht an der Studie teilnahm. „Die Bundesregierung hat „größere Mengen“ Chloroquin für Deutschland gesichert.“ berichtet die Welt am 18.3.2020. Hydroxychloroquin kann Herzrhythmusstörungen verursachen, genauso wie die ebenfalls zur Covid-19-Therapie eingesetzten Medikamente Remdesivir (ein Virustatikum) und Azithromycin (ein Antibiotikum). Kardiologen haben deshalb bereits im März vor dem Einsatz von Chlorquin gewarnt. „Man weiß, dass jedes der beiden Medikamente [das zweite Medikament ist in diesem Fall Azithromycin] zu bösartigen Herzrhythmusstörungen führen kann und sich eine Kombinationstherapie beider Medikamente eigentlich verbietet“ so Professor Dr. Thomas Meinertz, Kardiologe und Pharmakologe des wissenschaftlichen Beirat der Deutschen Herzstiftung.

Chloroquin wird von der niederländischen „Stiftung zur Erforschung eines humanen, selbstbestimmten Sterbens“ für den Suizid empfohlen. Eine Dosis von 6 – 8 Gramm führt innerhalb von 4 Stunden zum Tod. Bei Amazon gibt es ein Buch zu kaufen, das die Methode ebenfalls beschreibt. In der WHO-Studie wurden 9,2 Gramm innerhalb von 10 Tagen verabreicht. In einer brasilianischen Studie wurde teilweise eine noch höhere Dosis verabreicht und es kam zu mehreren Todesfällen innerhalb von drei Tagen.

Besonders betroffen sind Menschen mit Favismus, einer Enzymstörung. Für diese Menschen gibt es eine klare Kontraindikation. In Deutschland ist Favismus selten, aber im Mittelmeerraum und Afrika liegt die Prävalenz bei 3 bis 35 Prozent und auch in den USA ist sie hoch. Das könnte eine Erklärung für die hohen Sterbeziffern in diesen Ländern sein.
Schweden kam ohne Lockdown besser durch die zweite Welle als Deutschland

Ob die Lockdown-Maßnahmen sinnvoll sind, wird oft mit dem Vergleich mit Schweden begründet, wo es keinen Lockdown und nicht einmal eine allgemeine Maskenpflicht gibt. Geschäfte, Restaurants, Kitas und Schulen sind geöffnet. Fakt ist, dass in den letzten 6 Monaten in Schweden 7202 Menschen an oder mit Covid-19 verstorben sind, das sind 0,071 Prozent der Bevölkerung (Stand 27.2.2021). In Deutschland sind im gleichen Zeitraum 63 069 Menschen an oder mit Covid-19 verstorben, das sind 0,075 % der Bevölkerung, also mehr als in Schweden (https://www.worldometers.info/coronavirus/#countries).

Dem stellen wir noch die Zahl der Intensivbetten pro 1 Million Einwohner gegenüber:
Deutschland: 387
Schweden: 58

  1. Es gab keine Überlastung des Gesundheitssystems und keine Übersterblichkeit

Der zweite oft vorgebrachte Grund für den Lockdown ist, dass die „Überlastung des Gesundheitssystems vermieden werden muss“. Die Belegung der Intensivstationen (die untere Kurve der Grafik) ist und war im Winter nicht höher als im Sommer, als praktisch keine Covid-19-Patienten auf den Intensivstationen lagen. Am 7.3.2021 sind in Deutschland 2778 Intensivbetten mit Covid-19-Patienten belegt, weniger als halb so viele wie Anfang Januar. Das sind 11,6 % der gesamten Bettenzahl von 23934 (ohne Notfallreserve). 4282 Betten sind frei. Die Anzahl an freien Betten ging nur deshalb zurück, weil das Personal knapp wurde. Und wenn Intensivstationsbetten in bestimmten Regionen knapp werden, dann ist das nichts Neues, wie Berichte aus 2019 und 2017 zeigen: https://www.aerzteblatt.de/archiv/205989/Intensivmedizin-Versorgung-der-Bevoelkerung-in-Gefahr „Nun klagen die Notaufnahmen mehrerer Kliniken in Nürnberg und München über Überlastung.“ (https://www.aerzteblatt.de/nachrichten/72938/Grippewelle-sorgt-fuer-ueberlastete-Kliniken). Auf die Hinweise verschiedener Klinikleiter, dass mehr als die Hälfte der Intensivstationspatienten Migrationshintergrund haben, kann ich derzeit nur verweisen und hinzufügen, dass die Datenlage dünn ist, weil die Herkunft der Patienten nicht offiziell erfasst wird: https://focus.de/13039874

Im Jahr 2020 sind in Deutschland 982 489 Menschen gestorben. Das liegt genau im erwarteten Bereich, der sich durch die alternde Bevölkerung ergibt (https://reitschuster.de/post/ard-framing-zum-trotz-2020-keine-uebersterblichkeit/). Aktuell gibt es in den EU-Staaten eine Untersterblichkeit in den Altersgruppen bis 44 Jahre und eine normale Sterblichkeit für alle anderen Altersgruppen (https://www.euromomo.eu/graphs-and-maps/). Auch in Italien, Spanien und UK gibt es derzeit keine Übersterblichkeit.

Prof. Nida-Rümelin hat es bei Gabor Steingart am 16.2.21 folgendermaßen zusammengefasst:
Die Inzidenz als solche ist völlig irrelevant. Wenn 20-Jährige sich infizieren und zwei Tage etwas husten, dann ist das für die Gesundheitspolitik für sich genommen unwichtig. … Deshalb sind die Fragen nach der Mortalität, wie viele sterben durch die Pandemie, und die Fragen nach der Morbidität, wie viele schwere Erkrankungsfälle gibt es, entscheidend.“

  1. Jedes Menschenleben zählt! Wirklich?

Den Ausspruch „jedes Menschleben zählt“ zur Rechtfertigung der Corona-Maßnahmen haben schon einige Politiker getätigt. Welche Menschen und welches Leben meinen Sie? Offenbar nicht die 30 bis 40 Tausend Toten jedes Jahr durch Krankenhauskeime (mehr als eine halbe Million seit Merkels Machtantritt) oder die 60 bis 70 Tausend Toten jedes Jahr durch falsche Medikamente in Kliniken (eine Million innerhalb Merkels Kanzlerschaft, Daten von Dr. Gerd Reuther). Die Politiker meinen offenbar auch nicht die über 100 Tausend Toten jedes Jahr durch Tabakkonsum und die vielen Tausend, deren Operationen (auch Krebs-OPs) verschoben wurden, um Betten für Covid-19-Patienten freizuhalten, die dann nicht gebraucht wurden. Den Krankenhäusern war das egal, denn es gab ja 560 Euro pro Tag für nicht belegte Betten (https://www.welt.de/wirtschaft/article208557665/Wegen-Corona-In-Deutschland-wurden-908-000-OPs-aufgeschoben.html).

  1. Der Schaden durch Lockdowns ist immens

Lockdowns töten Menschen
Lockdowns machen seelisch krank
Lockdowns schädigen besonders unsere Kinder
Lockdowns führen zu Bildungsungleichheit
Lockdowns ruinieren die Staatsfinanzen
Lockdowns zerstören die Wirtschaft
Lockdowns versetzen die Kultur ins Koma
Lockdowns schränken Grundrechte ein
Lockdowns untergraben die demokratischen Grundsätze

Von https://www.change.org/p/abstimmung21-nie-wieder-unsinnige-lockdowns?redirect=false, dort sind alle Aussagen belegt.

Dass ein harter Lockdown keinen Vorteil bringt bezüglich der Eindämmung der Epidemie gegenüber den Empfehlungen, mit denen sich Schweden begnügte, zeigt eine Studie der Stanford Universität, in der auch die vielen Nachteile durch einen Lockdown für die Gesundheit der Menschen genannt werden.

Das kommt dabei heraus, wenn Politiker sagen „folgt der Wissenschaft“ und sich dabei nur auf die Virologen verlassen, die den eigenen politischen Kurs unterstützen, und auf einen österreichischen Mao-Verehrer, von Beruf Sprachprüfer, der als einer der führenden Autoren am Strategiepapier des Innenministeriums „Wie wir Covid-19 unter Kontrolle bekommen“ gearbeitet hat, in dem es heißt „Um die gewünschte Schockwirkung zu erzielen, müssen die konkreten Auswirkungen einer Durchseuchung auf die menschliche Gesellschaft verdeutlicht werden“. Angst macht Menschen gefügig!

Nicht genehme Meinungsäußerungen wurden dagegen bestraft, so wie die von Prof. Lütge, der wegen seiner Kritik an den Corona-Maßnahmen aus dem Bayerischen Ethikrat entlassen wurde, ein Vorgang ohne Präzedenz (https://www.br.de/nachrichten/bayern/entlassenes-ethikrat-mitglied-sie-machen-viel-mehr-kaputt,SPY3EUl).

Der SPD-Gesundheitsexperte Karl Lauterbach bezeichnet sich gerne als Arzt und Epidemiologen. Fest steht, dass er nie als Arzt gearbeitet hat und außer ein paar Seminaren Epidemiologie an der Universität auch auf diesem Gebiet über keinerlei praktische oder Forschungserfahrung verfügt. Man könnte ihn als Experten für Margarine und Cholesterinsenker bezeichnen. Dazu hat er zumindest Vorträge gehalten. Wenn er sagt „Somit benötigen wir Maßnahmen zur Bewältigung des Klimawandels, die analog zu den Einschränkungen der persönlichen Freiheit in der Pandemie-Bekämpfung sind“ dann ist das dummes Zeug von einem sich maßlos überschätzenden Selbstdarsteller, der weder vom einen noch vom anderen Thema etwas versteht.

Zusammenfassung:
Es gab in 2020 durch Covid-19 keine Übersterblichkeit, wenn man die gestiegene Zahl der Menschen über 80 Jahre berücksichtigt und mit der zu erwartenden Zahl an Todesfällen vergleicht.

Die vom Robert-Koch-Institut veröffentlichten Sterbeziffern betreffen Patienten, die 6 bis 7 Wochen vorher auf die Intensivstation aufgenommen wurden. Die Sterbeziffern gehen seit der Umstellung der Beatmung der Covid-19 Patienten Ende November 2020 von möglichst schnell invasiv auf möglichst spät invasiv zurück. Mit dem Lockdown ab Mitte Dezember hat das nichts zu tun.

Viele Patienten, vor allem in den Mittelmeerländern und in den USA, sind zusätzlich an zu hoher Dosierung von Chloroquin und der Kombination mit anderen Medikamenten gestorben.

Es gab zu keinem Zeitpunkt eine Überlastung des Gesundheitssystems, die sich von vergangenen Grippesaisons unterschieden hätte.

In Schweden ist die Sterberate in den letzten 6 Monaten niedriger gewesen als in Deutschland, obwohl es dort keinen Lockdown und keine allgemeine Maskenpflicht gibt und Schweden pro Einwohner über weniger als ein Sechstel der Intensivbetten im Vergleich mit Deutschland verfügt.

Eine „dynamische Ausbreitung einer bedrohlichen übertragbaren Krankheit über mehrere Länder in der Bundesrepublik Deutschland“, die sich vom Geschehen einer starken Grippewelle stark unterscheiden würde, ist nicht erkennbar. Deshalb gibt es keinen Grund für die Ausrufung einer epidemischen Lage von nationaler Tragweite und folglich ist der Lockdown nicht gerechtfertigt, der mehr schadet als er nützt und die Menschen noch jahrelang belasten wird.

Was kann man gegen die ungerechtfertigten und schädlichen Maßnahmen unternehmen?

  1. Die Petition gegen unsinnige Lockdowns unterschreiben:
    https://www.change.org/p/abstimmung21-nie-wieder-unsinnige-lockdowns?redirect=false
  2. Den Aufruf oberbayrischer Unternehmer unterzeichnen: https://wir-stehen-zusammen.com/



Man mache sich keine Illusionen bzgl. der Kosten von Net Zero

Der Rechnungsprüfungsausschuss des britischen Parlaments (Public Accounts Committee, PAC) veröffentlichte letzte Woche einen Bericht, der feststellte, dass es „keinen koordinierten Plan mit klaren Meilensteinen zum Erreichen“ von ‚Netto-Null‘-Emission bis zum Jahr 2050 gibt. Dieses Fehlen eines Plans, so behauptete der Ausschuss, mache es für das Parlament und die Öffentlichkeit schwierig, den Fortschritt auf dem Weg zum Ziel zu verstehen oder zu überprüfen.

Sonderausschüsse wie der PAC werden von Abgeordneten aller Parteien besetzt und sind einer der wichtigsten Mechanismen des Parlaments, um Ministerien, Minister und die Regierung zur Rechenschaft zu ziehen. Aber während das PAC zu Recht darauf hinweist, dass die Regierung keine Ahnung hat, wie das Netto-Null-Ziel erreicht werden soll, haben die Abgeordneten auch keine, obwohl sie dafür ebenso viel Verantwortung tragen.

Natürlich gibt es keinen Plan, wie man Net Zero erreichen kann. Genau wie beim Climate Change Act (CCA) 2008, der eine Emissionsreduktion von 80 Prozent forderte, wurde das Net-Zero-Ziel festgelegt, lange bevor sich jemand Gedanken darüber gemacht hat, wie es tatsächlich erreicht werden kann. Der politische Konsens, der uns das Netto-Null-Ziel bescherte, wird durch drei Faktoren konterkariert: das Fehlen eines globalen Netto-Null-Abkommens, der Mangel an verfügbarer Technologie und die fehlende Unterstützung der Bevölkerung.

Zu der Zeit, als die Abgeordneten 2008 das CCA unterzeichneten, war die Politikverdrossenheit der Bevölkerung auf einem Rekordniveau. Dies öffnete Kampagnen der grünen Lobby und ähnlicher Organisationen Tür und Tor. Diese Sonderinteressen behaupteten, dass die Klimapolitik – einschließlich großzügiger Subventionen für grüne Technologien – grüne Innovationen und wirtschaftliche Wiederbelebung bringen würde. Sie behaupteten auch, dass die „Rettung des Planeten“ ein populäres Anliegen werden würde und die öffentliche Meinung mobilisieren würde. Diese Versprechen erwiesen sich als haltlos.

Das Problem kristallisiert sich in der Zusammenfassung des PAC-Berichts heraus:

Bis zu 62 Prozent der zukünftigen Emissionsreduzierung werden von individuellen Entscheidungen und Verhaltensweisen abhängen, von Entsc heidungen bzgl. des alltäglichen Lebensstils bis hin zu einmaligen Anschaffungen wie dem Austausch von Heizkesseln, die fossile Brennstoffe verwenden, oder dem Kauf eines Elektrofahrzeugs. Die Regierung hat sich noch nicht richtig mit der Öffentlichkeit über die erheblichen Verhaltensänderungen auseinandergesetzt, die das Erreichen von Net Zero erfordern wird.

Wenn aber 62 Prozent der Emissionsreduzierung „auf individuellen Entscheidungen und Verhaltensweisen beruhen sollen“, dann erfordert die Net Zero-Politik notwendigerweise die Abschaffung von „Entscheidungen“ der Öffentlichkeit und die staatliche Regulierung ihrer „Verhaltensweisen“. Und da es keinen gleichwertigen, emissionsfreien Ersatz für Ihre Heizung, Ihr Auto oder für die vielen anderen alltäglichen, Energie benötigenden Aktivitäten gibt, ist das unvermeidliche Ergebnis von Netto-Null eine Reduzierung des Lebensstandards und der Lebensqualität der meisten Menschen.

Grüne Befürworter behaupten zum Beispiel, dass neue Technologien unsere Abhängigkeit vom Gasnetz beenden können. Und die Regierung hat angekündigt, dass die Installation von Gaskesseln in den 2030er Jahren verboten werden soll, um den Einsatz von Wärmepumpen zu fördern. Aber das hat auch seine Schattenseiten. Wärmepumpen kosten in der Regel ein Vielfaches dessen, was ein Gaskessel kostet – mindestens das 3,5-fache für das Gerät selbst, die Installationskosten nicht mitgerechnet. Sie benötigen viel größere Heizkörper, als die meisten Häuser bereits haben, und laute Wärmetauscher-Einheiten (identisch mit Klimaanlagen) müssen auch an der Außenseite jedes Hauses installiert werden. Und da Wärmepumpen weniger in der Lage sind, Wärme bei Bedarf zu erzeugen, müssen Häuser, in denen sie installiert sind, erheblich isoliert werden.

Außerdem sind Wärmepumpen kategorisch keine gleichwertigen Produkte zu Heizkesseln. „Gaskessel heizen Ihr Haus auf Knopfdruck, während eine Wärmepumpe 24 Stunden braucht, um das Haus auf 17 bis 19 Grad zu erwärmen“, räumte Chris Stark, der Vorsitzende des Climate Change Committee, kürzlich ein. Die Tatsache, dass man sein Haus nicht auf Zimmertemperatur heizen kann, „wird ein Umdenken erfordern“, fügte Stark hinzu.

Aber selbst wenn die „Einstellung“ der Menschen so verändert werden könnte, dass sie den Entwürfen von Beamten entspricht, ist es nicht die „Einstellung“, die benötigt wird, um die Zehntausende von Euro aufzubringen, die es kostet, ein gewöhnliches Haus in ein Net Zero-konformes Haus zu verwandeln. Eine Studie der Stadtverwaltung von Nottingham, bei der 10 ganz gewöhnliche Häuser nachgerüstet wurden, ergab, dass ein kleines Haus fast 90.000 Pfund benötigt, um es „kohlenstoffarm“ zu machen.

Das grüne Lager hat keine Erklärung angeboten, um zu zeigen, dass diese Kosten reduziert werden können, außer Annahmen über Größenvorteile. Aber das könnte eine unsichere Annahme sein, da die grüne Politik auch die Baupreise in die Höhe treiben wird. Die „Nachrüstung“ könnte die Haushalte am Ende fast das Äquivalent eines Jahrhunderts heutiger Energierechnungen kosten, für das Versprechen von bescheidenen (wenn überhaupt) Einsparungen bei zukünftigen Energierechnungen.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/ben-pile-come-clean-about-the-cost-of-net-zero/

Übersetzt von Chris Frey EIKE

 




Treiben Windmühlen die Zwergfleder­mäuse in den Untergang?

Laut einer neuen Studie in Scientific Reports machen Zwergfledermäuse mehr als die Hälfte aller Fledermaus-Todesfälle an Turbinenstandorten in Europa aus. Die Gründe dafür sind nicht ganz klar, aber die Ergebnisse des Berichts deuten darauf hin, dass die Fledermäuse aus irgendeinem besonderen Grund von den Windturbinen angezogen werden könnten.

Auf der Website der University of Exeter liest man:

Die Aktivität von Zwergfledermäusen wurde an 23 britischen Windparks und ähnlichen „Kontrollstandorten“ in der Nähe ohne Turbinen überwacht.

Die Aktivität war an den Turbinen um etwa ein Drittel höher als an den Kontrollstandorten, und zwei Drittel des Auftretens hoher Aktivität wurden eher an den Turbinen als an den Kontrollstandorten registriert.

Die Gründe dafür sind nicht klar. Möglicherweise werden die Fledermäuse von den Turbinen selbst angezogen oder es gibt in der Nähe der Turbinen mehr Beuteinsekten für die Fledermäuse.

So oder so bedeutet dies, dass das Risiko von Todesfällen an Windturbinen erhöht ist und erklärt wahrscheinlich die hohen Todesfälle von Zwergfledermäusen, die in einigen Windparks in Europa beobachtet wurden“, sagt Dr. Suzanne Richardson.

Diese Erkenntnis, nämlich dass Zwergfledermäuse tatsächlich von Windkraftanlagen angezogen werden, könnte erklären, warum die aktuellen Umweltverträglichkeitsprüfungen bei der Vorhersage der tatsächlichen Todesraten von Fledermäusen schlecht abgeschnitten haben.

Darüber hinaus, so heißt es in dem Bericht, „legen sie auch nahe, dass betriebliche Abhilfemaßnahmen (Minimierung der Blattrotation in Zeiten mit hohem Kollisionsrisiko) wahrscheinlich der effektivste Weg sind, um Kollisionen zu reduzieren, da die Anwesenheit von Turbinen die Fledermausaktivität verändert.“

Der ganze Bericht steht hier.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/03/04/do-wind-turbines-draw-pipistrelle-bats-to-their-doom/

Übersetzt von Chris Frey EIKE

 




Es gibt solche Modelle und solche Modelle

Ich erwähne das alles, um Sie wissen zu lassen, dass ich weit, weit davon entfernt bin, ein Anfänger oder gar ein Programmierer-Geselle zu sein. Ich habe z. B. mit „computerbasierter Evolution“ gearbeitet, um zu versuchen, den Aktienmarkt zu analysieren, bevor die meisten Leute überhaupt davon gehört haben. …

Nun, wer meine Arbeiten gelesen hat weiß, dass ich weit davon entfernt bin, Computer-Klimamodelle zu lieben. Ich wurde gefragt: „Was haben Sie gegen Computermodelle?“ und „Wie können Sie den Modellen nicht vertrauen, wir benutzen sie doch für alles?“

Nun, basierend auf einer lebenslangen Erfahrung auf diesem Gebiet kann ich Ihnen ein paar Dinge über Computerklimamodelle und Computermodelle im Allgemeinen versichern. Hier ist die Kurzfassung:

● Ein Computermodell ist nichts anderes als eine physikalische Umsetzung der Überzeugungen, Vorstellungen, falschen Ideen und Missverständnisse desjenigen, der das Modell geschrieben hat. Daher werden die Ergebnisse, die es produziert, die Überzeugungen, Auffassungen, falschen Ideen und Missverständnisse des Programmierers unterstützen, bestätigen und verkörpern. Alles, was der Computer tut, ist, diese Überzeugungen und Missverständnisse offiziell und vernünftig aussehen zu lassen. Oh, und er macht sehr, sehr schnell Fehler. Ich habe das schon erlebt.

● Computer-Klimamodelle gehören zu einer bestimmten Klasse von Modellen, die „iterative“ Computermodelle genannt werden. In dieser Klasse von Modellen wird die Ausgabe eines Zeitschrittes als Eingabe für den nächsten Zeitschritt in den Computer zurückgespeist. Mitglieder dieser Klasse von Modellen sind notorisch launisch, instabil und neigen zu internen Oszillationen und allgemein zum Herunterfallen. Normalerweise müssen sie in gewisser Weise künstlich „eingezäunt“ werden, damit sie nicht außer Kontrolle geraten.

● Wie jeder bestätigen kann, der schon einmal versucht hat, z. B. den Aktienmarkt zu modellieren, kann ein Modell, das die Vergangenheit absolut fehlerfrei reproduzieren kann, in der Tat sehr wahrscheinlich völlig falsche Vorhersagen für die Zukunft liefern wird. Ich habe das auch schon erlebt. Wie es in der Brokerwerbung in den USA heißen muss: „Vergangene Performance ist keine Garantie für zukünftigen Erfolg“.

● Das bedeutet, dass die Tatsache, dass ein Klimamodell das vergangene Klima perfekt nachzeichnen kann, NICHT bedeutet, dass es eine genaue Darstellung der Realität ist. Und vor allem bedeutet es NICHT, dass es die Zukunft genau vorhersagen kann.

● Chaotische Systeme wie Wetter und Klima sind notorisch schwer zu modellieren, selbst auf kurze Sicht. Das ist der Grund, warum Vorhersagen über den zukünftigen Weg eines Wirbelsturms in den nächsten 48 Stunden die Form eines Kegels und nicht einer geraden Linie haben.

● Es gibt einen ganzen Zweig der Informatik namens „V&V“, was für Validierung und Verifizierung steht. So können Sie sicher sein, dass Ihre Software der Aufgabe gewachsen ist, für die sie entwickelt wurde. Hier ist eine Beschreibung aus dem Internet:

Was ist Software-Verifizierung und -Validierung (V&V)?

Verifizierung

820.3(a) Verifikation ist die Bestätigung durch Prüfung und Erbringung eines objektiven Nachweises, dass festgelegte Anforderungen erfüllt wurden.

„Dokumentierte Verfahren, die in der Benutzerumgebung durchgeführt werden, um die Ergebnisse zu erhalten, aufzuzeichnen und zu interpretieren, die erforderlich sind, um festzustellen, dass die vorgegebenen Spezifikationen erfüllt wurden“ (AAMI).

Validierung

820.3(z) Validierung bedeutet die Bestätigung durch Untersuchung und Erbringung eines objektiven Nachweises, dass die besonderen Anforderungen für einen bestimmten Verwendungszweck konsistent erfüllt werden können.

Prozessvalidierung bedeutet die Feststellung durch objektive Beweise, dass ein Prozess konsistent ein Ergebnis oder ein Produkt erzeugt, das seinen vorgegebenen Spezifikationen entspricht.

Designvalidierung ist der objektive Nachweis, dass die Produktspezifikationen mit den Bedürfnissen des Anwenders und der vorgesehenen Verwendung(en) übereinstimmen.

Dokumentiertes Verfahren zur Erlangung, Aufzeichnung und Interpretation der Ergebnisse, die erforderlich sind, um festzustellen, dass ein Prozess konsistent ein Produkt hervorbringt, das den vorgegebenen Spezifikationen entspricht“ (AAMI).

Weitere Informationen zu V&V hier.

● Ihre durchschnittliche Fahrstuhl-Steuerungssoftware wurde mehr V&V unterzogen als die Computerklimamodelle. Und wenn die Software eines Computermodells nicht einer umfangreichen und strengen V&V unterzogen wurde, ist die Tatsache, dass das Modell sagt, dass etwas in der Modellwelt passiert, KEIN Beweis dafür, dass es in der realen Welt tatsächlich passiert … und selbst dann, wie man sagt, „Mist auftritt“. Wir haben eine Marssonde verloren, weil jemand eine einzige Zahl nicht von imperialen Maßen in metrische umgerechnet hat … und Sie können darauf wetten, dass die NASA ihre Programme einer umfangreichen und strengen V&V unterzieht.

● Computermodellierer, mich manchmal eingeschlossen, unterliegen alle dem fast unwiderstehlichen Wunsch, die Modellwelt mit der realen Welt zu verwechseln. Sie sagen Dinge wie „Wir haben festgestellt, dass das Klimaphänomen X durch den Antrieb Y verursacht wird“. Richtig wäre aber: „Wir haben festgestellt, dass in unserem Modell das modellierte Klimaphänomen X durch unseren modellierten Antrieb Y verursacht wird“. Leider sind die Modellierer nicht die einzigen, die bei diesem Prozess getäuscht werden.

● Je mehr einstellbare Parameter ein Modell hat, desto unwahrscheinlicher ist es, dass es die Realität genau abbildet. Klimamodelle haben Dutzende von abstimmbaren Parametern. Hier sind 25 von ihnen, es gibt aber noch viele mehr:

Was ist falsch mit Parametern in einem Modell? Hier ist eine oft wiederholte Geschichte über den berühmten Physiker Freeman Dyson, der von dem noch berühmteren Enrico Fermi zu diesem Thema belehrt wurde …

Im Frühjahr 1953 hatten wir nach heroischen Anstrengungen theoretische Graphen der Meson-Proton-Streuung gezeichnet. Wir beobachteten freudig, dass unsere berechneten Zahlen ziemlich gut mit den gemessenen Zahlen von Fermi übereinstimmten. Also machte ich einen Termin aus, um mich mit Fermi zu treffen und ihm unsere Ergebnisse zu zeigen. Stolz fuhr ich mit dem Greyhound-Bus von Ithaca nach Chicago, um Fermi ein Paket mit unseren theoretischen Graphen zu zeigen.

Als ich in Fermis Büro ankam, überreichte ich Fermi die Graphen, aber er warf kaum einen Blick auf sie. Er lud mich ein, Platz zu nehmen, und fragte mich freundlich nach der Gesundheit meiner Frau und unseres neugeborenen kleinen Sohnes, der jetzt fünfzig Jahre alt geworden war. Dann verkündete er sein Urteil mit ruhiger, gleichmäßiger Stimme. „Es gibt zwei Wege, Berechnungen in der theoretischen Physik durchzuführen“, sagte er. „Der eine Weg, und das ist der Weg, den ich bevorzuge, besteht darin, ein klares physikalisches Bild von dem Prozess zu haben, den man berechnet. Der andere Weg ist, einen präzisen und in sich konsistenten mathematischen Formalismus zu haben. Beides hat man nicht.“

Ich war etwas verblüfft, wagte es aber ihn zu fragen, warum er die pseudoskalare Mesontheorie nicht als einen in sich konsistenten mathematischen Formalismus ansah. Er antwortete: „Die Quanten-Elektrodynamik ist eine gute Theorie, weil die Kräfte schwach sind, und wenn der Formalismus mehrdeutig ist, haben wir ein klares physikalisches Bild, das uns leitet. Bei der pseudoskalaren Mesonentheorie gibt es kein physikalisches Bild, und die Kräfte sind so stark, dass nichts konvergiert. Um Ihre berechneten Ergebnisse zu erreichen, mussten Sie willkürliche Abschneideverfahren einführen, die weder auf solider Physik noch auf solider Mathematik beruhen.“

In meiner Verzweiflung fragte ich Fermi, ob er nicht beeindruckt sei von der Übereinstimmung zwischen unseren berechneten Zahlen und seinen gemessenen Zahlen. Er antwortete: „Wie viele willkürliche Parameter haben Sie für Ihre Berechnungen verwendet?“ Ich dachte einen Moment über unsere Abschneideverfahren nach und sagte: „Vier.“ Er sagte: „Ich erinnere mich, dass mein Freund John von Neumann zu sagen pflegte: Mit vier Parametern kann ich einen Elefanten einpassen, und mit fünf kann ich ihn mit dem Rüssel wackeln lassen.“ Damit war das Gespräch beendet. Ich bedankte mich bei Fermi für seine Zeit und Mühe, und nahm traurig den nächsten Bus zurück nach Ithaca, um den Studenten die schlechte Nachricht zu überbringen.

● Das Klima ist wohl das komplexeste System, das der Mensch zu modellieren versucht hat. Es hat nicht weniger als sechs große Subsysteme – den Ozean, die Atmosphäre, die Lithosphäre, die Cryosphäre, die Biosphäre und die Elektrosphäre. Keines dieser Subsysteme ist für sich genommen gut verstanden, und wir haben nur punktuelle, lückenhafte, grobe Messungen von jedem einzelnen. Jedes von ihnen hat seine eigenen internen Zyklen, Mechanismen, Phänomene, Resonanzen und Rückkopplungen. Jedes der Subsysteme interagiert mit jedem der anderen. Es gibt wichtige Phänomene, die auf allen Zeitskalen von Nanosekunden bis zu Millionen von Jahren und auf allen räumlichen Skalen von Nanometern bis zum gesamten Planeten auftreten. Schließlich gibt es sowohl interne als auch externe Einflüsse von unbekanntem Ausmaß und Wirkung. Wie wirkt sich zum Beispiel der Sonnenwind auf die Biosphäre aus? Nicht nur das, wir sind erst seit ein paar Jahrzehnten an dem Projekt dran. Unsere Modelle sind … nun ja … um großzügig zu sein, würde ich sie als Bastelvorlagen für die Komplexität der realen Welt bezeichnen.

Viele Läufe von Klimamodellen enden auf dem Fußboden des Schneideraums, weil sie nicht mit den Überzeugungen, Auffassungen, falschen Ideen und Missverständnissen des besagten Programmierers übereinstimmen. Sie zeigen uns nur die Ergebnisse der Modellläufe, mit denen sie einverstanden sind, nicht aber die Ergebnisse der Läufe, bei denen das Modell aus den Fugen geraten ist. Hier sind zweitausend Läufe von 414 Versionen eines Modells, das zuerst eine Kontroll- und dann eine Doppel-CO2-Simulation durchführt. Man erkennt, dass viele der Ergebnisse weit aus dem Rahmen fallen:

Aus all diesen Überlegungen folgt, dass jeder, der glaubt, dass die Klimamodelle etwas „beweisen“ oder „feststellen“ oder „verifizieren“ können, was vor fünfhundert Jahren passiert ist oder in hundert Jahren passieren wird, in einem Narrenparadies lebt. Diese Modelle sind dieser Aufgabe in keiner Weise gewachsen. Sie mögen uns Einsichten bieten oder uns dazu bringen, neue Ideen in Betracht zu ziehen, aber sie können nur Dinge in der Modellwelt „beweisen“, nicht aber in der realen Welt.

Ich möchte klarstellen, dass ich selbst Dutzende von Modellen geschrieben habe und nicht gegen Modelle bin. Ich habe sie mein ganzes Leben lang geschrieben und benutzt. Allerdings gibt es diese Modelle, und dann gibt es jene Modelle. Einige Modelle wurden getestet und einer umfangreichen V&V unterzogen, und ihre Ergebnisse wurden mit der realen Welt verglichen und als sehr genau befunden. Also benutzen wir sie, um interplanetare Sonden zu navigieren und neue Flugzeug-Tragflächen und ähnliches zu entwerfen.

Klimamodelle gehören leider nicht zu dieser Klasse von Modellen. Verdammt, wenn sie es wären, bräuchten wir nur eines von ihnen, anstatt der Dutzenden, die heute existieren und die uns alle unterschiedliche Antworten geben … was zu der ultimativen Hybris der Modellierer führt, der Idee, dass die Mittelung dieser Dutzenden von Modellen das „Rauschen“ beseitigt und nur solide Ergebnisse zurücklässt.

Schließlich könnte ich als lebenslanger Computerprogrammierer der Behauptung „Alle Modelle sind falsch, aber einige sind nützlich“ nicht mehr widersprechen. Nehmen wir beispielsweise die CFD-Modelle, die die Boeing-Ingenieure verwenden, um die Tragflächen von Jumbo-Jets zu entwerfen oder die Modelle, die unsere Aufzüge steuern. Will mir jemand ernsthaft weismachen, dass diese Modelle falsch sind? Wer das wirklich glaubt, würde nie wieder fliegen oder in einen Aufzug steigen. Sicher, sie sind keine exakten Reproduktionen der Realität, das ist es, was „Modell“ bedeutet … aber sie sind richtig genug, um sich in Situationen, in denen es um Leben und Tod geht, auf sie verlassen zu können.

Lassen Sie mich diese Frage klar formulieren. Während Modelle, die richtig sind, absolut nützlich sind, ist es sicherlich auch möglich, dass ein Modell, das falsch ist, nützlich ist.

Aber damit ein Modell, das falsch ist, nützlich ist, müssen wir unbedingt verstehen, WARUM es falsch ist. Sobald wir wissen, wo es falsch gelaufen ist, können wir den Fehler beheben. Aber bei den komplexen iterativen Klimamodellen, die Dutzende von Parametern benötigen, bei denen die Ausgabe eines Zyklus‘ als Eingabe für den nächsten Zyklus verwendet wird und bei denen ein hundertjähriger Lauf mit einem halbstündigen Zeitschritt 1,75 Millionen Schritte umfasst, ist es fast unmöglich zu bestimmen, wo ein Klimamodell vom Weg abgekommen ist. War es ein Fehler in dem Parameter, der die Eistemperatur in 10.000 Fuß Höhe angibt? War es ein Fehler in dem Parameter, der die Bildung von Schmelztümpeln auf dem Meereis nur auf bestimmte Monate beschränkt? Es gibt keine Möglichkeit, das festzustellen, also gibt es auch keine Möglichkeit, aus unseren Fehlern zu lernen.

Als nächstes werden alle diese Modelle „getrimmt“, um den vergangenen langsamen Erwärmungstrend darzustellen. Und im Allgemeinen machen sie das gut … weil die verschiedenen Parameter angepasst und das Modell im Laufe der Zeit verändert wurde, bis sie das taten. Es ist also keine Überraschung, dass sie diesen Job gut machen können … zumindest in den Teilen der Vergangenheit, auf die sie getrimmt worden waren, um sie zu reproduzieren.

Aber dann ziehen die Modellierer die modellierten „anthropogenen Antriebe“ wie CO2 heraus und verkünden stolz, dass – da das Modell die vergangene allmähliche Erwärmung nicht mehr reproduzieren kann – dies beweist, dass die anthropogenen Antriebe die Ursache der Erwärmung sind … Ich nehme an, dass das Problem mit dieser Behauptung klar wird.

Hinzu kommt, dass die Gittergröße der Computermodelle weit größer ist als wichtige Klimaphänomene wie Gewitter, Staubteufel und Tornados. Wenn das Klimamodell falsch ist, liegt das daran, dass es diese Phänomene nicht enthält? Ich sage: ja … die Klima-Computermodellierer sagen nichts.

Wir wissen ja nicht einmal, ob die Navier-Stokes-Gleichungen der Strömungsdynamik, wie sie in den Klimamodellen verwendet werden, zur richtigen Antwort konvergieren, und soweit ich das beurteilen kann, gibt es keine Möglichkeit, das zu bestimmen.

Um den Kreis zu schließen, lassen Sie mich zu meinem Ausgangspunkt zurückkehren – ein Computermodell ist nichts anderes als meine Ideen, die verfestigt wurden. Das war’s. Das ist alles.

Wenn ich also denke, dass CO2 der geheime Steuerknopf für die globale Temperatur ist, dann wird die Ausgabe eines jeden von mir erstellten Modells diese Annahme widerspiegeln und verifizieren.

Wenn ich aber denke (wie ich es tue), dass die Temperatur durch sich entwickelnde Phänomene in engen Grenzen gehalten wird, dann wird die Ausgabe meines neuen Modells diese Annahme widerspiegeln und verifizieren.

Nun, würden die Ausgaben eines dieser sehr unterschiedlichen Modelle „Beweise“ für die reale Welt sein?

Nicht auf diesem Planeten.

Und das ist die kurze Liste der Dinge, die mit Computermodellen falsch sind … es gibt viel mehr, aber wie Pierre sagte, „die Ränder dieser Seite sind zu klein, um sie zu enthalten“ …

Link: https://wattsupwiththat.com/2021/03/12/there-are-climate-models-and-there-are-climate-models/

Übersetzt von Chris Frey EIKE