Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE

 




Abkühlung oder Erwärmung – aber immer das gleiche Rezept dagegen

Leonard Nimoy (Spock) präsentierte diese Story in Videos wie diesem:

Während ich an der Universität von Wisconsin an meinem BS und MS mit meiner Masterarbeit zum Thema „Explosive Redevelopment In East Coast Cyclones“ arbeitete, gaben die Wissenschaftler der Verbrennung fossiler Brennstoffe und dem vom Menschen eingeführten Feinstaub die Schuld an der Abkühlung, der wie ein „menschlicher Vulkan“ wirkte und genau wie diese die Sonnenstrahlen reflektierten und Abkühlung bringen würde, was die natürlichen Kräfte verstärkte.

Die Lösung sah man in der Beseitigung der Schadstoffe und schon damals in der Suche nach Alternativen zu fossilen Brennstoffen. Der zweite Zielfokus während des arabischen Ölembargos von 1973 führte zu Engpässen und Preissteigerungen, aber erneuerbare Energien waren damals noch nicht reif für die Grundlast und, wie das Texas-Debakel zeigte, sind auch heute noch nicht zuverlässig für die Bereitstellung der Grundlast und werden zu steigenden Energiepreisen und lebensbedrohlichen Stromausfällen führen.

Dann änderte sich die Phase des Pazifiks

Aber nach der großen pazifischen Klimaverschiebung Ende der 1970er Jahre kam es zu einer Erwärmung, da stärkere, länger anhaltende El Ninos, die eine globale Erwärmung hervorrufen, plötzlich gegenüber den La Ninas bevorzugt wurden, deren Dominanz zuvor zu der Abkühlung geführt hatte.

Ab 1988 reifte in so Manchem der Gedanke, dass diese neue Phase die goldene Gelegenheit sein könnte, die Kontrolle über unsere Energiepolitik zu übernehmen und die Medienberichterstattung umzulenken.

Showtime

1988 orchestrierten die Demokraten eine Anhörung, die vom damaligen Senator Al Gore inszeniert wurde und bei der der Senator Tim Wirth (später Leiter der UN-Stiftung – siehe Chris Horners Red Hot Lies) den NASA-Wissenschaftler James Hansen vorstellte, der seinen Eiszeit-Hut gegen einen eintauschte, der für die von Menschen verursachte globale Erwärmung warb.

Die NYT berichtete:

Senator Timothy E. Wirth, der Demokrat aus Colorado, der heute die Anhörung leitete, sagte:

So wie ich es lese, sind die wissenschaftlichen Beweise zwingend: Das globale Klima verändert sich, während die Erdatmosphäre wärmer wird. Jetzt muss der Kongress damit beginnen, darüber nachzudenken, wie wir diesen Erwärmungstrend verlangsamen oder aufhalten können und wie wir mit den Veränderungen, die vielleicht schon unvermeidlich sind, umgehen können.“

New York Times 1988

Wie der inszenierte Link zeigt, hatte Tim noch andere Gründe, diesen Weg zu gehen:

„Wir müssen das Problem der globalen Erwärmung angehen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, in Bezug auf die Wirtschafts- und Umweltpolitik.“

Timothy Wirth zitiert in Science Under Siege von Michael Fumento, 1993

Die Politiker und Medien begannen bei diesem Treffen ihren 30 Jahre andauernden Angriff auf fossile Brennstoffe und unsere Lebensweise. Genährt durch eine plötzliche Flut von Fördergeldern, sprangen viele Leute aus den verschiedensten Disziplinen als selbsternannte Klimatologen, Umweltwissenschaftler und Modellierer an Bord.

An beiden Enden des Warm- und Kaltzyklus war der Feind also derselbe – Menschen und fossile Brennstoffe.

[Hervorhebung vom Übersetzer]


Beachten Sie die Abflachung seit den späten 1990er Jahren. Ich vermute, wenn eine Abkühlung eintritt, weil sich die Ozeane in der zweiten Schwächephase der Sonne nacheinander abkühlen, werden die Führer und Medien einen Weg finden, die Leichtgläubigen davon zu überzeugen, dass es ihre eigene Schuld war.

Siehe hier eine von mehreren Studien zum Thema neues Grand Solar Minimum, das gerade begonnen haben könnte.

Link: http://icecap.us/index.php/go/new-and-cool/man_attribution_to_natural_change_but_always_the_same_remedy/

Übersetzt von Chris Frey EIKE

 




Wolken und globale Erwärmung

Willis schrieb den Beitrag als Antwort auf eine Studie von Paulo Ceppi und Kollegen über Wolkenrückkopplung in globalen Klimamodellen (Ceppi, Brient, Zelinka, & Hartmann, 2017). Wir werden diese Studie als Ceppi17 bezeichnen. Ich habe mir in den letzten Tagen die Zeit genommen, Willis‘ Beitrag und Ceppis Studie zu verstehen und Folgendes herausgefunden; lassen Sie mich in den Kommentaren wissen, was Sie denken.

In Ceppi17, N = F + λΔT. N ist das Ungleichgewicht des Energieflusses an der Oberseite der Atmosphäre, F ist ein Forcing in W/m² aufgrund eines plötzlichen Anstiegs der Treibhausgase. Die hypothetische Situation, die in dem Papier verwendet wurde, war eine sofortige Vervierfachung des CO2, bezogen auf vorindustrielle Bedingungen. Dann berechneten sie ein hypothetisches F. „λ“ ist die Wolkenrückkopplung und ΔT ist die gesamte globale Temperaturänderung, die erforderlich ist, um das Gleichgewicht wiederherzustellen, oder ein N von Null. Ihre Rückkopplungszahlen können aufgrund des unplausiblen Szenarios nicht mit Daten dupliziert werden. Hier sind zwei weitere Versionen der Gleichung als Referenz.

ΔT = (N-F)/ λ or λ = (N-F)/ ΔT

Was ist N? N ist ein Kräfteungleichgewicht zwischen eingehender (oder abwärts gerichteter) Strahlung und ausgehender Strahlung an der Obergrenze der Atmosphäre, die wir mit den CERES-Satelliten definieren werden. N ist positiv, wenn die abwärts gerichtete Kraft größer ist (Erwärmung) und negativ, wenn die abgehende Strahlung größer ist (Abkühlung). Die Erde befindet sich im Gleichgewicht, wenn die Rückkopplung, N und F gleich Null sind. Eine positive Rückkopplung (λ) führt zur Erwärmung und zu einem größeren Ungleichgewicht (N). Je höher die Rückkopplung ist, desto größer ist die Erwärmung. Ist die Rückkopplung negativ, kommt es zu einer Abkühlung oder langsameren Erwärmung.

„CRE“ ist der Wolken-Strahlungseffekt oder die Differenz zwischen dem Strahlungsfluss bei klarem Himmel und dem gesamten Himmel am Satelliten (TOA). Wolken reflektieren die eintreffende kurzwellige Sonnenstrahlung (SW), so dass bei Vorhandensein von Wolken mehr SW zum Satelliten aufsteigt, im Durchschnitt beträgt der Anstieg etwa -45 W/m². Dies ist eine negative Zahl, weil es bedeutet, dass mehr Strahlung die Erde verlässt, ein kühlender Effekt. Wolken blockieren auch einen Teil der von der Erdoberfläche ausgehenden langwelligen Infrarotstrahlung (LW), im Durchschnitt etwa 27 W/m², eine positive Zahl, da es sich um Energie handelt, die von der Erde zurückgehalten wird oder weniger Energie, die den Satelliten erreicht, ein wärmender Einfluss. Die Differenz beträgt -18 W/m², was bedeutet, dass die Wolken insgesamt die Erde kühlen.

Man würde denken, dass sich die Erde umso schneller abkühlt, je mehr Wolken vorhanden sind, aber so einfach ist es nicht. Einige Wolken, insbesondere niedrige Wolken und Kumuluswolken, neigen dazu, tagsüber mehr Energie zu reflektieren als sie nachts einfangen. Hoch liegende Wolken, wie Zirruswolken, neigen dazu, solare SW-Energie durchzulassen und fangen viel aufsteigende LW-Energie ein, daher haben sie einen wärmenden Effekt. Der Wolkentyp spielt also eine Rolle.

Abbildung 1. CRE in W/m². Negative Werte (schwarz, grau und blau) bedeuten Abkühlung. Daten von https://ceres.larc.nasa.gov/data/

Abbildung 1 ist eine Karte des durchschnittlichen TOA (Obergrenze der Atmosphäre) Wolken-Strahlungs-Ungleichgewichts (CRE) bei den CERES-Satelliten. Die blauen Farben bedeuten ein negatives Energie-Ungleichgewicht oder eine Abkühlung der CRE. Die Karte ist ein Durchschnitt der monatlichen CERES-Daten von 2001 bis 2019. Die abgebildete CERES-Variable ist „toa_cre_net_mon“ oder der „Top of The Atmosphere Cloud Radiative Effects Net Flux“. Der Effekt ist überall negativ (oder kühlend), außer über Wüsten und den polaren Landregionen. Dies sind Gebiete, in denen die Wolken dazu neigen, die Infrarotstrahlung der Oberfläche und der unteren Atmosphäre einzufangen und gleichzeitig die kurzwellige Sonnenstrahlung zur Oberfläche durchzulassen.

Der Punkt, an dem sich die wärmenden und kühlenden Effekte der Wolken in der Farbskala von Abbildung 1 treffen, ist dort, wo das hellste Blau auf das hellste Gelb trifft. Genau bei Null ist der Punkt, an dem die eingehende Energie gleich der ausgehenden Energie ist, in Bezug auf die Wolken. Mit Ausnahme der Sahara, des Nahen Ostens, Westchinas, Teilen Südostasiens, Indonesiens, Nordaustraliens, des Südwestens der USA und Mexikos kühlen die Wolken also die Erde ab. Die dunkleren Gebiete in Abbildung 1 haben mehr anhaltende Wolken.

Abbildung 2 hat hellere Farben für Wolken und dunklere Farben für klaren Himmel. So ist der hellere Streifen in der Nähe des Äquators, sowohl im Pazifik als auch im Atlantik, in Abbildung 2 weiß, im Gegensatz zu Abbildung 1. Dies ist die intertropische Konvergenzzone (ITCZ), in der die Passatwinde der nördlichen und südlichen Hemisphäre zusammenlaufen. Hier ist die Verdunstung von Meerwasser am größten. Da Wasserdampf eine geringere Dichte als trockene Luft hat, handelt es sich um eine Zone mit schnell aufsteigender feuchter Luft und häufigem Regen und Gewitter. Sie ist fast immer bewölkt. Die ITCZ folgt dem Zenitpunkt der Sonne und die kühlende Wirkung der Wolken in dieser Zone ist sehr hoch.

Die maximale Wolkenabkühlung bzw. die negativsten CRE-Werte befinden sich in den kleinen weißen Flecken in der Mitte der schwarzen Flecken vor dem südlichen Peru und im südöstlichen China, nördlich von Vietnam. Diese CRE-Werte sind sehr negativ (extrem kühlend) und liegen außerhalb der Skala. Abbildung 1 korreliert einigermaßen gut mit dem Wolkenanteil in Abbildung 2 bzw. den helleren Farben in Abbildung 3, mit Ausnahme der Polkappen.

Abbildung 2. CERES-Wolkenanteil in Prozent. Dunklere Farben bedeuten weniger Bewölkung, hellere Farben bedeuten mehr Wolken.

Abbildung 3 ist die blaue NASA-Murmel mit Eis und Wolken in einer Mercator-Projektion dargestellt. Beachten Sie die Ähnlichkeit mit Abbildung 2, außer an den Polen.

Abbildung 3. Darstellung der NASA mit Eis und Wolken.

Abbildung 4 zeigt die gleichen Daten, die CERES EBAF 4.1-Variable „toa_cre_net_mon“, als jährliche globale Mittelwerte. EBAF bedeutet „energy balanced and filled“. Wie Norman Loeb und Kollegen (NASA Langley Research Center) erklären, ist das Energie-Ungleichgewicht der Erde so winzig, zwischen 0,5 und 1 W/m², dass es nur 0,15% der gesamten ein- und ausgehenden Strahlung ausmacht. Die Zahl, nach der wir suchen, ist also die Differenz zwischen zwei großen Zahlen und liegt kaum über der Unsicherheit der Satellitenmessungen.

Die Kalibrierungsunsicherheit bei der CERES SW-Messung beträgt 1 % und 0,75 % für die LW. Somit ist die ausgehende LW nur auf ±2 W/m² bekannt. Es gibt viele andere Fehlerquellen, und wie Loeb, et al. erklären, beträgt das Netto-Ungleichgewicht aus den Standard-CERES-Datenprodukten nur ~4,3 W/m², nicht viel größer als der erwartete Fehler. Aufgrund der groben Auflösung des CERES-Instruments gibt es viele fehlende Gitterzellen in dem Eins-zu-Eins-Gitter für Breiten- und Längengrade, das zur Erstellung der Karten in den Abbildungen 1 und 2 verwendet wird. Um diese Probleme zu umgehen, verwenden Loeb und Kollegen einen komplexen Algorithmus, um fehlende Werte aufzufüllen und die SW- und LW-TOA-Flüsse innerhalb ihrer Unsicherheitsbereiche anzupassen, um Inkonsistenzen zwischen dem globalen Netto-TOA-Energiefluss und der Wärmespeicherung im System Erde-Atmosphäre zu beseitigen (Loeb, et al., 2018).

Abbildung 4. Der flächengewichtete durchschnittliche monatliche TOA CRE (Cloud-Radiative Effect) des CERES von 2001 bis 2019. Daten von der NASA.

Der CRE- oder der Wolkenstrahlungs-Ungleichgewichtswert variiert stark von Jahr zu Jahr, der Durchschnittswert über die 19 Jahre beträgt -19,1 W/m², das liegt sehr nahe am Wert von Ceppi et al. von -18 W/m² (Ceppi, Brient, Zelinka, & Hartmann, 2017). Dies deutet darauf hin, dass die Gesamtwolkenbedeckung der Hauptfaktor ist, sie ist unten in Abbildung 5 dargestellt. Wie zu erwarten, nimmt der Kühleffekt ab, wenn der Wolkenanteil sinkt, und die CRE wird weniger negativ. Wenn der Wolkenanteil steigt, nimmt der Kühleffekt zu.

Abbildung 5. CERES Durchschnittlicher monatlicher Wolkenanteil, Variable cldarea_total_daynight_mon.

In Ceppi17 impliziert ein positiverer Rückkopplungsparameter (λ) eine Erwärmung. Da sie mit Modellen arbeiten, können sie λ berechnen, indem sie den berechneten Antrieb, der erforderlich ist, um das ursprüngliche erzwungene Energieungleichgewicht aufgrund von Wolken auszugleichen, durch die resultierende Temperaturänderung (ΔT) teilen. Abbildung 6 zeigt die globale Rückkopplung von Ceppi17 aufgrund von Wolken.

Abbildung 6. Der globale Wolken-Rückkopplungs-Parameter von Ceppi17, die Einheiten sind W/m²/K.

Die Einheiten sind W/m²/K, wobei K (Kelvin) Grad C der Erwärmung oder Abkühlung aufgrund von Wolken über die Zeit, die zum Erreichen des Gleichgewichts benötigt wird, ist. Abbildung 6 ist die Wolkenrückkopplung und nicht das Gleiche wie CRE, aber laut Ceppi17 ist die Wolkenrückkopplung tendenziell positiv und es deutet darauf hin, dass die Wolken langfristig die Erde erwärmen und nicht abkühlen. Dies brachte Willis dazu, das ganze Papier in Frage zu stellen. Er weist darauf hin, dass Abbildung 6 eine Darstellung der Modellausgabe ist und Abbildung 1 Daten sind. Die Daten in Abbildung 1 sind massiert und sie sind nahe am Rande der Unsicherheit, aber es sind Daten.

Ceppi17 hat Glück, dass wir ihre Rückkopplungsparameter nicht aus realen Daten ableiten können, denn wenn wir das könnten, würde die Karte vermutlich ganz anders aussehen als in Abbildung 6. Einer der Orte, an dem die Wolken die Oberfläche am meisten abkühlen, liegt zum Beispiel vor der Küste Perus, wie wird daraus ein Gebiet mit einer positiven Rückkopplung? Der andere ist der Südosten Chinas, OK, dort wird es ein wenig blau, aber nichts von dem, was uns die tatsächlichen Daten zeigen. Die sehr bewölkte ITCZ ist ein sehr heißes Gebiet in Abbildung 6, wie machen sie das?

Ich stimme mit Willis überein, diese ganze Idee, dass Wolken eine positive (wärmende) Rückkopplung sind, macht keinen Sinn. Das Schlimmste daran ist, dass fast jedes Modell eine positive Wolkenrückkopplung verwendet. Die Wolkenrückkopplung ist die größte Komponente der modellberechneten ECS (die Temperatursensitivität aufgrund einer Verdopplung der CO2-Konzentration), welche das IPCC bevorzugt. Wie wir wissen, können Wolken nicht modelliert werden, sondern müssen parametrisiert werden (der schicke Modellierungsbegriff für „angenommen“). Wie Steve Koonin in seinem demnächst erscheinenden Buch „Unsettled“ berichtet, haben Wissenschaftler des Max-Planck-Instituts ihr Klimamodell durch Anpassung der Wolkenrückkopplungen auf einen ECS von etwa 3°C eingestellt. Er fügt hinzu: „Talk about cooking the books.“ (Koonin, 2021, S. 93). [Etwa: Sprecht über das Frisieren der Bücher!]

Ceppi17 berichtet, dass die Wolkenrückkopplung „bei weitem die größte Quelle für die Streuung zwischen den Modellen bei der Gleichgewichts-Klimasensitivität (ECS) ist.“ Sie weisen auch darauf hin, dass die Wolkenrückkopplung stark mit der aus den Modellen abgeleiteten ECS korreliert ist und liefern uns die Daten, die in Abbildung 7 dargestellt sind.

Abbildung 7. Modellierte Wolkenrückkopplung (λ) aufgetragen gegen modellgeleitetes ECS. Daten aus (Ceppi, Brient, Zelinka, & Hartmann, 2017).

Oops! Wolken können nicht modelliert werden, Modelle gehen davon aus, dass ihre Wolken einen Erwärmungseffekt haben, CERES sagt, dass Wolken einen Nettokühleffekt haben, einen großen Nettokühleffekt von -18 W/m². Die Modelle sagen, dass der gesamte menschliche Einfluss auf das Klima seit Beginn des Industriezeitalters 2,3 (1,1 bis 3,3) W/m² beträgt (IPCC, 2013, S. 661), was den Wolkeneinfluss von -18 W/m² relativiert. Beachten Sie, dass die Variabilität in Abbildung 4 größer ist als 2,3 W/m². Wie viel der ECS von Modellen ist auf ihre Annahme zurückzuführen, dass Wolken eine Nettoerwärmung sind? Wie viel ist auf ihre Annahme zurückzuführen, dass ECS 3 W/m² beträgt? So viele Fragen.

Willis Eschenbach kindly reviewed this post for me and provided valuable input.

References

Ceppi, P., Brient, F., Zelinka, M., & Hartmann, D. (2017, July). Cloud feedback mechanisms and their representation in global climate models. WIRES Climate Change, 8(4). Retrieved from https://onlinelibrary.wiley.com/doi/full/10.1002/wcc.465

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Loeb, N. G., Doelling, D., Wang, H., Su, W., Nguyen, C., Corbett, J., & Liang, L. (2018). Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product. Journal of Climate, 31(2). Retrieved from https://journals.ametsoc.org/view/journals/clim/31/2/jcli-d-17-0208.1.xml

Link: https://andymaypetrophysicist.com/2021/04/28/clouds-and-global-warming/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 6

Historische Frost- und Schnee-Ereignisse im Mittleren Westen und dem Osten der USA

27. April: Auf den tödlichen Februar-Frost in Nordamerika folgte Ende April ein brutaler arktischer Sturm. Das Ergebnis waren Schäden in Millionenhöhe in den wichtigsten Anbauregionen der USA, nicht zuletzt in den Weinbergen des Landes.

Link: https://electroverse.net/midwest-and-eastern-vineyards-hit-by-historic-snow-and-freeze-events/

——————————

Eisiger polarer Griff in Neuseeland – Eisausdehnung um die Antarktis nach wie vor über dem Mittel der Jahre 1979 bis 1990

28. April: Der Winter hält früh Einzug in Neuseeland, vor allem auf der Südinsel, wo die Temperaturen weit unter dem Durchschnitt liegen und sogar ein wenig Schnee außerhalb der Saison gefallen ist.

Ein mitternächtlicher Schneesturm bescherte dem Porters Alpine Resort in der Nähe von Castle Hill am Dienstagmorgen eine ordentliche Portion Schnee, während Teile des Landesinneren von Canterbury und Otago bei Temperaturen um den Gefrierpunkt erwachten, die bis auf -3,2 Grad sanken.

Am Mittwochmorgen sank die Temperatur noch weiter, da eine antarktische Luftmasse das Regiment übernahm.

Link: https://electroverse.net/polar-chill-grips-new-zealand-antarctic-sea-ice-extent-average/

——————————

Historischer Frühjahrs-Frost schädigt die Getreide-Ernte in der EU und den USA

29. April: Das sich verschärfende Große Sonnenminimum bereitet Sorgen um die Versorgung mit Getreide und treibt die aktuelle Preisspirale an. An den globalen Getreidemärkten wurden beträchtliche Preissteigerungen verzeichnet: Die Maispreise in Chicago stiegen in der vergangenen Woche um 18 Prozent und diejenigen für britischen Futterweizen legten in den letzten 12 Tagen um 17 Prozent zu.

Link: https://electroverse.net/historic-spring-freeze-impacts-eu-and-us-grain-crops/

——————————

Rekord-Frühjahrsschneefälle im zentralen Russland – außerordentlich kalter April auf der Krim

30.April: Nach einem historisch kalten und rekordverdächtig schneereichen Winter haben Teile Russlands – namentlich Sibirien – endlich ein wenig Frühlingswärme erlebt; oder besser gesagt, sie hatten es, bevor in dieser Woche die Arktis zurückkehrte.

„Nach den letzten warmen Tagen gab es einen Hauch von Kälte“, wie hmn.ru es ausdrückt – das erscheint aber untertrieben, da die Übersetzung durcheinandergeraten zu sein scheint. Die letzte Aprilwoche in und um die Region Moskau war nicht nur kühl, sondern es herrschten Bedingungen wie im tiefsten Winter, mit den dazu passenden beträchtlichen Schneemengen.

Schnee in den Regionen Moskau und Tula, Russland: gestern fiel bis zu 20 cm Schnee (Plavsk 20 cm, Kasira 17 cm) und bis zu 5 cm Schnee südlich von Moskau (Flughafen Domodevo)

Extrem kalter April auf der Halbinsel Krim

Auch auf der nahe gelegenen Halbinsel Krim herrschte sehr kaltes Wetter

30.April: Während des gesamten Monats April hat die Temperatur in Simferopol nie die 20°C-Marke überschritten – ein historischer Vorgang. Und das vergangene Jahr war „sehr ähnlich“, heißt es in einem anderen hmn.ru-Artikel. Auch 2020 lagen die Thermometerwerte häufiger unter als über der Klimanorm – ein weiteres Beispiel für die „Verlängerung des Winters“, wie es in Zeiten geringer Sonnenaktivität zu erwarten ist.

Link: https://electroverse.net/central-russia-sees-record-spring-snow-as-crimea-suffers-exceptionally-cold-april/

——————————

Teile des südlichen Afrikas von frühem Schneefall betroffen, mit starkem Schneegestöber auf dem Weg nach SA

1. Mai: Wie vorhergesagt, war die abgeschottete südafrikanische Nation Lesotho am Freitag, den 30. April, von „riesigen Flächen“ mit Schnee bedeckt, nachdem das Bergkönigreich „so etwas wie einen Schneesturm“ erlebt hatte, heißt es auf thesouthafrican.com.

AfriSki mountain resort in Lesotho begrüßte seinen ersten größeren Schneefall für den Winter“, berichtet The South African in einem aktuellen YouTube-Video (hier verlinkt); allerdings ist dies eine etwas ungenaue Aussage, da der „Winter“ in S. Hanf offiziell erst am 21. Juni beginnt. Darüber hinaus sind diese „Zentimeter“ auch einige der frühesten in den Aufzeichnungen, die im April gefallen sind – eine Tatsache, die in dem Bericht nicht erwähnt wird.

Link: https://electroverse.net/southern-africa-hit-by-early-season-snow/ [mit vielen Bildern und Videos!]

——————————

Unzeitgemäßer Schneefall“ in den Bergen Süd-Koreas – sogar die NOAA-Daten enthüllen signifikante Abkühlung

2.Mai: Ungewöhnliche Schneefälle bedeckten die Bergregionen der Gangwon-Provinz östlich von Seoul am letzten Tag des Aprils, einer Zeit, die bei den Südkoreanern normalerweise für ihre sommerliche Wärme bekannt ist, berichtet yna.co.kr.

Am späten Donnerstag, den 29. April, verwandelte sich starker Regen in schweren Schnee in den Gangwon-Bergen, die bis zu 1.300 m über den Meeresspiegel ansteigen, und am frühen Freitagmorgen hatten sich mehr als 15 cm der globalen Erwärmung auf und um den Gipfel des Mount Seorak angesammelt, so die Beamten des dortigen Nationalparks.

Link: https://electroverse.net/snowy-south-korea-as-noaa-reveal-cooling/

——————————

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE




Oh wie ist Statistik schwer, wenn nicht der einfache Inzidenzwert wär …

Mit einfachem Dreisatz kommt man doch zu einem Ergebnis

Wie wurden die 0,36 % „mit SARS-CoV-2“ berechnet?

Bild 1 Coronazahlen [Link]

Man nimmt die „positiv getestet“, zieht die „davon genesen“ und die „Todesfälle“ ab und erhält übrig gebliebene 303.163 „positive Fälle“ als 0,36 % von 83.166.711 Einwohnern mit SARS-CoV-2
Leider hat diese Rechnung einen Haken: Sie ist grottenfalsch und somit auch das Ergebnis.

Warum das so ist, sei anbei gezeigt.

Versuch einer statistischen Abschätzung

Bild 2 Anzahl durchgeführter Tests für das Coronavirus (COVID-19) in Deutschland nach Kalenderwoche [Link]

In KW15 wurden 1.295.635 PCR-Tests durchgeführt. Davon waren 160.735 (12,41 %) positiv.
Daraus errechnet sich ein Deutschland-Inzidenzwert von:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000
Inzidenzwert 193,66 = (160.735 / 83.000.000) x 100.000
Dieser Inzidenzwert „behauptet“, dass 0,194 % der Einwohner von Deutschland innerhalb der KW 15 zusätzlich Corona-Positiv geworden wären.

Betrachtet man die tabellierten PCR-Tests nun als „Stichprobe“, ergibt die Berechnung:
Mittelwert neu Infizierter = Anzahl neu Positiver / Anzahl Tests
MW: 12,41 % = 160.735 / 1.295.635
Diese „Stichprobe“ weist aus, dass der Mittelwert neu Positiver (in der Stichprobe) 12,4 % beträgt.
Weil der Stichprobenumfang extrem hoch ist, gilt das mit einem geringen Fehler von unter +-1 % auch für die Grundgesamtheit Deutschland.

Über diese „Stichprobe“ gerechnet, beträgt der wahre Inzidenzwert von Deutschland allerdings:
Inzidenzwert 12.410 = (10.300.300 / 83.000.000) x 100.000
und weicht damit schon etwas arg vom amtlich berechneten Wert 193,66 ab.

Nun lässt sich mit gutem Recht behaupten, dass die gemeldete Anzahl an PCR-Testungen keine Stichprobe wäre und vor allem nicht den wahren Testumfang spiegelt.
Deshalb nehmen wir einfach den doppelten Testumfang an (bei gleichbleibendem Positivergebnis). Dann beträgt die Anzahl neu Infizierter in der Stichprobe und damit wieder auch in der Grundgesamtheit immer noch 6,2 % und parallel der wahre Inzidenzwert 6.205. Beim dreifachen Testumfang sind es immer noch 4,13 % und parallel der wahre Inzidenzwert 4.137.

Unabhängig davon, wie hoch man den „wahren“ Stichprobenumfang annimmt, das Ergebnis bleibt immer meilenweit von den zwei anderen Werten (0,37 %; 193,66) entfernt und der wahre Inzidenzwert hat zudem durchgängig Größenordnungen, bei deren Nennung alle „Coronafachpersonen“ und politischen Entscheider sofort einen Herzkasper bekommen würden.

Welcher Wert stimmt nun

Für die Anzahl „Coronabefallenen“ haben wir nun drei Werte:
Insgesamt Positive in der Grundgesamtheit (Bild 1): 0,36 %
Neu Positive der KW15 (7-Tage Inzidenz): Inzidenzwert 193,66; beziehungsweise 0,194 % neu Positive
Neu Positive der KW15 statistisch abgeschätzt: Irgendwo zwischen 4,13 … 12,4 %

Welches Ergebnis stimmt nun? Kein Ergebnis von den dreien.
Bleibt die Frage: Welches ist am Wahrscheinlichsten?
Und da ist der Autor überzeugt: Es werden die statistisch abgeschätzten, irgendwo zwischen 4 … 12 % neu Positiven in der Grundgesamtheit Deutschland sein und die anderen beiden Angaben sind grottenfalsch, aber regelmäßig publiziert und vor allem maßnahmenrelevant.

Vielleicht erklärt dieses einfach ermittelte Ergebnis jedoch, warum die Lockdown-Maßnahmen kaum Wirkungen haben, die Inzidenzwerte trotzdem teils rasant steigen (aber auch wieder abnehmen) und selbst in mittelgroßen Städten niemand weiß, wo die Infektionen wirklich stattfinden, da das Geschehen so „diffus“ sei (nicht nur eine Aussage in der Lokalzeitung des Autors):

Bild 3 „Diffuses“ Corona-Infektionsgeschehen in Heilbronn. Gesundheitsamt Heilbronn, 07.03.2021: Allgemeinverfügung zur Eindämmung der weiteren Verbreitung des neuartigen Corona-Virus (SARS-CoV-2) im öffentlichen Raum, „Nächtliche Ausgangsbeschränkung

Der Inzidenzwert gibt innerhalb der gleichen Kommune linear die Anzahl Testungen an

Ein Inzidenzwert von 100 besagt, dass in einer Gemeinde mit 100.000 Einwohnern innerhalb von 7 Tagen 100 neue Positivtestungen, also +0,1 %, vorlagen.
Seine vollständige Berechnungsformel lautet:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000

Wird nun innerhalb der gleichen Kommune/Landkreis getestet und dafür der Inzidenzwert berechnet, ändert sich die Variable „Einwohnerzahl“ mit dem Multiplikator 100.00 zu einer gemeinsamen Konstanten und die Inzidenzformel reduziert sich auf eine Variable:
Inzidenzformel: Inzidenzwert = Anzahl Neuinfektionen
Bleibt die Anzahl neu Positiver in der Kommune gleich, wird aber vermehrt getestet, erhöht sich der Inzidenzwert alleine aufgrund und mit der Anzahl Testungen. Wird weniger getestet, verringert er sich entsprechend.
Man benötigt demnach weit mehr als Mut, zu behaupten, dass der Inzidenzwert bei der heutigen Teststrategie eine Aussage über die „Coronabelastung“ einer Gemeinde erlauben würde.

Er gibt wirklich nur an, dass aktuell x Positive neu „herausgetestet“ wurden und die Behörde diese Anzahl nachverfolgen sollen. Zwischen verschiedenen Kommunen werden damit auch nicht die „Coronabelastungen“ verglichen, sondern die „Arbeitsbelastungen“ der kontaktverfolgenden Behörden.
Mehr Aussage erlaubt die Formel nicht.
Anmerkung: In [Link] EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet,
wurde das Gleiche Ergebnis – der Inzidenzwert hängt vorwiegend von der Anzahl Testungen ab – über einen anderen Weg hergeleitet.

Der Inzidenzwert, ein My(nis)sterium

Und nun lese man, wer die wichtigen und einschneidenden Grenzwerte dafür festgesetzt hat. Bestimmt eine Gruppe unabhängiger Fachpersonen, oder doch nicht?
[Link] Spiegel 11.11.2020: Die fragwürdige Macht des Inzidenzwertes
… Das RKI sei an der Entscheidung für diesen konkreten Grenzwert nicht beteiligt gewesen, heißt es auf Anfrage des SPIEGEL. Eine Anfrage beim Bundesgesundheitsministerium ergibt, dass die Bundesregierung selbst die Inzidenzwerte festgelegt hat …

Macht nichts. Wichtig ist, dass die unsere über Lockdownmaßnahmen entscheidenden Politiker beratenden Fachpersonen wissen, was richtig ist.
Herr Lauterbach zum Beispiel weiß darüber:
Spiegel 11.11.2020: … (Herr Lauterbach:) „Wir können nur den Wert der Neuinfektionen in der Allgemeinbevölkerung beeinflussen und dadurch wiederum die Risikogruppen schützen.“ In den vergangenen Monaten habe man gelernt, dass der Inzidenzwert als epidemiologische Orientierung hilfreich und sinnvoll sei.
Denn wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab.
… Man habe mit dem Wert eine Größe, um das Infektionsgeschehen in Landkreisen oder Städten miteinander zu vergleichen

Dass das Vergleichen zwischen verschiedenen Kommunen mit dem Inzidenzwert nicht wirklich möglich ist, obwohl es Herr Lauterbach behauptet, wurde vorher gezeigt.
Aber auch sein: „wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab“, lässt sich bezüglich der Inzidenzzahl alleine schon mit dem folgenden Bild als anzweifelbar zeigen:

Bild 4 Stadt Nürnberg, Corona-Daten vom 01.01.2021 – 26.04.2021. Grafiken vom Autor erstellt. Quelle: RKI-Datensatz

In diesem Artikel wurde lediglich ergänzend zum vorhergehenden, EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet
eine weitere statistische Betrachtung vorgenommen.
Bei einer Gesamtbetrachtung kommen noch weitere, nicht weniger gravierende Ungereimtheiten dazu:
[Link] Achgut, 21.04.2021: Inzidenz-Zahlen: Regierungs-Magie und Wirklichkeit

Es bleibt weiterhin ein Rätsel, wie ein ganzes Land ihre vernichtenden Lockdownmaßnahmen immer noch einzig über einen solch mindestens extrem strittigen Wert entscheidet. Der Herdentrieb in Deutschland muss wirklich grenzenlos sein …

Ist nicht erst ein Inzidenzwert über 350 der wirkliche Startwert für Maßnahmen?

Immer wieder muss daran erinnert werden, dass der Inzidenzwert ausschließlich als Arbeitsschutzmaßnahme für Behörden gedacht war.

[Link] Correctiv schreibt dazu: … Überschreiten die neuen Fälle pro 100.000 Einwohner bestimmte Grenzwerte, ist das mit strengeren Corona-Schutzmaßnahmen verknüpft, wie genau das geregelt ist, kann in jedem Bundesland unterschiedlich sein. Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Darauf folgt ein Auszug von Frau Merkels typischem Geschwurbel mit einer Grammatik, an der man verzweifeln kann:
(Bild 5:) „Wir glauben, dass man das bei bis zu 50 akut Infizierten pro Tag – wenn man es über sieben Tage mittelt – und 100.000 Einwohner erreichen und leisten kann, und auf dieser Grundlage gab es da heute keine große Diskussion …
Sofern sich dieser Satz an der ursprünglichen, deutschen Sprache orientiert, sprach Frau Merkel davon, dass fünf mal fünf (da für 100.000 Einwohner), also 20 in den Behörden Kontakte verfolgende Personen, pro Tag 40 neu Positive „nachverfolgen“ können sollten. Und das zu einer Zeit, als man noch nicht eingearbeitetes Personal und außer einem Telefon dafür keine weitere Digitalisierung zur Verfügung hatte.

Bild 5 Auszug aus dem Transkript der Pressekonferenz mit Angela Merkel am 6. Mai 2020 zum Thema Inzidenzwert (Screenshot: CORRECTIV.Faktencheck)

Entweder hat Frau Merkel ihren Satz (und vielleicht auch das Problem) selbst nicht ganz verstanden, oder die „Coronawächter“ kamen mit ihrer Grammatik nicht zurecht. Zumindest wurde ihre Aussage nie so umgesetzt, weswegen ihre deutschen Untertanen sich seitdem vielleicht alleine wegen nicht verstandener „Schwurbelgrammatik“ versehentlich mit 7-fach falschen Grenzwerten „traktiert“ sehen.

Corona offenbart das Niveau nach 16 Jahren Merkel

Doch bei „Corona“ sind viele unserer Politiker nur noch irrlichternd. Auf keine ihrer Aussagen kann man sich verlassen, denn sie stochern selbst nach so langer Zeit immer noch im Coronanebel:
Wolfgang Kubicki kritisiert Angela Merkels Corona-Politik | The European
Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
Wolfgang Kubicki 29.03.2021
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Unser Gesundheitsminister entpuppt sich ebenfalls zunehmend als „Frühstücksonkel“ mit leeren Phrasen. Seit Twittern groß in Mode gekommen ist, bekommt man es erst richtig mit.

Bild 6 Eine Sonntagsrede unseres Gesundheitsministers und die raue Wirklichkeit

Unsere Staatsministerin für Digitalisierung hätte sich mit „Corona“ bewähren können. Schließlich sind die Inzidenzgrenzwerte direkte Maßzahlen für „Arbeitsgeschwindigkeiten“, vom Thema Schulen und Digitalisierung ganz abgesehen.

Bild 7 Vorstellung von Frau Politologin D. Bär auf der Regierungshomepage [Link]

Schaut man in einen Artikel zu ihrer Ernennung, muss man sagen dass der damalige Verfasser eine Art Vorsehung hatte:
[Link] Handelsblatt, 12.03.2018: Digitalministerin Dorothee Bär ist eine Luftnummer
Die designierte Digitalministerin ist mit wenig Kompetenzen ausgestattet. Sie ist vor allem eine Meisterin der Selbstdarstellung.
… Die gute Nachricht: Viel Schaden wird die designierte Staatsministerin für Digitalisierung in der neuen Großen Koalition unter Kanzlerin Angela Merkel nicht anrichten können. Sie ist als Quotenfrau der CSU in der neuen Bundesregierung eine politische Luftnummer. Bär ist nicht mit den entsprechenden Zuständigkeiten ausgestattet, um viel zum digitalen Aufbruch beitragen zu können. Manche in der deutschen Medienbranche meinen angesichts ihrer Kompetenzen: das ist auch gut so.
Dennoch sollte die CSU-Politikerin nicht unterschätzt werden. Mit ihrem konservativ-katholisch-digitalen Profil und ihrer rustikalen Sprücheklopferei kann sie es in der an starken Frauen so armen CSU noch weit bringen. Die riesige Kluft zwischen Wort und Tat stellt im populistischen Zeitalter ohnehin kein Problem mehr dar.

Bild 8

Bild 9

Während sich die Staatsministerin für Digitalisierung um das Wohlergehen ihres Mentors „kümmert“, interessieren sich andere für das Funktionieren im öffentlichen System. Und da sieht es recht düster aus.

[Link] nordbayern, 23.04.2021: Meldeverzug: Wie sehr verzerrt er den Inzidenzwert?
Stadt Nürnberg meldet seit Ende Oktober keinen Erkrankungsbeginn
Anbei das Bild auf dem RKI-Corona-Dashboard für Fürth. Deutlich sind die gelben und blauen Balken zu sehen.

Bild 10 Fürth RKI-Dashboard 27.04.2021

In der gleichen Darstellung von Nürnberg fehlen seit Oktober die blauen Balken.

Bild 11 Nürnberg RKI-Dashboard 27.04.2021

Was ist da passiert?
Nordbayern: … Auf Nachfrage verweist das LGL auf die Nürnberger Behörde: „Im vorliegenden Fall ist es den uns vorliegenden Informationen nach so, dass die entsprechenden Daten seitens des Gesundheitsamtes nicht übermittelt wurden“, heißt es in einer E-Mail-Antwort des Landesamts. Nürnbergs Gesundheitsreferentin … begründet die fehlenden Krankheitsdaten mit einem zu hohen Aufwand: „Wir übermitteln an das LGL nur nach Meldedatum, weil der Aufwand bei jedem Datensatz in der Datenbank nachzusehen und den Krankheitsbeginn zu ermitteln sehr hoch ist. Für die Berechnung der Sieben-Tage-Inzidenz ist das Meldedatum maßgeblich.“
Wir haben laut Frau Merkel derzeit eine „Jahrhundertpandemie“, in welcher bedenkenlos Wirtschaft und öffentliches Leben kaputt gemacht werden. Für solche Entscheidungen sind Daten über das Geschehen wichtig. Trotzdem entscheidet ein Gesundheitsamt eigenmächtig, ob welche „erforderlich“ sind, oder nicht.
Sind sie nicht erforderlich, sollten doch alle Gesundheitsämter darauf verzichten und den „sehr hoch“ angegebenen Aufwand für sinnvollere Tätigkeiten verwenden. Alternativ stellt sich die Frage, warum es für so etwas Aufwendiges wie „jeden Datensatz in der Datenbank nachzusehen“ nach über einem Jahr Pandemie noch keine digitale Lösung gibt.

Dazu die Darstellung, warum es allgemein so „hapert“:
Nordbayern: … Personalmangel, alte Software, Faxprobleme
Doch wie kann es sein, dass die Behörden bei einem Wert, an den derart wichtige politische Entscheidungen geknüpft sind, und der nun sogar ins neue Infektionsschutzgesetz aufgenommen wurde, oft nachhinken? … der beruflich häufig mit amtlichen Daten aus verschiedenen Bereichen zu tun hat, sagt … : “Meiner Erfahrung nach liegt so etwas fast immer an Personalmangel, veralterter und nicht standardisierter Software oder Faxproblemen.“
Da wundert es auch niemanden, dass man beim Betreten von Geschäften immer noch händisch seine Daten und Uhrzeit auf einen Zettel schreiben muss. Schnell und vorbildlich gelöst wurde zwischenzeitlich nur die Bestrafung bei Falschangaben.

Merkel hat es in den 16 Jahren geschafft, das Niveau der sie „Umgebenden“ so durchgängig auf das der GRÜNEN niederzuringen, dass der mit der nächsten Wahl wohl kommende Übergang ziemlich nahtlos erfolgen kann. Inzwischen gilt das auch für die CSU.

Aktualisierung aus aktuellem Anlass (28. April 2021):

Die gleitende Inzidenzformel der Kanzlerin

Welchen Wahnsinn man mit der Inzidenz treiben kann – dem unsere ebenfalls wahnsinnig gewordenen Ministerpräsident*innen auch noch zustimmen -, hat unsere Kanzlerin gerade wieder bewiesen.

Regierungshomepage Die Bundeskanzlerin (Datum fehlt): Mitschrift Pressekonferenz Gemeinsame Pressekonferenz von Bundeskanzlerin Merkel, dem Regierenden Bürgermeister Müller und Ministerpräsident Söder im Anschluss an die Besprechung der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder zum Thema „Impfen“
… Das heißt, wenn wir 50 Prozent doppelt Geimpfte haben, von denen kein Infektionsrisiko mehr ausgeht, die restlichen 50 Prozent der Bevölkerung aber noch nicht geimpft sind, dann bedeutet im Grunde eine Inzidenz von 100 in der Gesamtbevölkerung, dass für die nicht Geimpften – nur diese sind dann ja von der Erkrankungswahrscheinlichkeit betroffen – im Grunde eine Inzidenz von 200 besteht. Das heißt, wir haben dann immer noch ein erhebliches Risiko für unser Gesundheitssystem und müssen auf der einen Seite eben schauen, welche Rechte Geimpfte bekommen, müssen auf der anderen Seite aber auch im Blick haben, dass noch nicht jedem ein Impfangebot gemacht werden konnte. Wir müssen dann also schauen: Was bedeutet das mit Blick auf die Infektionsgefahr für den noch nicht geimpften Teil der Bevölkerung? Das wird sich über den Sommer, wenn jeder sein Impfangebot hatte, natürlich in eine Mehrheitssituation umwandeln, und irgendwann kommen wir an den Punkt, dass nur noch diejenigen betroffen sind, die sich nicht impfen lassen wollen.

Was hat Frau Merkel mit ihrem Geschwurbel nun gesagt?
Die Grundgesamtheit besteht nicht wie bisher aus allen Personen. Man muss davon die Geimpften abziehen und bekommt so die neue „Corona-Grundgesamtheit“. Neu wird die Inzidenz nun nur noch auf die „Corona-Grundgesamtheit“ hochgerechnet.

Die Folge hat Frau Merkel selbst mit einem Beispiel erklärt:
Bisher
Kommune 1.000.000 Einwohner, davon 1.000 Meldefälle
Ergibt eine Inzidenz von (1.000 / 1.000.000) x 100.000 = 100
Neu
Nun errechnet sich die Inzidenz nach einer neuen Formel:
Inzidenz gleitend = (Anzahl Meldefälle / (Einwohner – Geimpfte)) x 100.000
In der Kommune sind jetzt 50 % geimpft.
Von diesen soll also kein Infektionsrisiko mehr ausgehen. Wobei man sich dann fragt, warum sie weiter alle bestehenden Regeln zum Infektionsschutz einhalten müssen. Doch wohl viele Bürger haben es sowieso längst aufgegeben, hinter den Maßnahmen einen Sinn zu erkennen.

Bild 12 Bundesministerium für Gesundheit: Zahlen, Fragen und Antworten zur COVID-19-Impfung

Der Meldewert betrage weiterhin 1000 Positive.
Jetzt gibt es zwei Inzidenzwerte:
– den bisherigen: (.1000 / 1.000.000) x 100.000 = 100
– den merkelschen, gleitenden Inzidenzwert: (1.000 / (1.000.000 – 500.000)) x 100.000 = 200
Das kann man nun weiter treiben:

Bild 13 Vergleich der beiden Inzidenzformeln

Bei der „Merkelformel“ fällt auf:
– Der ursprüngliche (einzige) Sinn des Inzidenzwertes – die Belastung der Gesundheitsbehörde bei der Nachverfolgung darzustellen – ist vollkommen verloren gegangen
– der Inzidenzwert verliert auch seinen (angeblichen) zweiten Sinn: Die Belastung des Gesundheitswesens darzustellen.
Anmerkung: Dies hat er noch nie dargestellt, aber Herr Lauterbach als „Fachperson“ behauptet es
– die Gruppe der nicht geimpften kann sich vor Coronamaßnahmen nicht mehr „retten“
– die Coronamaßnahmen werden endlos weitergeführt, da selbst die kleinste Gruppe als Gefahr hochgerechnet wird und es unwahrscheinlich ist, Corona vollständig ausrotten zu können.
– die nicht-Geimpften werden nun offiziell so lange diskriminiert, bis sie „verschwunden“ sind.

Was sagen eigentlich die Ethikkommissionen dazu? Wahrscheinlich werden es wieder Richter der unteren Ebenen Bewerten müssen und ja nach Mut entscheiden, mit der Gefahr, dann Hausdurchsuchungen zu bekommen.