CMIP6-Aktualisierung

Ich habe bereits früher über die Vorhersage-Zuverlässigkeit von Klimamodellen auf WUWT Stellung geommen, und zwar hier, hier, hier und hier. Wer eine Videopräsentation der Arbeit bevorzugt, findet sie hier. Volle Transparenz erfordert, dass man Dr. Patrick Browns (jetzt Prof. Brown an der San Jose State University) Videokritik zur Kenntnis nimmt, die hier gepostet wurde und die in den Kommentaren unter diesem Video, beginnend hier, widerlegt wurde.

Diejenigen, die sich diese Kommentare durchlesen, werden sehen, dass Dr. Brown keine offensichtliche Ausbildung in der Analyse physischer Fehler aufweist. Er machte die gleichen Anfängerfehler, wie sie bei Klimamodellen üblich sind und die hier und hier ausführlich diskutiert werden.

In unserer Debatte benahm sich Dr. Brown sehr zivilisiert und höflich. Er wirkte wie ein netter Kerl und wohlmeinend. Aber als man ihm keine Möglichkeit ließ, die Genauigkeit und Qualität der Daten zu beurteilen, verrieten ihn seine Lehrer und Mentoren.

Mangelnde Ausbildung in der Bewertung der Datenqualität ist offenbar eine Lücke in der Ausbildung der meisten, wenn nicht aller AGW-Konsens-Klimaforscher. Sie finden keinen Sinn im entscheidend zentralen Unterschied zwischen Präzision und Genauigkeit. Es kann überhaupt keinen möglichen Fortschritt in der Wissenschaft geben, wenn die Mitarbeiter nicht geschult sind, die Qualität ihrer eigenen Daten kritisch zu bewerten.

Die beste Gesamtbeschreibung von Klimamodellfehlern ist immer noch Willie Soon, et al., 2001 vorbehalten in seinem Beitrag „Modeling climate effects of anthropogenic carbon dioxide emissions: unknowns and uncertainties“. So ziemlich alle beschriebenen Simulationsfehler und Schwächen sind auch heute noch zutreffend.

Jerry Browning hat kürzlich eine rigorose mathematische Physik veröffentlicht, die an ihrer Quelle die von Willie et al. beschriebenen Simulationsfehler aufdeckt. Er zeigte, dass die falsch formulierte physikalische Theorie in Klimamodellen diskontinuierliche Heiz-/Kühlterme erzeugt, die eine „Größenordnung“ der Verringerung der Simulationsgenauigkeit bewirken.

Diese Diskontinuitäten würden dazu führen, dass die Klimasimulationen rasch voneinander abweichen, es sei denn, die Klimamodellierer unterdrücken sie mit einer hyperviskosen (Melasse-)Atmosphäre. Jerrys Papier bietet einen Ausweg. Dennoch bleiben Diskontinuitäten und Melasseatmosphären auch in den neuen verbesserten CMIP6-Modellen erhalten.

Im Fünften Zustandsbericht 2013 (5AR) verwendete der IPCC CMIP5-Modelle, um die Zukunft der globalen Lufttemperaturen vorherzusagen. Der kommende 6AR wird die aktualisierten CMIP6-Modelle verwenden, um die thermische Zukunft vorherzusagen, die uns erwartet, falls wir weiterhin fossile Brennstoffe verwenden.

CMIP6-Wolkenfehler und Nachweisgrenzen: Abbildung 1 vergleicht den vom CMIP6 simulierten globalen durchschnittlichen jährlichen Wolkenanteil mit dem gemessenen Wolkenanteil und zeigt deren Differenz zwischen 65 Grad nördlicher und südlicher Breite. Der durchschnittliche jährliche Fehler (rms root mean square) des Wolkenanteils beträgt ±7,0%.

Dieser Fehler kalibriert die durchschnittliche Genauigkeit von CMIP6-Modellen gegenüber einem bekannten, beobachtbaren Wolkenanteil. Der durchschnittliche jährliche rms-Fehler des CMIP5-Wolkenanteils über den gleichen Breitenbereich beträgt ±9,6%, was auf eine Verbesserung des CMIP6 um 27% hinweist. Nichtsdestotrotz weisen CMIP6-Modelle immer noch signifikante Simulationsfehler des globalen Wolkenanteils auf.

Abbildung 1 Linien: rot, MODIS + ISCCP2 gemessener jährlicher durchschnittlicher Wolkenanteil; blau, CMIP6-Simulation (9 Modellmittelwerte); grün, (gemessen minus CMIP6) jährlicher durchschnittlicher Kalibrierungsfehler (rms-Fehler in Längsrichtung = ±7,0%).

Die folgende Analyse ist eine einfache Erweiterung der bisherigen, auf die CMIP5-Projektionen der Lufttemperatur angewendeten Fehlerfortpflanzung auf die CMIP6-Modelle.

Fehler bei der Simulation des globalen Wolkenanteils führen zu Folgefehlern im langwelligen Wolkenantrieb (LWCF) des simulierten Klimas. LWCF ist eine Quelle des thermischen Energieflusses in der Troposphäre.

Der troposphärische thermische Energiefluss ist die Determinante der Lufttemperatur in der Troposphäre. Simulationsfehler in LWCF führen zu Unsicherheiten im Wärmefluss der simulierten Troposphäre. Diese wiederum führen zu Unsicherheiten bei den projizierten Lufttemperaturen.

Für weitere Diskussionen siehe hier – Abbildung 2 und den umgebenden Text. Das oben verlinkte Fehlerfortpflanzungspapier bietet ebenfalls eine ausführliche Diskussion dieses Punktes.

Der globale jährliche Mittelwert des langwelligen LWCF rms-Kalibrierfehlers der CMIP6-Modelle beträgt ±2,7 W/m² (28 Modellmittelwerte aus Abbildung 18 hier).

Ich konnte die Gültigkeit dieser Zahl überprüfen, denn dieselbe Quelle lieferte auch den durchschnittlichen jährlichen LWCF-Fehler für die 27 von Lauer und Hamilton bewerteten CMIP5-Modelle. Der von Lauer und Hamilton ausgewertete CMIP5 rms-Jahresdurchschnitts-LWCF-Fehler beträgt ±4 W/m². Eine unabhängige Neubestimmung ergab ±3,9 W/m²; dasselbe gilt für den Rundungsfehler.

Die kleine Frage der Auflösung: Im Vergleich mit dem CMIP6 LWCF-Kalibrierungsfehler (±2,7 W/m²) beträgt die durchschnittliche jährliche Zunahme des CO2-Antriebs zwischen 1979 und 2015 0,025 W/m² (Daten von der EPA). Die durchschnittliche jährliche Zunahme der Summe aller Antriebe für alle wichtigen Treibhausgase im Zeitraum 1979-2015 beträgt 0,035 W/m².

Der durchschnittliche jährliche CMIP6 LWCF-Kalibrierungsfehler (±2,7 W/m²) ist also ±108-mal größer als die durchschnittliche jährliche Zunahme des Antriebs durch CO2-Emissionen allein und ±77-mal größer als die durchschnittliche jährliche Zunahme des Antriebs durch alle THG-Emissionen.
Das heißt, eine untere Grenze der CMIP6-Auflösung ist ±77 Mal größer als die zu erkennende Störung. Dies ist eine kleine Verbesserung gegenüber CMIP5-Modellen, die eine ±114-mal zu große Auflösung der unteren Grenze aufwiesen.

Die analytische Strenge erfordert in der Regel, dass die instrumentelle Nachweisgrenze (Auflösung) 10-mal kleiner als die erwartete Messgröße ist. Um also ein Signal von CO2– oder THG-Emissionen vollständig zu erkennen, müssen die aktuellen Klimamodelle ihre Auflösung um fast das 1000-Fache verbessern.

Eine andere Möglichkeit ist, dass die CMIP6-Klimamodelle die Auswirkungen von CO2– oder THG-Emissionen auf das Erdklima oder die globale Lufttemperatur, so überhaupt existent, nicht erfassen können.

Diese Tatsache dürfte von der Konsensus-Klimatologie-Gemeinschaft ignoriert werden.

Gültigkeit der Simulation: Papalexiou et al., 2020 stellten fest, dass „die Glaubwürdigkeit von Klimaprojektionen typischerweise dadurch definiert wird, wie genau Klimamodelle die historische Variabilität und Trends abbilden“. Abbildung 2 zeigt, wie gut die lineare Gleichung, die zuvor zur Emulation der CMIP5-Lufttemperaturprojektionen verwendet wurde, die GISS-Temp-Anomalien reproduziert.

Abbildung 2 Linien: blau, GISS Temp 1880-2019 Land plus SST-Lufttemperaturanomalien; rot, Simulation unter ausschließlicher Verwendung der Meinshausener RCP-Antriebe für CO2+N2O+CH4+ Vulkanausbrüche

Die Nachahmung geht durch die Mitte des Trends und ist besonders gut in der Zeit nach 1950, wo die Lufttemperaturen angeblich durch Treibhausgasemissionen (THG) angetrieben werden. Die durch vulkanische Aerosole verursachten nichtlinearen Temperaturabfälle werden erfolgreich in den Jahren 1902 (Pelée), 1963 (Agung), 1982 (El Chichón) und 1991 (Pinatubo) reproduziert. Nachdem wir die Glaubwürdigkeit der veröffentlichten Norm nachgewiesen haben, können wir fortfahren.

CMIP6 Welt: Die neuen CMIP6-Projektionen haben neue Szenarien, die Shared Socioeconomic Pathways (SSPs).

Diese Szenarien kombinieren die repräsentativen Konzentrationspfade (Representative Concentration Pathways – RCPs) des AR 5 mit „quantitativen und qualitativen Elementen, die auf Welten mit verschiedenen Ebenen von Herausforderungen für die Abschwächung und Anpassung basieren [mit] neuen Szenario-Handlungssträngen [die] Quantifizierungen der damit verbundenen Bevölkerungs- und Einkommensentwicklung umfassen … zur Verwendung durch die Klimawandel-Forschungsgemeinschaft“.

Zunehmend entwickelte Beschreibungen dieser Handlungsstränge sind hier, hier und hier verfügbar.

Die Simulation der CMIP6-Lufttemperatur-Projektionen unten folgt der identischen Methode, die in dem oben verlinkten Fehlerfortpflanzungspapier beschrieben ist.

Die Analyse konzentriert sich hier auf Projektionen, die mit Hilfe des Erdsystemmodells CMIP6 IMAGE 3.0 erstellt wurden. IMAGE 3.0 wurde so konstruiert, dass alle erweiterten Informationen, die in den neuen SSPs zur Verfügung gestellt werden, berücksichtigt wurden. Die IMAGE 3.0-Simulationen wurden lediglich der Bequemlichkeit halber ausgewählt. Die von van Vuulen et al. im Jahr 2020 veröffentlichte Studie enthielt in seiner Abbildung 11 praktischerweise sowohl die SSP-Vorgaben als auch die daraus resultierenden Lufttemperaturprojektionen. Die veröffentlichten Daten wurden mit DigitalizeIt, einem Werkzeug, das mir gute Dienste geleistet hat, in Punkte umgerechnet.

Hier ist ein kurzes Zitat aus der Beschreibung für IMAGE 3.0: „IMAGE ist ein integrierter Bewertungsmodellrahmen, der globale und regionale Umweltfolgen von Veränderungen menschlicher Aktivitäten simuliert. Das Modell ist ein Simulationsmodell, d.h. Änderungen der Modellvariablen werden auf der Grundlage der Informationen aus dem vorhergehenden Zeitschritt berechnet.

Simulationen werden von] zwei Hauptsystemen angetrieben: 1) das menschliche oder sozio-ökonomische System, das die langfristige Entwicklung menschlicher Aktivitäten beschreibt, die für eine nachhaltige Entwicklung relevant sind; und 2) das Erdsystem, das Veränderungen in natürlichen Systemen wie dem Kohlenstoff- und Wasserkreislauf und dem Klima beschreibt. Die beiden Systeme sind durch Emissionen, Landnutzung, Klima-Rückkopplungen und mögliche politische Reaktionen des Menschen miteinander verbunden“.

[Hervorhebung vom Autor]

Über fehlerbehaftete Iterationen: Der oben fettgedruckte Satz beschreibt die schrittweise Simulation eines Klimas, bei der jeder zuvor simulierte Klimazustand in der iterativen Berechnung die Anfangsbedingungen für die nachfolgende Klimazustandssimulation bis hin zum endgültigen simulierten Zustand liefert. Die Simulation als schrittweise Iteration ist Standard.

Wenn die in der Simulation verwendete physikalische Theorie falsch oder unvollständig ist, überträgt jeder neue iterative Anfangszustand seinen Fehler in den nachfolgenden Zustand. Jeder nachfolgende Zustand ist dann zusätzlich einem weiteren Fehler unterworfen, der sich aus der Anwendung der falschen physikalischen Theorie auf den fehlerhaften Anfangszustand ergibt.

Entscheidend: Als Folge der schrittweisen Iteration werden systematische Fehler in jedem Klimazwischenzustand in jeden nachfolgenden Klimazustand fortgeschrieben. Die Unsicherheiten aus den systematischen Fehlern pflanzen sich dann als Wurzel-Summen-Quadrat (rss) durch die Simulation fort.

In diesem Zusammenhang zeigte Jerry Browning in seinem Beitrag analytisch und gründlich auf, dass Klimamodelle eine falsche physikalische Theorie verwenden. Abbildung 1 oben zeigt, dass eine der Folgen ein Fehler im simulierten Wolkenanteil ist.

Bei einer Projektion zukünftiger Klimazustände sind die physikalischen Fehler der Simulation unbekannt, da zukünftige Beobachtungen nicht zum Vergleich zur Verfügung stehen.

Die rss-Fortpflanzung eines bekannten Modell-Kalibrierungsfehlers durch die iterierten Schritte erzeugt jedoch eine Zuverlässigkeits-Statistik, anhand derer die Simulation bewertet werden kann.

Obiges fasst das Verfahren zusammen, welches zur Bewertung der Projektionszuverlässigkeit in der Ausbreitungspapier und hier verwendet wird: Zuerst wird das Modell gegen bekannte Ziele kalibriert, dann wird der Kalibrierungsfehler durch die iterativen Schritte einer Projektion als Wurzel-Summen-Quadrat-Ungenauigkeit fortführt. Man wiederholt diesen Prozess bis zum letzten Schritt, der den vorhergesagten zukünftigen Endzustand beschreibt.

Die abschließende Wurzel-Summen-Quadrat-(rss)-Unsicherheit gibt die physikalische Zuverlässigkeit des Endergebnisses an, da der physikalisch wahre Fehler in einer Zukunftsprognose nicht bekannt ist.

Diese Verfahren ist Standard in den physikalischen Wissenschaften, wenn es darum geht, die Zuverlässigkeit eines berechneten oder vorhersagbaren Ergebnisses zu ermitteln.

Emulation und Ungewissheit: Eine der wichtigsten Demonstrationen in der Fehler-Fortpflanzungstudie war, dass fortgeschrittene Klimamodelle die Lufttemperatur lediglich als eine lineare Extrapolation des THG-Antriebs projizieren.

Abbildung 3, Tafel a: Punkte sind die IMAGE 3.0-Lufttemperaturprojektion von Szenario SSP1 (blau) und Szenario SSP3 (rot). Vollständige Linien sind die Emulationen der IMAGE 3.0-Projektionen: blau, SSP1-Projektion, und rot, SSP3-Projektion, die unter Verwendung der in der veröffentlichten Analyse der CMIP5-Modelle beschriebenen linearen Emulationsgleichung erstellt wurden. Tafel b ist wie Tafel a, zeigt aber auch die expandierenden 1 s rss-Ungenauigkeits-Kurven, die entstehen, wenn ±2,7 W/m² des jährlichen durchschnittlichen LWCF-Kalibrierungsfehlers durch die SSP-Projektionen vermehrt und fortgeführt werden.

In Abbildung 3a oben zeigen die Punkte die Lufttemperaturprojektionen der Handlungsstränge SSP1 und SSP3, die mit dem Klimamodell IMAGE 3.0 erstellt wurden. Die Linien in Abbildung 3a zeigen die Emulationen der IMAGE 3.0-Projektionen, die unter Verwendung der linearen Emulationsgleichung erstellt wurden, die in der Fehlerfortpflanzungs-Studie (ebenfalls in einem Artikel aus dem Jahr 2008 im Skeptic Magazine) ausführlich beschrieben wird. Die Emulationen sind 0,997 (SSP1) oder 0,999 (SSP3) mit den IMAGE 3.0-Projektionen korreliert.

Abbildung 3b zeigt, was passiert, wenn ±2,7 W/m² des jährlichen mittleren LWCF-Kalibrierungsfehlers durch die globalen Lufttemperaturprojektionen IMAGE 3.0 SSP1 und SSP3 vermehr und fortgeführt wird.

Die Unsicherheitsbereiche sind so groß, dass die beiden SSP-Szenarien statistisch nicht unterscheidbar sind. Es wäre unmöglich, entweder eine Projektion oder, in Erweiterung, irgendeine SSP-Lufttemperaturprojektion als repräsentativer für die sich entwickelnde Lufttemperatur zu wählen, da jede mögliche Änderung der physisch realen Lufttemperatur in allen Projektionsunsicherheits-Bereichen untergegangen ist.

Ein Intermezzo – Es gibt Drachen: Ich werde hier einen Nebenschauplatz einbauen, um einem früheren heftigen, hartnäckigen und wiederholt behaupteten Missverständnis zuvorzukommen. Bei den Unsicherheitseinhüllenden in Abbildung 3b handelt es sich nicht um physikalisch reale Lufttemperaturen. Das muss eindeutig klar sein.

Diese Unsicherheitsbalken bedeuten nicht, dass das Klima in Zukunft 15°C wärmer oder 10°C kälter sein wird. Unsicherheitsbalken beschreiben eine Bandbreite, in der Unwissenheit herrscht. Ihre Botschaft lautet, dass die projizierten zukünftigen Lufttemperaturen irgendwo innerhalb der Unsicherheitsbandbreite liegen. Aber niemand kennt den Ort. CMIP6-Modelle können nichts Definitiveres sagen als das.

Innerhalb dieser Unsicherheitsbalken befindet sich Terra Incognita. Es gibt Drachen.

Wer darauf besteht, dass die Unsicherheitsbalken tatsächliche reale physikalische Lufttemperaturen implizieren, sollte sich überlegen, wie sich dieser Gedanke gegen die Notwendigkeit durchsetzt, dass eine physikalisch reale ±C-Unsicherheit eine Gleichzeitigkeit von heißen und kalten Zuständen erfordert.

Unbestimmtheits-Balken sind streng axial. Sie stehen im Plus und im Minus auf jeder Seite eines einzelnen Datenpunktes. Die Annahme zweier gleichzeitiger, gleich großer, aber entgegengesetzt polarisierter physikalischer Temperaturen, die auf einem einzigen Punkt des simulierten Klimas stehen, ist eine physikalische Unmöglichkeit.

Die Idee verlangt Unmögliches, nämlich dass die Erde gleichzeitig Treibhaus und Eiskeller des globalen Klimas einnimmt. Bitte also diesen Gedanken endgültig verwerfen.

Und nun zurück zu unserer Feature-Präsentation: Die folgende Tabelle enthält ausgewählte Anomalien der Projektion der Szenarien IMAGE 3.0 SSP1 und SSP3 nebst ihren entsprechenden Unsicherheiten.

Tabelle: BILD 3.0 Projizierte Lufttemperaturen und Unsicherheiten für ausgewählte Simulationsjahre

Keine dieser prognostizierten Temperaturen ist anders als physikalisch bedeutungslos. Keine einzige von ihnen sagt uns etwas physikalisch Reales über mögliche zukünftige Lufttemperaturen.

Es folgen mehrere Schlussfolgerungen.

Erstens projizieren die CMIP6-Modelle, wie ihre Vorläufer, die Lufttemperaturen als lineare Extrapolation des Antriebs.

Zweitens machen CMIP6-Klimamodelle, wie ihre Vorgängermodelle, großräumige Simulationsfehler im Wolkenanteil.

Drittens erzeugen CMIP6-Klimamodelle wie ihre Vorläufer LWCF-Fehler, die enorm größer sind als die winzige jährliche Zunahme des troposphärischen Antriebs durch Treibhausgasemissionen.

Viertens erzeugen die CMIP6-Klimamodelle, wie ihre Vorläufer, so große und unmittelbare Unsicherheiten, dass die Lufttemperaturen selbst für ein Jahr nicht zuverlässig prognostiziert werden können.

Fünftens müssen CMIP6-Klimamodelle, wie ihre Vorläufer, eine etwa 1000-fach verbesserte Auflösung aufweisen, um ein CO2-Signal zuverlässig zu erkennen.

Sechstens erzeugen CMIP6-Klimamodelle, wie ihre Vorläufer, physikalisch bedeutungslose Lufttemperatur-Projektionen.

Siebtens haben die CMIP6-Klimamodelle, wie ihre Vorläufer, keinerlei Vorhersagewert.

Die unvermeidliche Schlussfolgerung ist nach wie vor, dass ein anthropogenes Lufttemperatursignal in Klimabeobachtungen nicht nachgewiesen werden konnte und auch gegenwärtig nicht nachgewiesen werden kann.

Ich schließe mit einer Bemerkung, die schon einmal gemacht wurde: Wir wissen jetzt mit Sicherheit, dass all die Hektik um CO2 und das Klima umsonst war.

All die verängstigten Erwachsenen; all die verzweifelten jungen Menschen; all die Gymnasiasten, die zu Tränen und Schuldzuweisungen durch Lektionen über bevorstehendes Unheil, Tod und Zerstörung verängstigt sind; all die sozialen Unruhen und Verwerfungen. All das war umsonst.

All die Schuldzuweisungen, all die Rufmordanschläge, all die zerstörten Karrieren, all die überschüssigen Todesfälle im Winter durch Brennstoffarmut, all die Männer, Frauen und Kinder, die weiterhin mit Rauch in geschlossenen Räumen leben, all die enormen Summen, die umgeleitet wurden, all die zerstörten Landschaften, all die zerhackten und verbrannten Vögel und Fledermäuse, all die gewaltigen Geldsummen, die von der Mittelschicht an reiche Subventionsbauern überwiesen wurden:

Alles umsonst.

Link: https://wattsupwiththat.com/2020/10/27/cmip6-update/

Übersetzt von Chris Frey EIKE




Alarmistische Klima-Wissenschaft: Die große Krise dämmert herauf

Diese Frage war überraschend schwierig zu beantworten, trotz 40 Jahren Forschung, die Dutzende von Milliarden Dollar gekostet hat. Jetzt entwickelt dieses Thema rasant immer mehr Sprengkraft, weil sich zwei verschiedene Antworten abzeichnen, eine harmlos niedrige und eine gefährlich hohe. Diese Divergenz ist eine Krise für die Gemeinschaft der Panikmacher. Wie sie damit umgehen, bleibt abzuwarten.

Es folgt eine etwas technische Erklärung der Situation.

Im Mittelpunkt der Ausgabe steht eine Eckpunkt-Bewertung der Auswirkungen der CO2-Erhöhung auf die globale Temperatur. Dies wird als „Gleichgewichts-Klima-Sensitivität“ oder ECS bezeichnet. Die grundlegende Frage ist, wie hoch die globale Durchschnittstemperatur sein wird, wenn das CO2-Niveau doppelt so hoch ist wie das angeblich ursprüngliche Niveau von 280 ppm. Das heißt, wo wird sie liegen, wenn wir 560 ppm erreichen.

Da es jedoch einige Zeit dauern kann, bis sich das Klimasystem an dieses neue hohe Niveau angepasst hat, stellt sich die Frage, wie hoch die Temperatur sein wird, wenn sich das System auf diese Verdoppelung eingestellt hat, was einige Zeit nach dem Erreichen von 560 ppm der Fall sein könnte. Auch hier geht es um die Empfindlichkeit, so dass ECS nicht die neue höhere Temperatur ist. Die Differenz zwischen der neuen und der ursprünglichen Temperatur ist dann ECS.

Wenn also die neue Temperatur um, sagen wir, 2,2 Grad C höher liegt, dann beträgt ECS = 2,2 Grad.

Technisch gesehen ist ECS oft eine Abstraktion, etwas, das nur in Klimamodellen vorkommt, aber die Modell-ECS wird als eine wichtige Schätzung der realen ECS angesehen. In den Modellen wird ECS oft einfach durch eine sofortige Verdoppelung des CO2 geschätzt, während dies in der Realität Jahrhunderte dauert.

All dies vorausgeschickt, kann ich nun die herauf dämmernde Krise erklären.

Seit vielen Jahrzehnten liegen die akzeptierten Modellschätzungen der ECS zwischen 1,5 und 4,5 Grad C. Verschiedene Modelle ergeben unterschiedliche Werte, aber der akzeptable Bereich hat sich nicht verändert. Dass die Spanne so groß ist, war ein politisches Problem. Eine Erwärmung von nur 1,5 Grad könnte harmlos sein, während 4,5 Grad gefährlich sein könnten. Aber der ECS-Bereich hat sich hartnäckig gehalten und sich sozusagen geweigert, sich auf einen bestimmten Wert einzuengen.

Jetzt gibt es plötzlich ein riesiges neues Problem. Die ECS ist explodiert! Es geht nicht darum, dass sie höher oder niedriger ist – sie ist auf einmal beides. Zwei neue Forschungslinien haben sich in Bezug auf den geschätzten Wert der ECS stark voneinander entfernt.

Die erste Forschungslinie verfolgt einen neuen Ansatz, der als beobachtende ECS bezeichnet wird. Der Gedanke dahinter lautet, dass wir, da der CO2-Gehalt fast die Hälfte der Verdoppelung erreicht hat, in der Lage sein sollten, die ECS empirisch aus der beobachteten Beziehung zwischen CO2-Zunahme und Temperaturanstieg abzuleiten.

Es hat eine Reihe von Beobachtungsstudien gegeben, und viele erhalten ECS-Werte weit unter 1,5, die in der Tat harmlos sind. Werte von 1,2 und 1,3 sind üblich.

Aber gleichzeitig hat es eine neue Welle von Modellstudien gegeben, die ECS-Werte weit über 4,5 erreichen, was wirklich gefährlich wäre. Hier sind Werte von 5,2 und 5,3 zu finden.

Man beachte, dass die Gemeinschaft der Modellierer geteilt ist, was die Akzeptanz dieser neuen hohen Modellzahlen betrifft. Immerhin implizieren sie, dass die in den letzten, etwa vierzig Jahren durchgeführte Modellierung falsch war, einschließlich eines Großteils der neueren Modellierung, die noch innerhalb der alten Bandbreite liegt.

Das Ergebnis von all dem ist, dass die Wissenschaft der ECS zu einem Scherbenhaufen zerschlagen worden ist. Wenn man bedenkt, dass sich die ECS im Herzen des Klima-Alarmismus befindet, ist dies wirklich eine Krise. Ist die Modellierung 40 Jahre lang falsch gewesen? Ist sie jetzt falsch? Was ist mit der Beobachtung, die in der Wissenschaft herrschen soll? Die wissenschaftliche Methode besagt, dass Beobachtung über der theoretische Modellierung stehen muss.

Dies ist auch eine politische Krise. Wenn wir nicht wissen, wie empfindlich das Klimasystem auf steigende CO2-Werte reagiert, haben wir keine Grundlage für eine Klimapolitik. Wenn die Beobachtungswerte stimmen, dann gibt es einfach keinen klimatischen Notstand.

Wie wird sich diese enorme neue Unsicherheit auswirken? Glücklicherweise werden wir recht bald zumindest einen Einblick bekommen. Der jüngste IPCC-Zustandsbericht (AR6) wird derzeit geprüft und dürfte etwa im nächsten Jahr vorliegen. Dieser Bericht soll den Stand der Wissenschaft über den Klimawandel überprüfen, wenn auch unter einem alarmistischen Gesichtspunkt.

Zumindest wird es interessant zu sehen sein, wie das IPCC mit der explodierenden ECS-Spannbreite umgeht. Vielleicht wird man es ignorieren, weil es dem Alarmismus schaden dürfte. Man könnte die Erwähnung der ECS einfach ganz fallen lassen, da sie jetzt sehr unbequem ist. Aber dieses eklatante Versäumnis wird leicht zu beanstanden sein.

Oder sie dürfen nur die heißen höheren Werte anerkennen, die den Alarmismus begünstigen. Hier riskieren sie, das Modellieren dumm aussehen zu lassen (was es auch ist). Außerdem wird diese Auslassung kritischer Beweise ebenfalls leicht zu beanstanden sein.

Mit dem Explodieren der Spanne des ECS ist der IPCC zwischen Skylla und Charybdis aus der griechischen Mythologie gefangen. Genau wie der Alarmismus. Schauen wir mal, wie man da wieder heraus kommen will.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see here. For the author’s over 100 prior articles for CFACT see here. Available for confidential research and consulting.

Link: https://wattsupwiththat.com/2020/10/20/crisis-looms-in-alarmist-climate-science/

Übersetzt von Chris Frey EIKE




Die große Energie-NICHT-Transition

In den letzten hundert Jahren haben die Emissionen von Kohlendioxid, einem natürlichen und gutartigen Gas, zugenommen. Der leichte Anstieg der atmosphärischen Kohlendioxid-Konzentration von 0,03 Prozent im neunzehnten Jahrhundert auf heute 0,04 Prozent hat bisher nur positive Auswirkungen gehabt, darunter höhere Ernteerträge und eine größere Widerstandsfähigkeit gegen Trockenheit.

[Hervorhebung vom Übersetzer]

Nichtsdestotrotz argumentieren Klima-Alarmisten, dass steigende Temperaturen, die durch Kohlendioxidemissionen verursacht werden, katastrophale Stürme, Krankheiten, Aussterben, Überschwemmungen und allgemeines Elend mit sich bringen.

Im Gegensatz zu den Vorteilen von CO2, die klar und messbar sind, bleibt die Klimakatastrophe nichts anderes als eine Vorhersage, die durch Computermodelle erstellt wird, die noch keine genauen Vorhersagen der Klimaauswirkungen liefern.

Energie-Transition – nicht!

Eine häufige Begleiterscheinung von Klima-Alarmismus ist, dass die Welt eine radikale Veränderung des globalen Energiesystems vorgenommen hat, indem fossile Brennstoffe durch kohlenstofffreie, erneuerbare Energien ersetzt wurden.

Eine Google-Suche nach dem Begriff „Energiewende“ ergibt über 5 Millionen Treffer, viele davon begleitet von Begriffen wie „unaufhaltsam“ und „unumkehrbar“. Aber findet dieser Übergang tatsächlich statt? Für derarrtige Behauptungen werden im Allgemeinen drei Argumente angeführt – und keines davon ist stichhaltig.

Erstens verweisen die Befürworter der „Energiewende“ auf die hohen Wachstumsraten bei den erneuerbaren Energiequellen, wobei die Windkraft seit 2000 jährlich um über 20 Prozent und die Solarenergie um über 40 Prozent pro Jahr zugenommen haben gegenüber einer Steigerung um 2 Prozent bei fossilen Brennstoffen. Das klingt bedeutend, aber die absoluten Zahlen sprechen eine andere Sprache.

Im Jahr 2019 trug die Windenergie trotz vierzig Jahren und Subventionen in Höhe von Billionen Dollar etwa 2 Prozent und die Solarenergie etwas mehr als 1 Prozent zum gesamten weltweiten Energieverbrauch bei. Fossile Brennstoffe machten 84 Prozent aus, was einem Rückgang von nur zwei Prozentpunkten in den letzten 20 Jahren entspricht.

Zweitens stellen selbst hoch angesehene Publikationen wie die Financial Times in ihren Artikeln in Frage, ob die Ölgesellschaften die Flutwelle der erneuerbaren Energien überleben können.

Tatsächlich befindet sich die Ölindustrie infolge des Pandemie-bedingten Zusammenbruchs der Ölnachfrage und des durch technologische Produktionsfortschritte wie das Fracking verursachten Überangebots in ernsten finanziellen Schwierigkeiten. Öl ist jedoch ein Transportkraftstoff, der nur in wenigen Punkten mit den erneuerbaren Energien konkurriert, die in erster Linie zur Stromerzeugung genutzt werden.

In dem Maße, in dem erneuerbare Energien heute rentabel sein können, ist dies nur auf die enorme Unterstützung zurückzuführen, die sie von den Regierungen in Form von planwirtschaftlich aufoktroyierten Märkten erhalten, die durch Vorschriften für erneuerbare Energien und massive Subventionen geschaffen wurden. Im Vergleich dazu leben oder sterben die Ölgesellschaften durch den Markt.

Es bleibt abzuwarten, was mit den Gewinnen der Ölgesellschaften geschieht, wenn die Pandemie endet, aber die Frage, die über das Schicksal der Branche entscheidet, wird Angebot und Nachfrage sein, nicht die Konkurrenz der erneuerbaren Energien.

Kein signifikanter Übergang zu Elektrofahrzeugen

Schließlich wird das Aufkommen von Elektroautos zunehmend als das Ende des Öls angepriesen.

Die private Fahrzeugflotte der USA beläuft sich derzeit auf etwa 250 Millionen Fahrzeuge, von denen etwa 1 Million oder 0,4 Prozent mit Batterien betriebene elektrische Fahrzeuge sind.

Elektroautos sind in der Herstellung etwa doppelt so teuer wie vergleichbare Benzinmodelle und wie die regenerative Stromerzeugung nur mittels massiver Subventionen rentabel.

Nehmen Sie zum Beispiel Tesla, den aktuellen Liebling der Autoindustrie. Zusätzlich zu den direkten Subventionen für Produktionsanlagen und Kaufkrediten in Höhe von 2.500 bis 7.500 Dollar pro Fahrzeug verkauft Tesla Emissionsgutschriften an andere Autofirmen, um die gesetzlichen Bestimmungen in Kalifornien zu erfüllen. Der Verkauf dieser Gutschriften belief sich im vergangenen Jahr auf insgesamt mehr als 1 Milliarde Dollar, was den gesamten freien Cashflow von Tesla in diesem Zeitraum ausmacht. Tesla verliert mit jedem hergestellten Auto Geld.

Durch eine Anordnung seiner Regierung hat der kalifornische Gouverneur Gavin Newsom (D) den Verkauf von neuen Benzinfahrzeugen ab 2035 verboten. Wie bei vielen solchen politischen Versprechen ist dieses „Verbot“ einfach ein Ziel, keine Politik. Newsom ist 53 Jahre alt und wird 2035 längst nicht mehr im Amt sein, und die Medien werden das Interesse daran verlieren, ob sein Ziel erreicht wurde oder nicht. Im Augenblick kann sich Newsom jedoch im Ruhm seiner signalisierten Tugend sonnen.

Die Welt wird sich vielleicht eines Tages von fossilen Brennstoffen abwenden, aber das ist derzeit noch nicht der Fall. Alles, was wir bisher haben, sind Vorhersagen, Wunschdenken und große Geldsummen, die verschwendet werden, nur um einen kleinen Beitrag zu einem Nichtproblem zu leisten.

[Hervorhebung vom Übersetzer]

Author: Bruce M. Everett, Ph.D. has worked in the energy field for nearly 50 years. He holds an A.B. from Princeton University and an MA, MALD and PhD from The Fletcher School at Tufts. His career includes service in the U.S. Department of Energy and on the faculty at the Fletcher School and the Georgetown School of Foreign Service. He was an executive for the ExxonMobil Corporation and now sits on the Board of Directors of the CO2 Coalition

This is modified version of an article that originally appeared on the BizPakReview.

Link: https://heartlanddailynews.com/2020/10/the-great-energy-non-transition/

Übersetzt von Chris Frey EIKE




In dem Land, wo Herr Söder Corona-„bekämpft“, ist die Mortalität mit am höchsten

Anmerkung: Dazu gibt es auch auf EIKE schon einige Publikationen. Diese listet lediglich aus aktuellem bestimmte, erheblich divergierende Mortalitätswerte.

Um Werte zu erfahren, schaut man zuerst in „die“ Statistiken.

Bei „statista“ gibt es eine schöne Grafik und die folgenden Zahlen:
statista, Stand 26.10.2020: Der erste Fall des neuartigen Coronavirus (SARS-CoV-2) wurde in Deutschland am 28. Januar in registriert. Bundesweit stieg die Zahl der Corona-Infektionen bis zum 23. Oktober 2020* auf über 443.189 Fälle. Die Zahl der Todesopfer im Zusammenhang mit dem Virus beläuft sich auf 10.062. Weltweit beläuft sich die kumulative Zahl bestätigter SARS CoV-2-Infektionen derzeit* auf mehr als 43 Millionen. Die Zahl der Todesopfer im Zusammenhang mit dem Virus beläuft sich aktuell auf mehr als 1,15 Millionen.

Bild 1 Statista, Stand 26. Okt.2020: Anzahl Infektionen und Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland seit Januar 2020

Gemeldet sind bei „statista“ 443.189 Fälle und 10.062 Corona-Opfer, also eine Mortalität in Deutschland von 2,27 %.

Das RKI meldet am gleichen Tag für Deutschland eine Mortalität von 2,3 %. Dass statista mehr Fälle, aber weniger Tote als das RKI meldet, muss man nachsehen. Statista hat allerdings auch Grafiken, in denen Übereinstimmung herrscht:

Bild 2 RKI: Coronafälle Deutschland, Abfrage 26.10.2020. Quelle: RKI Dashboard

Für Bayern meldet das RKI am gleichen Tag eine Mortalität von 3 %:

Bild 3 RKI: Coronafälle Bayern, Abfrage 26.10.2020. Quelle: RKI Dashboard

Weiter bietet das RKI-Dashbord zwar viele Daten und Grafien, allerdings sind für Vergleiche und Auswertungen kaum hilfreiche. Werte für die Bundesländer und weltweit muss man einzeln abfragen, die Zahlen abtippen und die Mortalität jeweils selbst berechnen. Nicht einmal im RKI-Lagebericht [1] gibt es darüber Übersichten.
Im Kern eine Demonstration, dass das RKI weiterhin keinerlei Anlass sieht, den Bürger wirklich zu informieren. Aber den Politikern, welche nun die deutsche Wirtschaft und das öffentliche Leben vollends ruinieren wollen, scheint die spartanische, für Maßnahmen-Beschlüsse niemals ausreichende Information zu genügen.

Gerade die wichtigste – die Mortalitäten, also nicht nur die Anzahl Todesfälle, sondern deren Bezüge – scheinen niemanden so richtig zu interessieren.

Bild 4 Statista, Stand 26. Okt.2020: Anzahl gemeldeter Infektionen und absolute Anzahl Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland nach Bundesländern

Bild 4 Statista, Stand 26. Okt.2020: Anzahl gemeldeter Infektionen und absolute Anzahl Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland nach Bundesländern

Das Statistische Bundesamt bietet eine Grafik. Für die Corona-Mortalität bietet es allerdings keine aufgeschlüsselten Daten. Lediglich in einem Bericht, der bis zur KW 20 reicht (aktuell KW 44), lässt ich dazu etwas nachlesen.

Bild 5 Sterbefallzahlen unter Einbeziehung der „Corona-Sterbefälle“ Quelle: Statistisches Bundesamt

Zum Glück gibt es weitere Seiten mit Coronadaten und auch eine, welche vollständig auf Länderebene aufschlüsselt.

Bild 6 Tabelle mit den höchsten Mortalitätsdaten der Bundesländer. Quelle: Corona in Zahlen.de

Bild 7 Tabelle mit den Mortalitätsdaten aller Bundesländer. Quelle: Corona in Zahlen.de

Somit sagen die Zahlen
Im Bayernland herrscht:
– die dritthöchste Mortalität der 16 Bundesländer,
– obwohl es ein Flächenland ist, die zweithöchste Infektionsrate und
– die höchste Anzahl Todesfälle

Wenn das nicht ein Beweis ist, dass Herr Söder vielleicht vieles kann, aber auf keinen Fall „Corona“ besser lenken, als die Mehrzahl seiner Länderkollegen (rein persönliche Meinung des Autors). Vielleicht in Grund, warum seine Gesundheitsministerin mit ihrer Ausbildung als Ärztin so selten zu Wort kommt. Vielleicht würde ihm diese dank Fachwissen teilweise widersprechen …

Wie nun oft „lamentiert“. Bei uns legt niemand der Berichterstatter Wert auf übersichtliche Darstellungen, schon gar nicht auf Vergleichbarkeit der Daten.
In der Schweiz ist das (manchmal) etwas anders. Davon eine Grafik zu Corona und mit einer interessanten, zusätzlichen Aussage zur angeblich so schlimmen Übersterblichkeit durch Hitzewellen (im Vergleich mit der bei Kälte durch Grippe):

Bild 8 Über-Sterblichkeiten der letzten vier Jahre in der Schweiz durch Grippe, Hitzewellen, Corona. Quelle: NZZ

Exemplarischer Corona-Mortalitätsvergleich international

Vor wenigen Wochen gewann in Neuseeland eine GRÜN-Linke Frau überlegen die Parlamentswahl. Anlass eines Redaktions-Kommentars in der Lokalzeitung des Autors mit der Aussage: Frauen, wie die in Neuseeland und unsere Kanzlerin, würden (vor allem auch bei Corona) alles viel besser machen (als Männer), während exemplarisch Trump und Bolsonaro nur Desaster fabrizieren.

Dazu sei angemerkt, dass zum Zeitpunkt der Wahl und des Zeitungs-Kommentars in der Grafik die USA hinter Deutschland (also mit geringerer Mortalität) und gleich vor Deutschland Brasilien mit einer geringfügig höheren stand. Doch was interessieren einen Haltungs-Redakteur Fakten, wenn die tägliche Order lautet, die unfehlbare Merkel hoch zu loben und mindestens einmal gegen Trump zu polarisieren.

Bild 9 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 15. Oktober 2020). Quelle: statista

Zumindest für unsere unfehlbare Kanzlerin stimmte damals die Lobhudelei im Zeitungskommentar überhaupt nicht. Und derzeit ist die Frage, ob die Berichts-Ungenauigkeiten nicht weiter das gleiche Bild (wie damals) ergeben, neben der Frage, warum der damalige Kommentator nur Bolsonaro und Trump erwähnte, die im Vergleich weit desaströseren EU-Nachbarländer – und das desaströse Bayern welches auch aktuell noch schlechter als Bolsonaro (Brasilien) und auch Deutschland gesamt abschneidet -, nicht.

Bild 10 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 26. Oktober 2020) Quelle: statista

Allerdings hatte der Kommentator an einer Stelle recht. Die Corona-Mortalitätsrate in Neuseeland beträgt nur 1,3 %.
Es gibt demnach genau so wie bei Männern gut und schlecht lenkende Frauen, wobei vom Zeitungskommentator unbemerkt, nach den Zahlen eine Corona besonders schlecht lenkende Frau ausgerechnet unsere unfehlbare Merkel zu sein scheint.

Bild 11. 26.10.2020 Coronadaten Neuseeland. Quelle

In der Verlaufsgrafik von Neuseeland muss man die Todesfälle richtiggehend suchen.

Bild 12 Neuseeland, Covid-19-Fälle (blau) und Mortalitätsereignisse (schwarz). Quelle: NZ COVID-19 Dashboard

Das Mysterium von Mortalitätswerten

Wie kann es sein, dass das unscheinbare Neuseeland eine Corona-Mortalität von lediglich 1,3 % und das Hochtechnologieland Bayern eine von 3 % ausweist (Deutschland von 2,24 %)? Da muss man die Frage stellen, ob die deutschen Krankenhäuser überhaupt sachgerecht behandeln (können).

Zum Beispiel ist in Neuseeland trotz gemeldeter 1.941 Corona-Fälle keine Person hospitalisiert:

Bild 13 Covid-19-Daten Neuseeland am 2.10.2020. Quelle: Ministry of Health, Manatu Hauora: COVID-19: Current cases

Kann der „Erfolg“ etwa daran liegen, dass Neuseeland kaum Intensivbetten und wenige Beatmungsgeräte hat?
WIKIPEDIA: … Mit zur Entscheidung über einen harten Lockdown in Neuseeland hatte möglicherweise u. a. auch die relative geringe Anzahl von Intensivbetten mit Beatmungsgeräten geführt, die in Neuseeland bei 5 pro 100.000 Einwohnern liegt (im Vergleich dazu liegt in Deutschland die Zahl bei 29) …

Es gibt sicher viele Erklärungen für den großen Unterschied. Nur ist keine zu finden. Auch Bayern scheint es nicht zu stören, eine drei Mal so hohe Mortalität wie Neuseeland zu haben. Und es erklären, braucht es seinen Untertanen ein so toller und angeblich bewährter Corona-Krisenmanager wie Herr Söder wohl schon gar nicht.
Doch hat Herr Söder schon eine Lösung parat. Wenn man in der Politik Maßnahmen weiterführen, die zunehmend kritisch werdende Verantwortung jedoch abgeben will, etabliert man einen „Ethikrat“, der es übernimmt. Und so wurde in Bayern ein Corona-Ethikrat etabliert: Vorsitz: Eine ehemalige Regionalbischöfin und dazu zwei Juristen in Pension.
Wie heute in der Politik üblich: Keinerlei Sachkunde zum Thema (erwünscht), aber um die immer härteren Strafen juristisch zu begründen und als „Segen vom Höchsten“ zu erklären, ausnehmend viel Kompetenz …

Interessant ist eine beim DIVI hinterlegte Tabelle (wie immer jedoch mit fehlenden Daten, hier dem Bezug zur beim PKI gemeldeten Gesamtzahl):
– RKI: 437.866 Fälle; 10.056 Verstorbene,
– DIVI-Tabelle: 261.023 Fälle; 8.513 Verstorbene (Der Unterschied ergibt sich, weil nur hospitalisierte Fälle betrachtet sind).

Bild 14 Corona-Fallzahlen der Hospitalisierung. DIVI [1]

Wer das orientierend auswerten will, muss die Zahlen gefälligst selbst abtippen und rechnen. Dabei macht man sich dann allerdings auch Gedanken, welche Erkenntnisse es bringen (oder verhindern) soll, Pflegeeinrichtungen, Unterbringung von Asylsuchenden und Justizvollzugsanstalten zusammenzufassen. Aber bei „Corona“ ist auch nach fast einem dreiviertel Jahr teuerster Aktionen und Zerstörung ganzer Wirtschaftszweige oft noch kein Sinn zu finden, der über reinen Aktionismus hinausreicht.

Bild 15 Corona-Fallzahlen der Hospitalisierung (Daten von Bild 14 vom Autor bearbeitet). Mortalität absolut: 6,5 Monate Pandemiedauer. Mortalitätsrate hochgerechnet: Auf den fiktiven Jahreswert (pa) multipliziert.

Trotz aller Kritik zeigt die Tabelle deutlich, wo hohe Mortalitätszahlen vorliegen und wo sich lediglich „Rauschen“ findet. Es zeigt auch, dass die Fleischindustrie keinen Anteil hat, obwohl dieser aus politischen Gründen besonders arg zugesetzt wurde.

Anmerkung: Die mittlere, natürliche Mortalität der Gesamtbevölkerung beträgt ca. 1,25 %/Jahr; damit 0,1 %/Monat, für die bisher ca. 6,5 Monate dauernde „Pandemie“ ca. 0,65 %.

Um ein „Gefühl“ zu erhalten, wie sich die Sterberate auf die Altersstruktur verteilt (begrenzt auf Alter bis 70 Jahre), die Grafik dazu. Die kürzeren Balken sind die Frauen, welche eine erheblich niedrigere Rate haben als die Männer.

Damit kann man sich ein Bild machen, wie selbst im jüngeren Alter Sterberaten im Bereich um 0,1 bis 0,2 % „natürlich“ sind.

Bild 16 Deutschland Sterbezahlen nach Alter (über 70 Jahre abgeschnitten) für 6,5 Monate Corona-Pandemiedauer. Grafik vom Autor erstellt. Daten: gbe-bund

Es gab schon Stimmen die behaupteten, es wäre sinnvoll(er), nur die wenigen Risikopersonen zu schützen. So etwas Dummes kann natürlich nur von Coronaleugnern und von rääääächts kommen. Söder zeigt, wie es richtig geht: Dem (wie Pferde im Grunde dummen, aber nach dem „Einreiten“ mit Zaumzeug gut lenkbarem) Volk muss man nur „die Zügel“ weiter anziehen …
Der Erfolg scheint (oder eher schien?) ihm recht zu geben:

Bild 17 Quelle SZ

Weitere Grafiken vom DIVI-Register zur Info:

Bild 18 Stand 27.10. Anzahl gemeldeter, intensivmedizinisch behandelter Fälle und belegte Intensivbetten. Quelle: DIVI Intensivregister

Bild 19 Stand 27.10. Bundesländer: Belegung der Intensivbetten mit Covid-Patienten. Quelle: DIVI Intensivregister

Sobald man meinen könnte, zu Corona wenigstens einen ganz, ganz groben Überblich von Daten zu haben, kommen andere auf neu. Und wie so oft: Keine der vielen Fachpersonen hat es bisher vermutet:
The European 23.10.2020: Covid-19 weniger tödlich als vermutet – Infektionssterblichkeit liegt bei 0,23 Prozent
Die WHO hat eine Metastudie publiziert, die weltweite Antikörper-Studien ausgewertet hat. Der Grund: es geht darum, die Infektionssterblichkeit von Covid-19 zu bestimmen. Das Ergebnis ist erstaunlich: Möglicherweise ist das neuartige Coronavirus deutlich weniger tödlich, als bisher vermutet wurde …
... Die WHO hat eine Metastudie publiziert, die weltweite Antikörper-Studien ausgewertet hat. Der Grund: es geht darum, die Infektionssterblichkeit von Covid-19 zu bestimmen. Das Ergebnis ist erstaunlich: Möglicherweise ist das neuartige Coronavirus deutlich weniger tödlich, als bisher vermutet wurde ,,,
Ioannidis hatte in seiner Metastudie eine durchschnittliche Infektionssterblichkeit über 51 Standorte hinweg von 0,27 Prozent errechnet. Korrigierte sie später auf 0,23 Prozent. Zu einem noch überraschenderen Ergebnis kam er dort, wo weniger als 118 Todesfällen pro eine Million Menschen verzeichnet wurden. Dort betrug die Rate lediglich 0,09 Prozent. Wo 118 bis 500 Covid-19-Tote pro eine Million Einwohner gezählt wurden, betrug sie 0,20 Prozent. Und an Orten, die am schlimmsten von der Covid-Pandemie betroffen wurden errechnete er eine Infektionssterblichkeit von 0,57 Prozent. Auch mit Blick auf Bevölkerungsgruppen, die unter 70 Jahre alt sind, kam er zu einem anderen Befund als Christian Drosten. Während Deutschlands Corona-Virologe von einer Sterblichkeit in der Bundesrepublik von rund einem Prozent ausgeht, ist sich Ioannidis sicher, dass die durchschnittliche Rate sogar nur 0,05 Prozent betrage …

Nun stellt sich die Frage: Hat Herr Trump recht, dass er die WHO als „unbrauchbar“ bezeichnet und deren Budget kürzt, oder ist die WHO doch „genial“ und weiß es viel besser, als alle deutschen Koryphäen zusammen?
Unabhängig davon: Sollte die WHO recht haben, müssten sich auch Deutschlands „Coronaretter“ eigentlich „warm anziehen“, wenn nicht, wäre der Schritt von Trump auch für Deutschland angebracht.
Nur: Beides wird in Deutschland nicht passieren.

Quellen

[1] RKI: Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 25.10.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND




Klima-„Katastrophe“: Mythen, Realitäten und warum man sich Gedanken machen sollte

Es ist viel logischer anzunehmen, dass die Temperatur-Variationen auf der Erde auf natürliche Ursachen zurückzuführen sind, wie dies seit jeher der Fall war und ist, noch bevor Menschen oder Tiere auf der Erde wandelten. Wir wissen, dass wir uns von einer Kleinen Eiszeit erholen, die etwa zu der Zeit endete, als Washington in der Nähe von Valley Forge kämpfte. Diese Erwärmung hat zur Freisetzung von Kohlendioxid aus den Ozeanen geführt, das für die Begrünung der Erde in den letzten Jahrzehnten sorgte. Für das Protokoll ist festzuhalten, dass die gesamte Erwärmung der Atmosphäre seit 1880 etwa ein Grad Celsius betrug – im Gegensatz zu den Vorhersagen der von den Vereinten Nationen unterstützten Computermodelle, die von einem Anstieg von 3-4 Grad ausgehen.

Der offensichtliche Grund für die weite Verbreitung der oben erwähnten abwegigen Vorstellungen liegt darin, dass mehr als eine Milliarde Dollar pro Tag weltweit für die Förderung von Bemühungen zur Eindämmung des Klimawandels ausgegeben werden, ungeachtet der Unfähigkeit des Menschen, dies bewerkstelligen zu können. Ein großer Teil dieses Geldes wird für den Versuch ausgegeben, die Nutzung fossiler Brennstoffe zu stoppen, was im Falle, dass es jemals erreicht würde, die Zivilisation, wie wir sie heute kennen, außer in den am meisten verarmten Nationen zerschlagen würde.

Die Hauptgründe dafür, dass sich das Klima der Erde über Milliarden von Jahren hinweg ständig verändert hat, sind: Schwankungen der von der Sonne ausgehenden Strahlung, Schwankungen der Umlaufbahn und Neigung der Erde, Schwankungen der Wolkendecke, Schwankungen der Meeresströmungen, Vulkanismus, Kontinentalverschiebungen und viele andere kaum verstandene variable Faktoren. Es ist unglaublich, dass unsere Regierung Milliarden Dollar Steuergelder verbrennt, nur um den Thermostat der Erde mit ein paar unbedeutenden Variablen festzunageln, die in mathematische Computermodelle eingespeist werden, welche niemals vernünftige Antworten gegeben haben und auch niemals geben werden.

Vor der industriellen Revolution, die Anfang der 1800er Jahre begann, war die Temperatur so variabel wie heute, wobei es über viele Perioden der vergangenen 12.000 Jahre wärmer war als heute. Eingelagerte kalte Perioden machten das Leben mit einer Lebenserwartung von weniger als 30 Jahren wirklich am schwierigsten, bis fossile Brennstoffe aufkamen, um die Belastung des Menschen zu verringern. Jetzt ist in allen Teilen der Welt die Lebenserwartung unabhängig vom Klima auf über 70 Jahre gestiegen. Statt schrecklicher Katastrophen, die von Umweltaktivisten vorhergesagt wurden und werden gedeiht die Menschheit.

Der vorhergesagte sprunghafte Anstieg der Erderwärmung ist nie eingetreten, deshalb wurde er in Klimawandel umbenannt, wobei die Aktivisten nie etwas falsch machen konnten, da sich Klima und Wetter ständig ändern. Sie lagen mit der Erwärmung völlig falsch. Nach Angaben der National Oceanographic and Atmospheric Agency NOAA waren die 1930er Jahre das wärmste Jahrzehnt in den Aufzeichnungen. Diese zeigen außerdem, dass in den 1930er Jahren 23 Rekord-Höchsttemperaturen aufgetreten waren, während in den vergangenen 20 Jahren nur zwei derartige Rekorde verzeichnet wurden.

Und doch ist die wahre Apokalypse nicht die globale Erwärmung, sondern der Verzicht auf fossile Brennstoffe und Kernkraft. Dieser Verzicht muss um jeden Preis vermieden werden, wenn wir nicht unsere gesamte bisherige Lebensweise aufgeben wollen. Ohne diese Brennstoffe wird die moderne Landwirtschaft nicht mehr in der Lage sein, die Weltbevölkerung zu ernähren. Weder Windturbinen oder Sonnenkollektoren, noch die riesigen Batterien, die zur Unterstützung dieser intermittierenden Quellen benötigt werden, noch irgendetwas aus Beton oder Stahl oder vielen anderen Materialien können ohne fossile Brennstoffe hergestellt werden.

Aber man fürchte sich nicht vor lebenswichtigen Materialien oder Prozessen, die sich aufgrund von Umwelteiferern oder politischer Irrwege abspielen. Realistischerweise wird jede signifikante Reduzierung der fossilen Brennstoffe zu viel höheren Energiekosten führen, gefolgt von steigenden Preisen für alle Produkte, die wir verwenden, einschließlich Nahrung, Wasser, Transport und Wohnen. Jede Verwaltung, die solche Einschnitte versucht, wird mit Protesten der gesamten Bevölkerung konfrontiert werden, die ihr bequemes Leben wiederherstellen möchte. Diese unvermeidlichen Auswirkungen sind bereits in mehreren europäischen Ländern und Australien eingetreten, als sie versuchten, fossile und nukleare Brennstoffe einzusparen. Nur wenige von uns wünschen sich ein Leben ohne I-Telefon oder Amazon-Lieferungen, deshalb wird es amüsant sein zu sehen, wie Umweltschützer damit prahlen, in den kommenden Jahrzehnten ohne Kohlenstoff-basierte Brennstoffe zu arbeiten, während das Leben um sie herum zusammenbricht.

In der Realität hat und kann ein Wind- oder Solarkraftwerk weltweit niemals ein Kohle- oder Gaskraftwerk ersetzen, sondern muss immer ein parasitäres Anhängsel des Stromnetzes bleiben. Aufgrund ihrer Intermittenz erzeugen Wind- oder Sonnenkraftwerke nur unregelmäßige Stromstöße und belasten damit das Netz, das auch an bewölkten und windstillen Tagen eine feste Spannung und Frequenz aufrechterhalten muss. Dies kann nur erreicht werden, indem die intermittierende Wind- oder Sonnenenergie durch elektrische Energie aus fossilen Energiequellen ergänzt wird, die in der Lage sind, die Leistung schnell zu verändern.

Ein weiterer Irrsinn in Bezug auf Wind und Sonne sind die Flächen, die sie benötigen, um die gleichen 1000 Megawatt aus einem typischen fossilen Kraftwerk zu erzeugen, das weniger als eine Quadratmeile Land beansprucht. Ein vergleichbarer Windpark besteht aus über 3000 Mühlen und benötigt über 200 Quadratmeilen Landfläche. Ein vergleichbarer Solarpark würde Millionen von Paneelen benötigen, die etwa die Hälfte dieser Landfläche bedecken.

Erneuerbare-Energie-Zeloten behaupten, dass Batterien im industriellen Maßstab die Probleme der Intermittenz lösen werden, indem sie Strom aus Wind- und Solarparks speichern und dann bei Bedarf wieder zurückgeben. Batterien mit ausreichender Kapazität dafür sind heute und in Zukunft unbezahlbar. Dazu gehören sogar die Tesla-Batterien von Elon Musk, die für eine riesige Solaranlage in der Nähe von Las Vegas geplant sind. Einige solcher Batterien werden bereits in kleinerem Maßstab von Stromversorgungsunternehmen im ganzen Land installiert. Man achte einmal auf künftige Stromausfälle, die sich aus diesen fragwürdigen Projekten ergeben könnten.

Wir haben einige Zahlen zu Colorados Absicht durchgespielt, ein vollständig erneuerbarer Staat zu werden, was die Abschaltung aller Kohle- und Gaskraftwerke erfordern würde. Bei einer Bevölkerung von 6 Millionen Einwohnern würde Colorado 5,6 Megawattstunden Batteriespeicher benötigen, was über eine Billion Dollar oder etwa 167.000 Dollar pro Person kosten würde. Geht man davon aus, dass eine vierköpfige Familie mit Tesla-Batteriepacks, die alle zehn Jahre ersetzt werden müssen, angemessene Batteriespeicher benötigt, würden sich die Kosten für Batterien allein den Kosten einer Hypothek auf ein Haus mit 2 Millionen Dollar annähern. Solarenergiezuschläge mit staatlichen Zuschüssen können die Energiekosten für einige Hausbesitzer in einigen Gegenden senken, aber völlig netzunabhängig zu sein, ist entweder teuer oder ohne viele Annehmlichkeiten.

Einer der Hauptfaktoren steigender Strompreise und höherer Rechnungen der Versorgungsunternehmen ist die verstärkte Nutzung subventionierter erneuerbarer Energien. Die Betriebskosten für Kohle- und Kernkraft liegen traditionell zwischen 2 und 3 Cent pro Kilowattstunde (kWh) und Erdgas zwischen 3 und 10 Cent pro kWh, während die Windkraft mit staatlichen Subventionen zwischen 15 und 25 Cent pro Kilowattstunde liegt.

Seitdem Deutschland weitgehend von Wind- und Sonnenenergie abhängig geworden ist [?], sind die durchschnittlichen Strompreise auf über 35 Cent pro kWh gestiegen, verglichen mit US-Raten von 10 bis 13 Cent. Wenn es nicht wieder freien Märkten erlaubt wird, unsere Energieindustrie zu regulieren, ist zu erwarten, dass sich unsere Energiepreise in den kommenden Jahren unter jeder Regierung, die erneuerbare Energien fördert, ebenfalls verdoppeln und verdreifachen werden.

Heute haben 29 US-Bundesstaaten plus der District of Columbia [= Washington DC] Vorschriften für erneuerbare Energien, die Versorgungsunternehmen dazu zwingen sollen, bestimmte Prozentsätze ihres Stromes mittels erneuerbaren Energiequellen zu erzeugen. Dies ist alles andere als ein freier Energiemarkt. Nach Angaben der U.S. Energy Information Administration EIA liegen die Strompreise in den Bundesstaaten mit Erneuerbare-Energie-Vorschriften um durchschnittlich 26% höher als in den Staaten ohne. Wie viel mehr müssten wir zahlen, wenn erneuerbare Energien die einzige Quelle für unseren Strom würden?

Kohle, Öl und Erdgas waren ein gewaltiger Segen, insbesondere für Entwicklungsländer. Der weltweite Verbrauch fossiler Brennstoffe hat sich im Zeitraum von 1980 bis 2015 verdoppelt und ist sowohl in China als auch in Indien um mehr als das Fünffache gestiegen. Statt der vorhergesagten schrecklichen Klimakatastrophen stieg die Lebenserwartung in China um 15% (von 65 auf 75 Jahre) und in Indien um 34% (von 49 auf 66 Jahre); das Monatseinkommen erhöhte sich in China um 1500% und in Indien um 400%. Die Säuglingssterblichkeit sak in China um 70% und in Indien um 58%, und die Unterernährung ging in beiden Ländern während desselben Zeitraums von 35 Jahren, in dem fossile Brennstoffe im Überfluss und zu erschwinglichen Preisen genutzt wurden, um 40% zurück.

Überraschung, Überraschung: alle wichtigen Maßzahlen der US-Luft- und Wasserverschmutzung gingen in diesem Zeitraum zurück. All diese positiven Entwicklungen stehen in direktem Zusammenhang mit der Verfügbarkeit kostengünstiger Energie aus Kohlenstoff-basierten Brennstoffen. Das Kohlendioxid nahm in diesem gesamten Zeitraum weiter zu und erhöhte die Wachstumsraten unserer Wälder und Nahrungspflanzen, während es absolut keine negativen Auswirkungen auf unseren Planeten hatte. Und da ist noch mehr! In dem von uns diskutierten Zeitraum gingen die klimabedingten Todesfälle um 98% auf nahezu Null zurück. Warum? Wiederum ermöglichte es mehr verfügbare, kostengünstige Energie, mehr Menschen vor Bränden, Überschwemmungen, Stürmen usw. zu retten und zu bewahren, und die Effektivität der Krankenhäuser hat stetig zugenommen. Wenn Herr Biden die Präsidentschaft der Vereinigten Staaten beansprucht, wird die Nation leider wahrscheinlich beginnen, sich in der Zeit zurückzuentwickeln, so wie es anscheinend in Europa bereits der Fall ist.

Das Beispiel Europas ist sehr treffend. Im Juni 2000 rief die Europäische Union (EU) das European Climate Change Programme ins Leben, das den Ausbau von Wind- und Solarkapazitäten förderte. Durch Einspeisetarife wurden künstlich hohe Preise für Strom aus Wind- und Sonnenenergie festgelegt, während durch Vorschriften Prioritäten für die erneuerbaren Energien gegenüber konventionellen Quellen festgelegt wurden.

Tausende von Windmühlen wurden gebaut und installiert, Millionen von Sonnenkollektoren auf Dächer montiert, was die verschiedenen Regierungen zwischen 2000 und 2016 mehr als eine Billion Dollar kostete. Die Strompreise für Privathaushalte sind in ganz Europa in die Höhe geschossen und näherten sich sowohl in Deutschland als auch in Dänemark 40 Cent pro kWh. Sowohl für erneuerbare als auch für konventionelle Energien sind nun hohe Subventionen erforderlich, um die Lichter nicht ausgehen zu lassen. Kalifornien befindet sich bereits auf diesem Weg, unabhängig davon, wer im November das Weiße Haus beansprucht, und mehrere andere Bundesstaaten flirten ebenfalls mit dieser katastrophalen Politik gegen fossile Brennstoffe. Dies sind verrückte Zeiten, in denen brillante deutsche Ingenieure sich bücken, um sich selbst in den Fuß zu schießen. Können wir weit hinterher sein?

[Hervorhebung vom Übersetzer]

Authors: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Carl Langner is a member of the National Academy of Engineering. He received his Ph.D from the University of Florida in 1973. Carl worked as an Offshore Pipeline Engineer from 1966 to 1999 and a consulting engineer in Texas from 2000 to 2015. He currently resides in Colorado.

Link: https://www.cfact.org/2020/10/21/climate-catastrophe-summary-for-thoughtful-friends/

Übersetzt von Chris Frey EIKE