CO2-Koalition: „Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind“

Hier die Executive Summary dieser Studie:

Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind

Richard S. Lindzen und John R. Christy

Es ist eine Ehre für die CO2-Koalition, diese Studie zum Thema „Climate Issues in Depth“ von zwei der angesehensten und profiliertesten Atmosphärenphysiker Amerikas vorzustellen, dem emeritierten MIT-Professor Richard Lindzen, seit vielen Jahren Mitglied der Koalition ist, und Prof. John Christy von der University of Alabama in Huntsville.

Professor Lindzen hat in seiner fünf Jahrzehnte währenden Karriere über 200 wissenschaftliche Artikel und Bücher veröffentlicht. Er hatte Professuren an der University of Chicago, der Harvard University und dem MIT inne. Er ist Mitglied und Preisträger der American Meteorological Society und der American Geophysical Union. Er ist auch Mitglied der National Academy of Science und war einer der Hauptautoren des 3. IPCC-Zustandsberichtes. Seine Forschung hat die wissenschaftlichen Unsicherheiten über die Auswirkungen von Kohlendioxidemissionen auf Temperatur und Klima im Allgemeinen aufgezeigt.

Professor Christy, der Direktor des Earth System Science Center an der University of Alabama in Huntsville, begann 1987 mit der Untersuchung globaler Klimafragen. Seit 2000 ist er Staatsklimatologe von Alabama und seit 2002 Mitglied der American Meteorological Society. Zusammen mit dem Mitglied der CO2-Koalition Dr. Roy W. Spencer entwickelte und pflegt er einen der wichtigsten globalen Temperaturdatensätze, auf den sich Wissenschaftler und Regierungsstellen stützen, wobei er Mikrowellendaten verwendet, die seit 1979 von Satelliten in der Troposphäre beobachtet wurden. Für diese Leistung wurde ihnen die Medal for Exceptional Scientific Achievement der NASA verliehen.

In diesem Beitrag soll erläutert werden, wie der Datensatz, der von politischen Entscheidungsträgern und den Medien als globale Aufzeichnung der Oberflächentemperatur bezeichnet wird, tatsächlich erstellt wird und wo er sich in das mit dem Klimaalarm verbundene populäre Narrativ einfügt.

Executive Summary

Im Mittelpunkt der meisten Diskussionen über die globale Erwärmung steht die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur – oft etwas irreführend als Aufzeichnung der globalen Mitteltemperatur bezeichnet. Dieses Papier befasst sich mit zwei Aspekten dieser Aufzeichnung. Erstens stellen wir fest, dass diese Aufzeichnung nur ein Glied in einer ziemlich langen Kette von Folgerungen ist, die zu der behaupteten Notwendigkeit einer weltweiten Reduzierung der CO2-Emissionen führt. Zweitens untersuchen wir die Auswirkungen der Art und Weise, wie die Aufzeichnung konstruiert und präsentiert wird, und wir zeigen, warum die Aufzeichnung irreführend ist.

Dies liegt daran, dass die Aufzeichnung oft als eine Art einzelne, direkte instrumentelle Messung behandelt wird. Wie jedoch der verstorbene Stan Grotch vom Laurence Livermore Laboratory vor 30 Jahren feststellte, handelt es sich in Wirklichkeit um den Mittelwert weit verstreuter Stationsdaten, bei denen die tatsächlichen Datenpunkte fast gleichmäßig zwischen hohen positiven und negativen Werten verteilt sind.

Der Mittelwert ist einfach die kleine Differenz dieser positiven und negativen Ausschläge, mit dem üblichen Problem, das mit kleinen Unterschieden großer Zahlen verbunden ist: Zumindest bis jetzt wird der Anstieg des globalen Mittelwertes um ein Grad Celsius seit 1900 durch die normalen Schwankungen an einzelnen Stationen überlagert und hat daher wenig Bezug zu dem, was an einer bestimmten Station tatsächlich vor sich geht.

Die Veränderungen an den Stationen verteilen sich um den globalen durchschnittlichen Temperaturanstieg von einem Grad. Selbst wenn eine einzelne Station diesen Anstieg selbst registriert hätte, würde dies dort eine typische Jahrestemperaturspanne von z.B. -10 bis 40 Grad im Jahr 1900 annehmen und sie durch eine Spanne von heute -9 bis 41 Grad ersetzen. Für Menschen, Pflanzen und Wetter an dieser Station wäre es schwierig, diesen Unterschied zu erkennen.

Auf den Diagrammen, die in fast allen Präsentationen verwendet werden, sieht der Anstieg jedoch signifikant aus, da sie den Bereich der ursprünglichen Datenpunkte auslassen und den Maßstab erweitern, um die mittlere Veränderung groß erscheinen zu lassen.

Die Aufzeichnung zeigt zwar gewisse beständige Trends, aber sie weist auch starkes Rauschen auf, und Schwankungen von einem oder zwei Zehntelgraden sind wahrscheinlich nicht signifikant. Im öffentlichen Diskurs wird den Größenordnungen wenig Aufmerksamkeit geschenkt; der Schwerpunkt liegt vielmehr darauf, ob diese Anomalie zu- oder abnimmt. Angesichts des Rauschens und der Abtastfehler ist es recht einfach, eine solche Mittelwertbildung zu „adjustieren“ und sogar das Vorzeichen eines Trends von positiv auf negativ zu ändern.

Die üblichen Präsentationen unterdrücken das Rauschen oft durch die Verwendung von laufenden Durchschnittswerten über Zeiträume von 5 bis 11 Jahren. Eine solche Verarbeitung kann jedoch auch sinnvolle Merkmale unterdrücken, wie z.B. die großen Schwankungen, die bei den einzelnen Stationen immer wieder auftreten. Schließlich zeigen wir die großen natürlichen Temperaturschwankungen, mit denen die Amerikaner in 14 Großstädten jedes Jahr zurechtkommen müssen. So reicht beispielsweise der durchschnittliche Unterschied zwischen dem kältesten und dem wärmsten Moment eines jeden Jahres von etwa 25 Grad Celsius in Miami bis zu 55 Grad in Denver. Dem steht der leicht zu bewältigende Anstieg der globalen Mitteltemperaturanomalie um 1,2 Grad Celsius in den letzten 120 Jahren gegenüber, der in den Medien und in politischen Kreisen für so viel Beunruhigung gesorgt hat.

CO2-coalition

Die ganze Studie steht hier (PDF).

Hier noch ein Auszug aus den concluding remarks:

Tatsächlich entspricht die in Abbildung 7 als alarmierend dargestellte globale Temperaturänderung von 1,2 Grad Celsius in den letzten 120 Jahren nur der Dicke der „mittleren“ Linie in Abbildung 9. Wie die Abbildung zeigt, reicht der Unterschied der Durchschnittstemperatur von Januar bis Juli in diesen Großstädten von knapp zehn Grad in Los Angeles bis fast 30 Grad in Chicago. Und der durchschnittliche Unterschied zwischen den kältesten und wärmsten Zeitpunkten im Jahr reicht von etwa 25 Grad in Miami bis zu 55 Grad in Denver.

Hier diese Abbildung 7:

Und hier Abbildung 9:

Ich denke, ein noch besserer Weg, die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur in den richtigen Kontext zu stellen, besteht darin, sie im gleichen Maßstab wie ein gewöhnliches Haushaltsthermometer darzustellen:

Anomalie im Vergleich zum Thermometer. Oh, wo, oh, wo ist mein kleiner HadCRUT4 hin?

In der Darstellung über 0 °C auf HadCRUT4 ist bei 15 °C auf dem Thermometer die ungefähre mittlere Oberflächentemperatur auf der Erde aufgetragen. Beide Thermometer haben einen Schwankungsbereich von 80 °C.

Link: https://wattsupwiththat.com/2020/12/08/co2-coalition-the-global-mean-temperature-anomaly-record-how-it-works-and-why-it-is-misleading/

Übersetzt von Chris Frey EIKE




Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterb­lichkeit“ zu finden

Aktuelle Corona-Berichterstattung

Wenn man der Berichterstattung und unseren Politikern glauben möchte, „rast“ Deutschland auf eine Covid-Katastrophe zu. Vor allem steigen die Sterbezahlen immer schlimmer. Bereits aktuell gilt die Sterberate als „unzumutbar“:

Bild 1 Screenshot vom 03.12.2020

Handelsblatt online, 06.12.2020: „Es braucht jetzt konsequentes Vorgehen“, sagte Söder der „Bild am Sonntag“. „Wir können die hohen Todeszahlen in Deutschland nicht hinnehmen. Die Ansteckungszahlen sind weiterhin zu hoch.

Der Spiegel 06.12.2020: Corona: Bayern ruft erneut Katastrophenfall aus

Bild 2 Screenshot

Die statistischen Zahlen zum 07.12.2020

Seit wann hat Deutschland wirklich so etwas wie eine „Übersterblichkeit?

Interessant ist dazu eine Sterbezahlengrafik des Statistischen Bundesamtes mit den Sterbewerten seit 1950. Danach steigen die Sterbezahlen seit 2005 kontinierlich an (Anmerkung: Die Grafik ist nicht Einwohnerzahl-bereinigt).
Von 2005 bis 2019 hat die Anzahl jährlich Vertorbener insgesamt um ca. 130.000 Fälle zugenommen, bei fast gleich gebliebener Einwohnerzahl (2005: 82,5 Mio.; 2019: 83 Mio.). Das sind zusätzlich 356 Fälle/Tag oder 2.493/Woche.

Bild 3 Deutschland, Verlauf jährliche Sterbefälle-seit 1950. Quelle: Statistisches Bundesamt

Dazu die Sterbefälle zusätzlich mit den Relativwerten, um die Bevölkerungszahl zu berücksichtigen:

Bild 4 Deutschland, Sterbefälle-Verlauf seit 1950. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Laut RKI sind im Jahr 2020 bisher 19.434 Personen an, oder eher mit Corona verstorben. Zum Jahresende hochgerechnet können es noch zwischen 20 …. 21.000 Personen werden.

Bild 5 Corona. Stand 07.12.2020

Damit beträgt die diesjährige „Corona“-Sterbezahl ca. 15 % der seit dem Jahr 2005 erhöhten, jährlichen Gesamt-Sterberate. Wobei beachtet werden muss, dass es im Jahr 2020 keine deklarierten Influenza-Fälle gibt, so als wäre die in vergangenen Jahren (zuletzt 2017/2018) hoch-tödliche Grippe mit 25.000 Verstorbenen (Angabe RKI) plötzlich verschwunden.

„Dröselt“ man die Sterbefälle weiter auf, sieht man, dass aufgrund der sich stetig verändernden Alterspyramide vor allem die Sterblichkeit ab 70 jährlich zunimmt. Bei der Altersgruppe ab 70 Jahren sind dies jährlich ca. +200.000 Personen.
Geht man davon aus, dass vom Corona-Versterben vorwiegend diese Altersgruppe betroffen ist, beträgt deren Corona-„Überversterben“ gerade einmal 10 % der typischen, jährlichen, durch die Alterspyramide bedingten Mortalitätssteigerung:

Bild 6 Deutschland Sterbezahlen. Vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Übersterblichkeit

Eine deklarierte Sterblichkeit, welche zu extremen, zusätzlichen Maßnahmen Anlass gibt, sollte man annehmen, ist erst gegeben, wenn die Sterberate die der gängigen – und bisher nie zu Sondermaßnahmen führenden – Grippewellen erheblich überschreitet. Und das muss sich in der Gesamt-Sterberate – und nicht nur in Zuweisungen von Sterbezahlen auf eine bestimmte Krankheit – auch zeigen.
Allerdings ist das nicht Konsens, denn das Statistische Bundesamt behauptet, eine Übersterblichkeit wäre bereits gegeben, wenn der Mittelwert der vorhergehenden, letzten vier Jahre (bereits geringfügig) überschritten ist. Wie es auf diese Definition kommt (und damit noch schlimmere Grippejahre davor ausblendet) wird nicht erklärt.
Die sich daraus (bewusst) ergebenden, unterschiedlichen Aussagen zeigen die folgenden Grafiken.

Zuerst das Bild des Sterbeverlaufs, wie ihn das Statistische Bundesamt auf ihrer Homepage darstellt

Bild 7 Verlauf Sterbezahlen auf der Homepage. Quelle: Statistisches Bundesamt

Diese Darstellung ist ganz bewusst angelegt. Warum zeigt sich in den folgenden, anhand der gleichen Daten erstellten Grafiken:

Bild 8 Verlauf Sterbezahlen von Bild 7 mit den Einzeljahren. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Kopiert man die 5 Jahre nicht parallel in eine Jahresscheibe, sondern stellt den gesamten Zeitverlauf in einer Linie dar, relativiert sich das schlimme Corona-Pandemiejahr auf das, was es ist: Vollkommen unspektakulär.

Bild 9 Verlauf absolute Sterbezahlen von Bild 8 in der jährlichen Reihenfolge (den fehlenden Dez. 2020 in Rot weitergeführt). Grafik vom Autor erstellt

Das bleibt auch so wenn man die Jahre vergleichend aufsummiert:

Bild 10 Verlauf Sterbezahlen von Bild 7 als jährliche Summierung. Grafik vom Autor erstellt.

Nach diesen Grafiken gewinnt man den Eindruck, dass viele „Corona-Verstorbene“ auch ohne Corona verstorben wären. Denn sonst müssten sie ja in den Grafiken als zusätzliche Mengen deutlich erkennbar werden. Zumindest der Autor kann dies aber nicht feststellen.

Zur Erinnerung nochmals ein Vergleich „üblicher“ Sterbezahlen von „Pandemien“ die damals als „normal“ empfunden wurden und zu keinerlei politischen Maßnahmen führten (Anmerkung: Doch, es wurde ein Pandemie-Strategieplan erstellt, der als er gebraucht wurde sofort versagte):
Corona 10.12.2020 20.460 (an oder mit) Corona Verstorbene.
Spiegel, 20.04.2020: Historische Pandemien Als die Grippe in Nachkriegsdeutschland wütete
Bis zu 50.000 Westdeutsche sowie einige Tausend Ostdeutsche fielen der sogenannten Hongkong-Grippe zwischen 1968 und 1970 zum Opfer 
(Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 67.000) … Die andere – die sogenannte Asiatische Grippe – hatte rund zehn Jahre zuvor 30.000 Menschen (Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 39.000) in Bundesrepublik und DDR dahingerafft …
Lungenärzte im NetzWährend der letzten großen Grippe-Epidemie von 1995/96 mit etwa 8,5 Millionen Erkrankungsfällen starben allein in Deutschland ca. 30.000 Menschen an den Folgen der Influenza ...
Ärzteblatt.de, 30. September 2019
Berlin – Die außergewöhnlich starke Grippewelle 2017/18 hat nach Schätzungen rund 25.100 Menschen in Deutschland das Leben gekostet.

Fallzahlen im Corona-Hotspot, Stadt Fürth

Dieses beschauliche Städtchen ist inzwischen ein Corona-Hoch-Risikogebiet. Warum, weiß niemand, denn lange passierte dort fast nichts. Aber Nichtwissen ist bei Corona immer noch Standard.
Corona in Zahlen: Die rechnerische Letalitäts- oder Todesrate (gemessen in Todesfällen durch Infektionen) ist derzeit am höchsten in den folgenden Landkreisen:
Tirschenreuth mit 7,63%
Odenwaldkreis mit 5,41%
Straubing mit 5,35%
Wolfsburg mit 5,34%
Fürth mit 4,43%

Nun eine Betrachtung zur Corona-Mortalität in einem solchen Hochrisiko-Hotspot:

Bild 11 Stadt Fürth. Verlauf der Corona-Fallzahlen. Beachten: „aktuell Erkrankte Fälle“ sind Tageswerte. „Todesfälle“(Orange)/“Wieder Gesund“ sind kumulierte Werte. Quelle kosy

03. Juni: Summe Todesfälle: 37
29. Okt: Summe Todesfälle: 38
08. Dez.: Summe Todesfälle: 55

Dazu die Tabelle der aktuellen Fallzahlen:

Bild 12 Stadt Fürth. Corona-verstorben gesamt 55 Personen, davon 53 ab 70 Jahre alt. Abfrage 08.12.2020. Quelle: kosy

Nun der Vergleich Infektionen (Fallzahl) und Mortalität. Deutlich erkennbar verläuft die „zweite Welle“ gegenüber der ersten im Mortalitätsgeschehen mehr als wesentlich „glimpflicher“.

Bild 13 Stadt Fürth, Verlauf Corona-Infektionen und –Todesfälle. Grafik vom Autor durch übereinander kopieren erstellt. Quelle: Corona-in-Zahlen.de

Dazu der statistische Vergleich mit „Standard-“ Mortalität:
Deutschland
Jahr 2018: Einwohnerzahl: 82,8 Mio. Einschl. KW 49 verstorben: 897.408 Personen.
Davon waren über 70 Jahre alt: 765.980 Personen (anteilig 85,4 % der Verstorbenen)
Fürth
Einwohnerzahl: 128.500. Davon statistisch im Jahr 2018 bis einschl. KW 49 verstorben: 1.392 Personen, über 70 Jahre alt: 1.188 Personen .
2020 einschl. KW 49 an Corona verstorben: 55 Personen (davon 53 ab70 Jahren).
Der Corona-Anteil beträgt somit bisher ca. 4,63 % der statistischen Gesamt-Sterbezahl der über 70-Jährigen.

Intelligente Lösungen

Die unfehlbare Merkel ist unter dem üblichen Jubel der Medien wieder damit durchgekommen, rein emotionale Brachialmaßnahmen durchzusetzen, deren Wirkung – die Fallzahlen steigen trotzdem – außer den schlimmen Folgen kaum erkennbar bleibt. Der nur noch nachäffende Landesvater Söder hat sie (weil sie ja kein Ergebnis zeigen), sofort nochmals verschärft, da ihm die „Erziehung“ seiner Untertanen besonders am Herzen liegt. Fachlich beraten lässt er sich dabei von einem Corona-Ethikrat, dem eine ehemalige Regional-Bischöfin vorsteht.

Dabei zeigt der im Gegensatz zur GRÜNEN Führungsriege oft mit intelligenten Ansätzen aneckende – und deshalb immer wieder kurz vor dem Parteirauswurf stehende – Bürgermeister von Thüringen schon seit längerem, wie Lösungen aussehen können:

Tagesspiegel 09.12.2020: Boris Palmer über Tübingens Corona-Sonderweg: „Wir haben zuletzt bei den über 75-Jährigen keine Fälle mehr“

In Tübingens Klinik gibt es kaum Corona-Patienten. OB Palmer erklärt, mit welchen Maßnahmen die Älteren in der Pandemiegeschützt werden. Ein Interview.

Wir haben uns zum Ziel gesetzt, die Älteren besonders zu schützen, weil für sie die Gefahr durch Corona mit Abstand am höchsten ist. Deswegen haben wir im September damit begonnen, das Personal in den Altenheimen regelmäßig zu testen.

Im Oktober haben wirSchnelltestsgekauft, seither werden Besucher und Bewohner regelmäßig getestet.

So ist es uns gelungen, das Eindringen des Virus in die Alten- und Pflegeheime in unserer Stadt bisher vollständig zu verhindern. Wir haben insgesamt eine niedrige Sieben-Tage-Inzidenz, die letzten drei Wochen lag die um die 100 Fälle pro 100.000 Einwohner. Bei den über 75-Jährigen haben wir zuletzt überhaupt keine Fälle mehr gehabt. Deshalb hat auch unsereUni-Klinik nur sehr wenige Corona-Patienten.

Sie sagen, es gebe bei den über 75-Jährigen keine Fälle. Gilt das nur für die Altersheime oder auch für Alte, die noch zu Hause wohnen?

Bei den Menschen in den Heimen hatten wir gar keine Fälle. Aber auch die Mitarbeiter der mobilen Pflegedienste werden regelmäßig getestet, so dass wir das Einschleppen des Virus in die Privatwohnungen der Alten verhindern konnten.

Artikel, die einem ganz aktuell erscheinen, aber schon Jahre alt sind

Der mediale „Beschuss“ mit Pandemie-Fallzahlen und immer neuen, schlimmeren Darstellungen lässt meinen, so etwas wäre wohl einzigartig – deshalb die erforderlichen, extremen Maßnahmen – und früher noch nie vorgekommen.

Die folgenden Artikel sind schon alt und älter, erschienen aber in „schöner“ Regelmäßigkeit. Man fragt sich, warum unsere Politik damals keine Notstände ausgerufen hat.
Der Tagesspiegel 09.01.2000:
Krankenhäuser überfüllt – Patienten liegen auf Pritschen in den Gängen
Nach Großbritannien und Deutschland hat die Grippewelle jetzt auch Italien erreicht. Die Krankenhäuser in Mailand, Florenz und Venedig sind nach Presseberichten vom Sonntag derart überfüllt, dass praktisch keine Betten mehr frei sind. In vielen Hospitälern müssten die Kranken auf Pritschen auf den Gängen liegen. In Mailand war es über Stunden nicht möglich, einen Krankenwagen zu rufen: Patienten, die im Krankenhaus keine Aufnahme fanden, blockierten die Einsätze. Die Zeitung „La Repubblica“ meldete, allein in Turin seien zehn ältere Menschen an den Folgen der Virusgrippe gestorben. Derzeit würden 250 000 Fälle pro Woche registriert. Dabei sei der Höhepunkt der Grippewelle erst Ende Januar zu erwarten. Man rechne mit bis zu acht Millionen Kranken … In Deutschland nimmt die Zahl der Fälle ebenfalls zu. Vor allem Baden-Württemberg, Bayern und Thüringen sind betroffen …
Welt 19.02.2013: Grippewelle hat Köln fest im Griff
In Köln werden nicht nur die Betten auf den Intensivstationen knapp – auch die Blutkonserven werden weniger. Grund dafür ist die grassierende Grippe.
Bettenknappheit in Kölner Krankenhäusern. Aufgrund der vielen Grippekranken sind die Intensivstationen komplett überfüllt. Zeitweise sind die Krankenhäuser sogar so überlastet, dass sie keine neuen Patienten mehr aufnehmen können. Operationen müssen aufgrund der angespannten Lage verschoben werden.
Gegenüber der „Kölnischen Rundschau“ sagte der Chef der Anästhesie und Intensivstation in Hohenlind, dass zeitweise elf von 14 Intensivbetten mit Infektionspatienten belegt waren. Grund dafür ist nicht nur das Influenza-Virus, sondern auch ein aggressives Virus, das Atemwegserkrankungen bis hin zum Lungenversagen verursacht. Infolge dessen müssen die – meist älteren – Betroffenen zum Teil beamtet werden.
… Grippewellen seien nichts Ungewöhnliches, sagt Anne Bunte gegenüber Welt online. Saisonal würden sie immer wieder auftreten.
SZ
13. Februar 2015:Vor dem Kollaps
Alarmstimmung in Bayerns Kliniken: Der Patientenansturm ist so groß, dass die Notaufnahmen an vielen Häusern aktuell völlig überlastet sind. „Momentan ist die Situation – auch durch die Grippewelle – extrem angespannt, wir stehen mit dem Rücken zur Wand“, sagt Günter Niklewski, der Ärztliche Direktor des Klinikums Nürnberg. „Voll, voll, alles voll“, sagt er bei seiner Rückkehr aus der Notaufnahme, „wir kommen derzeit an die Kante von dem, was noch geht.“ Niklewski steht mit diesem Problem nicht alleine, selbst in der Landeshauptstadt München, die über mehr Versorgungsangebote verfügt, geraten immer mehr Häuser an ihre Kapazitätsgrenze und melden sich in der Rettungsdienstleitstelle ab – Botschaft: „Wir haben kein Notfallbett mehr.“
Ärzteblatt 7. Februar 2017: Grippewelle sorgt für überlastete Kliniken
Nachdem die Grippewelle in Frankreich bereits für eine Überlastung der Krankenhäuser und zu verschobenen Operationen geführt hat, scheint die Grippewelle nun auch die ersten Kliniken in Deutschland zu treffen. Bereits gestern hatte das Städtische Krankenhaus in Görlitz Patienten vorerst abweisen müssen. Nun klagen die Notaufnahmen mehrerer Kliniken in Nürnberg und München über Überlastung
„Es ist extrem schwierig im Moment. Uns ist keine vergleichbare Situation in dem Ausmaß aus den vergangenen Jahren bekannt.“ Der Bayerische Rundfunk hatte zuerst über die Engpässe berichtet.
Immer wieder müssten Kliniken in Nürnberg ihre Notaufnahmen zeitweise schließen, sagte Reißmann. Teils müssten Patienten auf Krankenhäuser in Erlangen und im Nürnberger Land verteilt werden. „Die Rettungswagen sind derzeit lange unterwegs, bis sie die Patienten unterbringen.“
nordbayern.de 22.02.2018: Grippe-Welle grassiert: Krankenhäuser sind überlastet Zahl der Influenzafälle in der Region steigt immer weiter an
NÜRNBERG – Die diesjährige Grippewelle hat die Region jetzt mit voller Kraft erfasst. Etliche Krankenhäuser können schon keine Influenza-Patienten mehr aufnehmen. Viele Kliniken haben sich wegen voller Betten bereits von der Rettungsleitstelle abgemeldet …

Es bleibt nur die Schlussfolgerung übrig: Damals gab es keine Bilder aus Bergamo mit medienwirksam, auf einem langen Militär-Lastwagenkorso abtransportierten Särgen. Meldungsarten, auf die unsere Kanzlerin (und deren höfische Umgebung) grundsätzlich mit panischen Entscheidungen reagiert.
Es ist also angebracht, weiterhin daran zu zweifeln, dass in Berlin (und leider auch in Bayern) von Vernunft getrieben entschieden wird.

Der GRÜNE Bürgermeister von Tübingen hat es gerade treffend beschrieben: Tagesspiegel, 08.12.2020: … Die Berlinerinnen und Berliner sind einer aktuellen Umfrage zufolge ziemlich unzufrieden mit dem Krisenmanagement des Berliner Senats. Können Sie das verstehen?
Da steht mir kein Urteil zu, aber ich habe ja schon mal gesagt, was ich als Privatmensch denke, wenn ich nach Berlin komme: Vorsicht, Sie verlassen jetzt den funktionierenden Teil Deutschlands …

 




Einige interessante Fakten zu Covid in Schweden

Eine Tabelle von besonderem Interesse in diesen Pandemiezeiten ist die wöchentliche Sterblichkeitsrate, und noch interessanter ist sie, wenn wir sie mit den Statistiken des Worldometer Covid vergleichen.

Ich stütze die Statistiken auf Berichte vom 5. Dezember, mache aber am 15. November einen Cutoff, um Fehler wegen spät gemeldeter Todesfälle zu vermeiden. Den Informationen des SCB zufolge treten bei Daten, die älter als zwei bis drei Wochen sind, keine wesentlichen Änderungen auf. Wir können daher die Daten bis zum 15. November als vertrauenswürdig betrachten.

Abbildung 1: Worldometer vom 5. Dezember mit Aufzeichnungsende am 15. November

Abbildung 2: Gesamtzahl der Todesfälle pro Tag in Schweden bis zum 15. November. Die Zahlen für 2020 sind violett, die grüne Linie zeigt die Durchschnittszahlen von 2015 bis 2019 und die rote Linie die Zahlen für 2020, wenn die gemeldeten Covid-Todesfälle subtrahiert werden.

Laut Worldometer, siehe Abbildung 1, hatte Schweden bis zum 15. November 6405 Corona-Todesfälle. Das sind etwa 600 Todesfälle pro Million Bürger, womit Schweden zu den am stärksten betroffenen Ländern wie Großbritannien, Frankreich und den USA zählt.

Wie wir in Abbildung 2 sehen, sind die überzähligen Todesfälle durch Covid von Mitte März bis Juni deutlich sichtbar, und wir sehen auch den Beginn einer zweiten Welle ab Mitte Oktober.

Hier kommt jedoch der interessante Teil, die überhöhte Sterbeziffer für 2020 im Vergleich zum Durchschnitt der Jahre 2015 bis 2019 beträgt nur 3570. Das sind nur 56% der Covid-Todesfälle, die von Worldometer im gleichen Zeitraum gemeldet wurden.

Der Grund dafür ist, dass die Sterbeziffer für 2020 sowohl vor der ersten Welle als auch in der Zeit zwischen den beiden Covid-Wellen unter dem Durchschnitt liegt. Die tatsächlichen Zahlen von SCB vor, während und nach der ersten Covid-Welle sind in der folgenden Tabelle dargestellt:

Die Tabelle basiert auf Zahlen des SCB. Wir sehen, dass 2020 sowohl vor als auch nach der ersten Covid-Welle eine niedrigere Sterblichkeitsrate aufweist als der Durchschnitt der Jahre 2015 bis 2019.

Teile dieser Anomalie können rein zufällig sein. Zum Beispiel war die Grippesaison 2019-2020 in Schweden besonders leicht.

Man kann darüber spekulieren, ob die beunruhigenden Pandemieberichte Anfang dieses Jahres genügend Menschen dazu veranlasst haben könnten, besonders vorsichtig mit Infektionen umzugehen, und damit auch eine geringere Ausbreitung der Grippe verursacht haben, aber das kann weit hergeholt sein.

Schwedens Chefepidemiologe Anders Tegnell wies darauf hin, dass die milde Grippesaison mitverantwortlich für die relativ hohe Covid-Todesrate zu Beginn der Pandemie sei. Mehr der am stärksten gefährdeten Personen überlebten die schwache Grippesaison, was bedeutet, dass Schweden mit einer höheren Anzahl gefährdeter Personen als normal in die Covid-Pandemie eintrat.

Er mag zwar Recht haben, aber dennoch werden die überzähligen Todesfälle im Jahr 2020 voraussichtlich groß genug sein, um die Lebenserwartung im ganzen Land um 0,3 Jahre zu senken. In der Region Stockholm wird die Lebenserwartung um schätzungsweise 1,2 Jahre zurückgehen, von 83,7 Jahren auf 82,5 Jahre.

Irreführende Worldometer-Statistiken

Ein weiterer interessanter Aspekt ist, dass die Worldometer-Statistik für Schweden in den letzten Tagen immer einen Einbruch zeigt. Der Grund dafür ist, dass es eine Verzögerung bei der Berichterstattung gibt, so dass die gemeldeten Zahlen für die letzten Tage viel zu niedrig sind. Dies wird in den beiden folgenden Abbildungen veranschaulicht.

Die Worldometer-Grafiken vom 21. November zeigen einen Rückgang nach dem 9. November. Dieser Rückgang ist künstlich und durch die späte Berichterstattung verursacht.

Das Worldometer vom 5. Dezember zeigt, dass die Todesrate nach dem 9. November weiter gestiegen ist.

Es ist noch zu früh, um zu sagen, ob die Rate nach dem 24. November ebenfalls weiter gestiegen ist.

Diese beiden Diagramme veranschaulichen, wie leicht wir uns von Statistiken täuschen lassen können, und das kann gefährlich sein, denn wir sind auf gute Statistiken angewiesen, um die richtigen Entscheidungen zu treffen.

Beispielsweise verwenden die Behörden die Zahlen für die Zahl der Neuinfizierten als Instrument, um die Beschränkungen, die die Reproduktionsrate R senken, entweder zu verschärfen oder zu lockern. Ziel ist es, R unter 1,0 zu halten. Ich bin ziemlich sicher, dass die Entscheidungsträger in der Regierung über diese Verzögerung Bescheid wissen, aber die Öffentlichkeit vielleicht nicht, und das beeinflusst, wie ernst wir die Situation nehmen.

Worldometer ist eine universell genutzte Website, und viele Laien suchen sie für ihre Länder auf. Wenn die Statistik für die letzten Tage einen Rückgang zeigt, werden viele denken: „Gott sei Dank, es ist vorbei, jetzt können wir nachlassen“.

Das ist vielleicht nicht der Fall.

References:

SCB: https://www.scb.se/hitta-statistik/sverige-i-siffror/manniskorna-i-sverige/doda-i-sverige/

Worldometer: https://www.worldometers.info/coronavirus/country/sweden/

Link: https://wattsupwiththat.com/2020/12/07/some-interesting-facts-about-covid-in-sweden/

Übersetzt von Chris Frey EIKE




Wie und warum NASA und NOAA Klimadaten manipulieren

Dieselben Klima-Alarmisten behaupten auch, dass Realisten „von Interessen fossiler Brennstoffe finanziert werden“ und daher verdächtige Motive haben. Nach Ansicht der Alarmisten sind Realisten nicht daran interessiert, Fakten und objektive Wahrheiten zu verbreiten, da ihre eigentliche Absicht darauf ausgerichtet sein muss, irgendeine Art von Vermögensinteresse zu schützen.

Sind diese beiden Argumente wirklich fundiert? Wenn ja, sollten sie dann nicht auch auf Alarmisten angewandt werden?

Was würde mit der Stichhaltigkeit der Argumente der Alarmisten geschehen, wenn sie tatsächlich diejenigen sind, die es versäumen, „der Wissenschaft zu folgen“? Was wäre, wenn ihre Motive weniger in der „Rettung des Planeten“ als vielmehr in der Arbeitsplatzsicherheit liegen würden? Was ist, wenn die Hüter der „Wissenschaft“ – die National Aeronautics and Space Administration (NASA) und die National Oceanic and Atmospheric Administration (NOAA) – die Klimadaten fälschen, und was ist, wenn die Quelle ihrer Finanzierung dieses Verhalten in einzigartiger Weise fördert?

Tony Heller hat über seine Website RealClimateScience.com schlüssig nachgewiesen, dass sowohl die NOAA als auch die NASA zumindest in den letzten 30 Jahren ihre Daten verändert und verfälscht haben, um das Narrativ zu untermauern, dass das vom Menschen verursachte CO2 die Temperatur der Erde beeinflusst. (Siehe Heller, „Wie die US-Temperaturaufzeichnungen verändert werden, Teil 1-3“).

Heller hat zum Beispiel überzeugend gezeigt, wie die NASA ihre ursprünglichen Temperaturdaten so verändert hat, dass die Temperatur für die Jahre 1905 bis 1940 gesenkt und die Daten für die Jahre 1940 bis 2010 angehoben wurden, wodurch künstlich ein klarer Aufwärtstrend der Temperatur über den gesamten Zeitraum erzeugt worden ist, während die ursprünglichen, unveränderten Daten tatsächlich einen Abkühlungstrend zeigen.

Heller wies auch nach, wie die „Wissenschaftler“ der NOAA ebenfalls zu der gleichen Schlussfolgerung des Erwärmungstrends gekommen sind. Doch während die NASA die vorhandenen Daten einfach angepasst hat, hat die NOAA sie noch einfacher erfunden.

In einem bestimmten Zeitraum gibt es eine Reihe von Wetterstationen, die keine Daten melden. Für diese Stationen, die keine Daten melden, „schätzt“ die NOAA die Daten mit Hilfe eines geheimen, selbst erstellten Algorithmus. Im Jahr 1950 „schätzte“ die NOAA nur 5% der fehlenden Stationen. Bis 2015 war die Zahl der geschätzten Stationen auf 48% gestiegen! Es ist für die NOAA nicht schwierig, eine Trendlinie zur Untermauerung ihrer Theorie zu zeichnen, wenn die Hälfte des Datensatzes selbst hergestellt wurde.

[Hervorhebung vom Übersetzer].

Weder die NOAA noch die NASA haben die Kritik von Tony Heller abgestritten, weil sie es nicht können. Die Zahlen sprechen für sich selbst. Stattdessen sind die NOAA und die NASA mit beiden Beinen auf den menschengemachten politischen Zug der globalen Erwärmung gesprungen – zur Hölle mit den Fakten.

Dann stellen sich also zwei offensichtliche Fragen: Warum sollten die NOAA und die NASA dies tun, und wie tun sie es? Lassen Sie uns zunächst untersuchen, warum.

Als US-Regierungsbehörden werden sowohl die NOAA als auch die NASA vollständig über den jährlichen Haushalts der [US-]Bundesregierung finanziert. Meine erste Begegnung mit diesem Verfahren fand statt, als ich von Präsident George W. Bush zum Administrator (CEO) der St. Lawrence Seaway Development Corporation – einer Bundesbehörde – ernannt worden war. Da ich mein ganzes Leben in der Privatwirtschaft verbracht hatte, war ich mit den Messgrößen vertraut, mit denen sie die Leistung und den Erfolg von Organisationen misst: Bilanz, Gewinn- und Verlustrechnung, Gewinn und Verlust, Börsenkurs, Verschuldungsgrad und so weiter.

Als es darum ging, die Leistung einer Bundesbehörde zu messen, erwartete mich eine Überraschung. Keine dieser Kennzahlen für den privaten Sektor war hier anwendbar. Keine davon wurde auch nur als relevant betrachtet. Es gab nur eine Kennzahl, die Erfolg oder Misserfolg misst. Das heißt, erhielt die Agentur die jährlichen Mittel, die sie von den Finanzausschüssen des Repräsentantenhauses und des Senats beantragt hatte?

Das war alles. Es gab keine Bilanz, Gewinn- und Verlustrechnung oder irgendeine andere gebräuchliche finanzielle Messgröße. Es zählte nur ein Maßstab: was für ein Stück des vom Steuerzahler finanzierten Kuchens erhielt die Agentur jährlich vom Kongress.

Ich habe schnell gelernt, dass hierbei hart – zeitweise sogar rücksichtslos – gekämpft wurde. Um erfolgreich öffentliche [Steuer-]Gelder zu erlangen, würden die Agenturen alles tun, alles sein und alles sagen, um dem Kongress politisch attraktiv zu erscheinen.

Das bedeutet, dass jede Bundesbehörde ständig ihr Fähnchen anch dem politischen Wind ausrichtet. Jede erfolgreiche Agentur ist in der Lage, die geringste Veränderung des politischen Windes zu erkennen. Dabei spielt es keine Rolle, ob die Behörde schlampig geführt wird, antiquiert ist oder sich stümperhaft und stolpernd ihren Weg durch den Bürokratie-Wald bahnt. Wenn es ihr gelingt, den Kongress von ihrem politischen Nutzen zu überzeugen, dann wird ihrem Haushaltsantrag stattgegeben, und das Überleben der Agentur ist gesichert.

Dies führt zu der unverrückbaren Tatsache, dass das Arbeitsergebnis jeder Bundesbehörde, einschließlich derer, die für die Erhebung von Klimadaten zuständig sind, hochgradig politisiert ist. Jede. Einzelne. Eine. Das unveränderliche Gesetz des bürokratischen Überlebens verlangt es.

NASA- und NOAA-„Wissenschaftler“ sind keine ideologisch neutralen Forscher, die in einem Vakuum leben. Sie existieren nicht in einem Elfenbeinturm der Datenreinheit. Sie sind Bürokraten, die bürokratische Interpretationen von Klimadaten vornehmen, und ihre Meinungen werden durch den institutionellen Imperativ des Gehorsams gegenüber politischen Notwendigkeiten eingerahmt. Jeder NOAA- oder NASA-Mitarbeiter, der es wagt, die vorherrschende Parteilinie in Frage zu stellen, würde seine Karriere beenden und Selbstmord begehen.

Dies erklärt, warum NOAA und NASA Klimadaten fälschen. Wie sie das tun, lässt sich an der Behandlung der täglichen Temperaturdaten durch die NOAA ablesen.

Das Ablesen von Temperaturaufzeichnungen scheint ein ziemlich unkomplizierter Prozess zu sein, nicht wahr? Falsch.

Zuerst müssen die Wetterstationen ausgewählt werden, deren die Daten man aufzeichnen will. Die „Ausreißer“ werden verworfen – ebenso die „Duplikate“. Dann müssen wie schon erwähnt die Daten der nicht meldenden Stationen „geschätzt“ werden. Aber das ist noch nicht alles. Als nächstes kommt die Anpassung der „Tageszeit“. Es scheint einen Unterschied zu machen, ob die Ablesung am Morgen oder am Nachmittag vorgenommen wurde.

Dann gibt es Anpassungen für den städtischen Wärmeinseleffekt – die Tatsache, dass das Gelände um viele der älteren Stationen bebaut, gepflastert oder anderweitig verändert wurde, so dass künstlich Wärme erzeugt wird, was die Temperaturmessungen verzerrt. Dann gibt es Anpassungen für verschiedene „Typen“ von Temperaturdaten. Um NOAA zu zitieren, „einige sind 175 Jahre alt und einige sind nur 1 Stunde alt“. Und: „Die Daten müssen „homogenisiert“ und „synthetisiert“ werden.

Vielleicht erfasst diese Aussage der NOAA am besten die außerordentliche Menge beurteilender Entscheidungen, welche die Sammlung von Temperaturdaten umgibt: „Diese Daten werden einer Qualitätskontrolle unterzogen und sind möglicherweise nicht mit den ursprünglichen Beobachtungen identisch“.

Das ist es. Qualitätskontrolle. Der geheime Brei der NOAA, der üppig auf alle ihre Temperaturbeobachtungen angewandt wird. Die Geschichte, warum und wie die NOAA und die NASA Daten manipulieren, läuft darauf hinaus: „Diese Daten sind qualitätskontrolliert und möglicherweise nicht mit den ursprünglichen Beobachtungen identisch. Die Klimaverlautbarungen und -bestimmungen der NOAA und der NASA sind keine „Wissenschaft“ – eine objektive Wahrheit. Sie sind geheim-bürokratische Interpretationen von Dutzenden von Klimadatenpunkten, die dazu dienen, eine Schlussfolgerung zu stützen, die den Finanzierungsimperativen der Agentur förderlich ist.

Und das ist die Wahrheit.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia.

Link: https://www.cfact.org/2020/12/02/why-and-how-nasa-and-noaa-manipulate-climate-data/

Übersetzt von Chris Frey EIKE




KLIMANOT­STAND? NEIN DANKE!

Einleitung und Problemstellung

Der Begriff „Klimanotstand“ wird einerseits als Zustandsbeschreibung verwendet: Der anthropogene Klimawandel wäre mittlerweile so weit fortgeschritten und so bedrohlich, dass dadurch auch einschneidende Gegenmaßnahmen mit höchster Priorität gerechtfertigt wären. Es gäbe eben einen Notstand. Andererseits wird unter der „Erklärung des Klimanotstandes“ (oder „Ausrufung des Klimanotstandes“) ein offizieller Beschluss einer Verwaltung (Exekutive) oder eines Parlamentes (Legislative) verstanden, der a) diesen Zustand als gegeben feststellt und b) Regierungen und Verwaltungen beauftragt, Maßnahmen zur Reduzierung der anthropogenen CO2-Freisetzungen auszuarbeiten, die wesentlich über die bisher beschlossenen Maßnahmen hinausgehen.

Die erste deutsche Kommune, die offiziell den „Klimanotstand“ erklärt hat, war Konstanz im Mai 2019. Seither sind viele andere Städte und Gemeinden und auch einige Bundesländer diesem Beispiel gefolgt. Auf europäischer Ebene haben mehrere Staaten und auch das EU-Parlament den Klimanotstand ausgerufen. Die Bewegung „Fridays for Future“ fordert, den „Klimanotstand“ überall auszurufen.

Im Buch „Probleme beim Klimaproblem – Ein Mythos zerbricht“, /1/, hat der Autor dieses Beitrages gezeigt, dass es dafür keine wissenschaftlich gesicherte Basis gibt. Entgegen der weit verbreiteten Meinung gibt es beim „Klimaproblem“ gerade keinen wissenschaftlichen Konsens. Von der Zielsetzung, welches Klima wir überhaupt anstreben sollen, über das Ausmaß und die Geschwindigkeit der anthropogenen Klimaänderungen, über den Einfluss anderer Verursacher, bis hin zu den Erfolgsaussichten der vorgeschlagenen Abhilfemaßnahmen, überall gibt es noch viele und wichtige offene Fragen. Solange die nicht geklärt sind, ist ein „Klimanotstand“ prinzipiell nicht gerechtfertigt. Abklären, welcher Weg der richtige ist, sollte wichtiger sein, als mit Scheuklappen unbeirrt auf einem möglicherweise falschen Weg voranzuschreiten.

Vielleicht noch wichtiger ist die Basis-Frage: Woher kommt denn überhaupt das viele CO2 in der Atmosphäre? Hat das tatsächlich der Mensch verursacht? Dieser Problembereich ist die eigentliche Grundlage aller Klimadiskussionen. Nur wenn die Einschätzung „menschengemacht“ stimmt, nur dann kann die anthropogene CO2-Freisetzung das Klima verändern, vielleicht sogar katastrophal verändern, was allerdings umstritten ist, siehe gerade. Wenn die Einschätzung „menschengemacht“ aber nicht stimmt, dann gibt es nur noch zwei Möglichkeiten:

  1. Entweder ist CO2 tatsächlich klimabestimmend. Dann bestimmt überwiegend nicht anthropogen freigesetztes CO2 unser Klima! Eine Reduktion der anthropogenen Freisetzungen hat dann keinen nennenswerten Einfluss.
  2. Oder irgendetwas Anderes und nicht das CO2 bestimmt das Klima. Dann sind die anthropogenen CO2-Freisetzungen erst recht nicht schuld am Klimawandel!

Welche der beiden Möglichkeiten auch immer zutrifft, wenn der Mensch nicht schuld an der CO2-Zunahme ist, dann ist er auch nicht schuld an der Erwärmung und dann entfällt auch jede Berechtigung für den Klimanotstand. Also sollte eine Klärung der Herkunft des vielen CO2 in der Atmosphäre höchste Priorität haben.

In der Wissenschaft wird diese Frage allerdings nur selten thematisiert. Zu klar scheint die Antwort zu sein: Wenn wir Menschen sogar doppelt so viel CO2 freisetzen, als sich in der Atmosphäre ansammelt, dann ist dieser Anstieg „selbstverständlich“ menschengemacht. Aber so einfach ist das nicht. Im Buch „Abgesagt! Dem Klimanotstand bricht die Basis weg“, /2/, untersucht der Autor dieses Beitrages genau diese Frage sorgfältig, mit einem klaren Ergebnis: Es ist nicht der Mensch! Die Untersuchungen und Ergebnisse werden hier in verkürzter Form zusammengefasst und zur Diskussion gestellt. Für nähere Details sie auf /2/ verwiesen.

Zusammenfassung

Weitgehend unbestritten ist, dass vor dem Eingriff durch den Menschen etwa 280 ppm CO2 in der Atmosphäre vorhanden waren und jährlich etwa ein Viertel davon umgewälzt wurde, was eine mittlere Verweilzeit der CO2-Moleküle von etwa 4 Jahren ergibt. Unbestritten ist auch, dass die Konzentration heute etwa 410 ppm beträgt und jährlich um ca. 2 ppm weiterwächst, während gleichzeitig ca. 4 ppm/a anthropogen freigesetzt werden.

Umstritten ist dagegen die zusätzliche Annahme von IPCC, dass das vorindustrielle Gleichgewicht prinzipiell unverändert weiterbesteht und nur durch die hinzugekommenen anthropogenen Freisetzungen als einzige Änderung überlagert wird, wobei etwa die Hälfte dieser Freisetzungen langfristig in der Atmosphäre verbleibt, im Gegensatz zum natürlich freigesetzten CO2, das komplett sehr schnell wieder ausgeschieden wird. Auf Basis dieser Annahme aber schließt IPCC, dass die Störungszeit, die den Abbau von zu vielem CO2 in der Atmosphäre beschreibt, mehrere Jahrhunderte lang ist und der gesamte Anstieg der CO2-Konzentration in der Atmosphäre seit 1750 anthropogen ist. Daraus wiederum leitet IPCC die Forderung ab, die anthropogenen Freisetzungen schnellstmöglich vollständig einzustellen. Anderenfalls wären schwerwiegende Klimakatastrophen unvermeidbar. Die Ausrufung des Klimanotstandes soll dieser Forderung Nachdruck verleihen.

In dieser Arbeit hier wird gezeigt, dass dieser grundsätzliche Ansatz von IPCC mit der Physik nur schwer zu vereinbaren ist und zu falschen Schlüssen führt. Die wichtigsten Argumente sind:

  • Weil alle CO2-Moleküle gleich sind und weil die Atmosphäre gut durchmischt ist, müssen alle Moleküle sich auch gleich verhalten. Insbesondere auch zeitlich: Es kann nicht eine Gruppe länger in der Atmosphäre verbleiben als eine andere Gruppe!
  • Die Entnahme von CO2 aus der Atmosphäre (die Entnahme insgesamt, nicht die Netto-Entnahme unter Gegenrechnung der Freisetzungen, die ist im Gleichgewicht definitionsgemäß null) richtet sich immer nach der Konzentration in der Atmosphäre. Sie muss heute also um rund 50 % höher sein als vor Beginn der industriellen Revolution. Sie muss daher insgesamt um ungefähr 40 ppm/a gewachsen sein. Woher die erhöhte Konzentration kommt, ist dafür belanglos.
  • Wenn die Konzentration heute um 2 ppm/a zunimmt, dann muss die Freisetzung sogar um 2 ppm/a stärker gewachsen sein als die Entnahme (jeweils Summe aller Beiträge). Die 4 ppm/a der anthropogenen Freisetzungen langen bei weitem nicht, es muss eine (erhebliche!) weitere Quelle geben! Welche das ist, kann so nicht ausgesagt werden. Aber die allgemeine Erwärmung war auf jeden Fall daran beteiligt, was auch immer sie ausgelöst hat.
  • Weil die Entnahme von CO2 aus der Atmosphäre von der Konzentration in dieser und nicht von der Freisetzung abhängt, gibt es kein festes CO2-Budget, das nicht überschritten werden darf, wenn eine bestimmte Erwärmungsgrenze eingehalten werden soll.
  • Weil die Atmosphäre gut durchmischt ist, muss die CO2-Zusammensetzung in ihr immer der relativen Stärke der Quellen entsprechen. Da die anthropogenen Freisetzungen nur ca. 5 % der natürlichen Freisetzungen betragen, können auch nur ca. 5 % der CO2-Moleküle in der Atmosphäre anthropogen freigesetzte Moleküle sein. Was darüber hinaus geht, muss natürlichen Ursprungs sein.
  • Derselbe Effekt, der die Umwälzung zwischen Atmosphäre und Ozean+ Biomasse bewirkt, führt unvermeidbar auch dazu, dass die Umwälzung bei einer Erhöhung der CO2-Konzentration in der Atmosphäre unausgeglichen wird. Und zwar umso stärker unausgeglichen, je höher die Umwälzung im Gleichgewicht ist. Es ist diese Unausgeglichenheit der Umwälzung, die netto CO2 der Atmosphäre entnimmt. Sie führt zwangsweise auch dazu, dass die Störungszeit für den Abbau von CO2 nur kurz ist.
  • Bei seiner verfeinerten Modellversion, dem Bern Carbon Cycle Model, verwendet IPCC eine Formel, die den radioaktiven Zerfall eines Gemisches instabiler Atome richtig beschreibt, bei der Entnahme von CO2 aus der Atmosphäre aber zu grob falschen Ergebnissen führt.

Es gibt noch mehr Argumente mit gleichem Ergebnis. Die Konsequenzen sind gravierend: Wenn der Mensch die CO2-Konzentration nicht (wesentlich) erhöht hat, dann hat er auch nicht (wesentlich) zur Klimaerwärmung beigetragen! Eine Einstellung der anthropogenen Freisetzungen ist daher nicht erforderlich. Dem Klimanotstand bricht die Basis weg!

Literaturverzeichnis

/1/ Eike Roth: „Probleme beim Klimaproblem – Ein Mythos zerbricht“, BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7.

/2/ Eike Roth: „Abgesagt! Dem Klimanotstand bricht die Basis weg“, BoD-Verlag Norderstedt 2020, ISBN 978-3-7526-4764-8.

/3/ IPCC AR 5: “Climate Change 2013: The Physical Science Basis”. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp.

Hinweis: Dies sind Ausschnitte aus einem längeren Beitrag, der hier als PDF beigefügt ist:

KLIMANOTSTAND NEIN DANKE