CO2-Koalition: „Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind“

Hier die Executive Summary dieser Studie:

Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind

Richard S. Lindzen und John R. Christy

Es ist eine Ehre für die CO2-Koalition, diese Studie zum Thema „Climate Issues in Depth“ von zwei der angesehensten und profiliertesten Atmosphärenphysiker Amerikas vorzustellen, dem emeritierten MIT-Professor Richard Lindzen, seit vielen Jahren Mitglied der Koalition ist, und Prof. John Christy von der University of Alabama in Huntsville.

Professor Lindzen hat in seiner fünf Jahrzehnte währenden Karriere über 200 wissenschaftliche Artikel und Bücher veröffentlicht. Er hatte Professuren an der University of Chicago, der Harvard University und dem MIT inne. Er ist Mitglied und Preisträger der American Meteorological Society und der American Geophysical Union. Er ist auch Mitglied der National Academy of Science und war einer der Hauptautoren des 3. IPCC-Zustandsberichtes. Seine Forschung hat die wissenschaftlichen Unsicherheiten über die Auswirkungen von Kohlendioxidemissionen auf Temperatur und Klima im Allgemeinen aufgezeigt.

Professor Christy, der Direktor des Earth System Science Center an der University of Alabama in Huntsville, begann 1987 mit der Untersuchung globaler Klimafragen. Seit 2000 ist er Staatsklimatologe von Alabama und seit 2002 Mitglied der American Meteorological Society. Zusammen mit dem Mitglied der CO2-Koalition Dr. Roy W. Spencer entwickelte und pflegt er einen der wichtigsten globalen Temperaturdatensätze, auf den sich Wissenschaftler und Regierungsstellen stützen, wobei er Mikrowellendaten verwendet, die seit 1979 von Satelliten in der Troposphäre beobachtet wurden. Für diese Leistung wurde ihnen die Medal for Exceptional Scientific Achievement der NASA verliehen.

In diesem Beitrag soll erläutert werden, wie der Datensatz, der von politischen Entscheidungsträgern und den Medien als globale Aufzeichnung der Oberflächentemperatur bezeichnet wird, tatsächlich erstellt wird und wo er sich in das mit dem Klimaalarm verbundene populäre Narrativ einfügt.

Executive Summary

Im Mittelpunkt der meisten Diskussionen über die globale Erwärmung steht die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur – oft etwas irreführend als Aufzeichnung der globalen Mitteltemperatur bezeichnet. Dieses Papier befasst sich mit zwei Aspekten dieser Aufzeichnung. Erstens stellen wir fest, dass diese Aufzeichnung nur ein Glied in einer ziemlich langen Kette von Folgerungen ist, die zu der behaupteten Notwendigkeit einer weltweiten Reduzierung der CO2-Emissionen führt. Zweitens untersuchen wir die Auswirkungen der Art und Weise, wie die Aufzeichnung konstruiert und präsentiert wird, und wir zeigen, warum die Aufzeichnung irreführend ist.

Dies liegt daran, dass die Aufzeichnung oft als eine Art einzelne, direkte instrumentelle Messung behandelt wird. Wie jedoch der verstorbene Stan Grotch vom Laurence Livermore Laboratory vor 30 Jahren feststellte, handelt es sich in Wirklichkeit um den Mittelwert weit verstreuter Stationsdaten, bei denen die tatsächlichen Datenpunkte fast gleichmäßig zwischen hohen positiven und negativen Werten verteilt sind.

Der Mittelwert ist einfach die kleine Differenz dieser positiven und negativen Ausschläge, mit dem üblichen Problem, das mit kleinen Unterschieden großer Zahlen verbunden ist: Zumindest bis jetzt wird der Anstieg des globalen Mittelwertes um ein Grad Celsius seit 1900 durch die normalen Schwankungen an einzelnen Stationen überlagert und hat daher wenig Bezug zu dem, was an einer bestimmten Station tatsächlich vor sich geht.

Die Veränderungen an den Stationen verteilen sich um den globalen durchschnittlichen Temperaturanstieg von einem Grad. Selbst wenn eine einzelne Station diesen Anstieg selbst registriert hätte, würde dies dort eine typische Jahrestemperaturspanne von z.B. -10 bis 40 Grad im Jahr 1900 annehmen und sie durch eine Spanne von heute -9 bis 41 Grad ersetzen. Für Menschen, Pflanzen und Wetter an dieser Station wäre es schwierig, diesen Unterschied zu erkennen.

Auf den Diagrammen, die in fast allen Präsentationen verwendet werden, sieht der Anstieg jedoch signifikant aus, da sie den Bereich der ursprünglichen Datenpunkte auslassen und den Maßstab erweitern, um die mittlere Veränderung groß erscheinen zu lassen.

Die Aufzeichnung zeigt zwar gewisse beständige Trends, aber sie weist auch starkes Rauschen auf, und Schwankungen von einem oder zwei Zehntelgraden sind wahrscheinlich nicht signifikant. Im öffentlichen Diskurs wird den Größenordnungen wenig Aufmerksamkeit geschenkt; der Schwerpunkt liegt vielmehr darauf, ob diese Anomalie zu- oder abnimmt. Angesichts des Rauschens und der Abtastfehler ist es recht einfach, eine solche Mittelwertbildung zu „adjustieren“ und sogar das Vorzeichen eines Trends von positiv auf negativ zu ändern.

Die üblichen Präsentationen unterdrücken das Rauschen oft durch die Verwendung von laufenden Durchschnittswerten über Zeiträume von 5 bis 11 Jahren. Eine solche Verarbeitung kann jedoch auch sinnvolle Merkmale unterdrücken, wie z.B. die großen Schwankungen, die bei den einzelnen Stationen immer wieder auftreten. Schließlich zeigen wir die großen natürlichen Temperaturschwankungen, mit denen die Amerikaner in 14 Großstädten jedes Jahr zurechtkommen müssen. So reicht beispielsweise der durchschnittliche Unterschied zwischen dem kältesten und dem wärmsten Moment eines jeden Jahres von etwa 25 Grad Celsius in Miami bis zu 55 Grad in Denver. Dem steht der leicht zu bewältigende Anstieg der globalen Mitteltemperaturanomalie um 1,2 Grad Celsius in den letzten 120 Jahren gegenüber, der in den Medien und in politischen Kreisen für so viel Beunruhigung gesorgt hat.

CO2-coalition

Die ganze Studie steht hier (PDF).

Hier noch ein Auszug aus den concluding remarks:

Tatsächlich entspricht die in Abbildung 7 als alarmierend dargestellte globale Temperaturänderung von 1,2 Grad Celsius in den letzten 120 Jahren nur der Dicke der „mittleren“ Linie in Abbildung 9. Wie die Abbildung zeigt, reicht der Unterschied der Durchschnittstemperatur von Januar bis Juli in diesen Großstädten von knapp zehn Grad in Los Angeles bis fast 30 Grad in Chicago. Und der durchschnittliche Unterschied zwischen den kältesten und wärmsten Zeitpunkten im Jahr reicht von etwa 25 Grad in Miami bis zu 55 Grad in Denver.

Hier diese Abbildung 7:

Und hier Abbildung 9:

Ich denke, ein noch besserer Weg, die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur in den richtigen Kontext zu stellen, besteht darin, sie im gleichen Maßstab wie ein gewöhnliches Haushaltsthermometer darzustellen:

Anomalie im Vergleich zum Thermometer. Oh, wo, oh, wo ist mein kleiner HadCRUT4 hin?

In der Darstellung über 0 °C auf HadCRUT4 ist bei 15 °C auf dem Thermometer die ungefähre mittlere Oberflächentemperatur auf der Erde aufgetragen. Beide Thermometer haben einen Schwankungsbereich von 80 °C.

Link: https://wattsupwiththat.com/2020/12/08/co2-coalition-the-global-mean-temperature-anomaly-record-how-it-works-and-why-it-is-misleading/

Übersetzt von Chris Frey EIKE




Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterb­lichkeit“ zu finden

Aktuelle Corona-Berichterstattung

Wenn man der Berichterstattung und unseren Politikern glauben möchte, „rast“ Deutschland auf eine Covid-Katastrophe zu. Vor allem steigen die Sterbezahlen immer schlimmer. Bereits aktuell gilt die Sterberate als „unzumutbar“:

Bild 1 Screenshot vom 03.12.2020

Handelsblatt online, 06.12.2020: „Es braucht jetzt konsequentes Vorgehen“, sagte Söder der „Bild am Sonntag“. „Wir können die hohen Todeszahlen in Deutschland nicht hinnehmen. Die Ansteckungszahlen sind weiterhin zu hoch.

Der Spiegel 06.12.2020: Corona: Bayern ruft erneut Katastrophenfall aus

Bild 2 Screenshot

Die statistischen Zahlen zum 07.12.2020

Seit wann hat Deutschland wirklich so etwas wie eine „Übersterblichkeit?

Interessant ist dazu eine Sterbezahlengrafik des Statistischen Bundesamtes mit den Sterbewerten seit 1950. Danach steigen die Sterbezahlen seit 2005 kontinierlich an (Anmerkung: Die Grafik ist nicht Einwohnerzahl-bereinigt).
Von 2005 bis 2019 hat die Anzahl jährlich Vertorbener insgesamt um ca. 130.000 Fälle zugenommen, bei fast gleich gebliebener Einwohnerzahl (2005: 82,5 Mio.; 2019: 83 Mio.). Das sind zusätzlich 356 Fälle/Tag oder 2.493/Woche.

Bild 3 Deutschland, Verlauf jährliche Sterbefälle-seit 1950. Quelle: Statistisches Bundesamt

Dazu die Sterbefälle zusätzlich mit den Relativwerten, um die Bevölkerungszahl zu berücksichtigen:

Bild 4 Deutschland, Sterbefälle-Verlauf seit 1950. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Laut RKI sind im Jahr 2020 bisher 19.434 Personen an, oder eher mit Corona verstorben. Zum Jahresende hochgerechnet können es noch zwischen 20 …. 21.000 Personen werden.

Bild 5 Corona. Stand 07.12.2020

Damit beträgt die diesjährige „Corona“-Sterbezahl ca. 15 % der seit dem Jahr 2005 erhöhten, jährlichen Gesamt-Sterberate. Wobei beachtet werden muss, dass es im Jahr 2020 keine deklarierten Influenza-Fälle gibt, so als wäre die in vergangenen Jahren (zuletzt 2017/2018) hoch-tödliche Grippe mit 25.000 Verstorbenen (Angabe RKI) plötzlich verschwunden.

„Dröselt“ man die Sterbefälle weiter auf, sieht man, dass aufgrund der sich stetig verändernden Alterspyramide vor allem die Sterblichkeit ab 70 jährlich zunimmt. Bei der Altersgruppe ab 70 Jahren sind dies jährlich ca. +200.000 Personen.
Geht man davon aus, dass vom Corona-Versterben vorwiegend diese Altersgruppe betroffen ist, beträgt deren Corona-„Überversterben“ gerade einmal 10 % der typischen, jährlichen, durch die Alterspyramide bedingten Mortalitätssteigerung:

Bild 6 Deutschland Sterbezahlen. Vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Übersterblichkeit

Eine deklarierte Sterblichkeit, welche zu extremen, zusätzlichen Maßnahmen Anlass gibt, sollte man annehmen, ist erst gegeben, wenn die Sterberate die der gängigen – und bisher nie zu Sondermaßnahmen führenden – Grippewellen erheblich überschreitet. Und das muss sich in der Gesamt-Sterberate – und nicht nur in Zuweisungen von Sterbezahlen auf eine bestimmte Krankheit – auch zeigen.
Allerdings ist das nicht Konsens, denn das Statistische Bundesamt behauptet, eine Übersterblichkeit wäre bereits gegeben, wenn der Mittelwert der vorhergehenden, letzten vier Jahre (bereits geringfügig) überschritten ist. Wie es auf diese Definition kommt (und damit noch schlimmere Grippejahre davor ausblendet) wird nicht erklärt.
Die sich daraus (bewusst) ergebenden, unterschiedlichen Aussagen zeigen die folgenden Grafiken.

Zuerst das Bild des Sterbeverlaufs, wie ihn das Statistische Bundesamt auf ihrer Homepage darstellt

Bild 7 Verlauf Sterbezahlen auf der Homepage. Quelle: Statistisches Bundesamt

Diese Darstellung ist ganz bewusst angelegt. Warum zeigt sich in den folgenden, anhand der gleichen Daten erstellten Grafiken:

Bild 8 Verlauf Sterbezahlen von Bild 7 mit den Einzeljahren. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Kopiert man die 5 Jahre nicht parallel in eine Jahresscheibe, sondern stellt den gesamten Zeitverlauf in einer Linie dar, relativiert sich das schlimme Corona-Pandemiejahr auf das, was es ist: Vollkommen unspektakulär.

Bild 9 Verlauf absolute Sterbezahlen von Bild 8 in der jährlichen Reihenfolge (den fehlenden Dez. 2020 in Rot weitergeführt). Grafik vom Autor erstellt

Das bleibt auch so wenn man die Jahre vergleichend aufsummiert:

Bild 10 Verlauf Sterbezahlen von Bild 7 als jährliche Summierung. Grafik vom Autor erstellt.

Nach diesen Grafiken gewinnt man den Eindruck, dass viele „Corona-Verstorbene“ auch ohne Corona verstorben wären. Denn sonst müssten sie ja in den Grafiken als zusätzliche Mengen deutlich erkennbar werden. Zumindest der Autor kann dies aber nicht feststellen.

Zur Erinnerung nochmals ein Vergleich „üblicher“ Sterbezahlen von „Pandemien“ die damals als „normal“ empfunden wurden und zu keinerlei politischen Maßnahmen führten (Anmerkung: Doch, es wurde ein Pandemie-Strategieplan erstellt, der als er gebraucht wurde sofort versagte):
Corona 10.12.2020 20.460 (an oder mit) Corona Verstorbene.
Spiegel, 20.04.2020: Historische Pandemien Als die Grippe in Nachkriegsdeutschland wütete
Bis zu 50.000 Westdeutsche sowie einige Tausend Ostdeutsche fielen der sogenannten Hongkong-Grippe zwischen 1968 und 1970 zum Opfer 
(Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 67.000) … Die andere – die sogenannte Asiatische Grippe – hatte rund zehn Jahre zuvor 30.000 Menschen (Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 39.000) in Bundesrepublik und DDR dahingerafft …
Lungenärzte im NetzWährend der letzten großen Grippe-Epidemie von 1995/96 mit etwa 8,5 Millionen Erkrankungsfällen starben allein in Deutschland ca. 30.000 Menschen an den Folgen der Influenza ...
Ärzteblatt.de, 30. September 2019
Berlin – Die außergewöhnlich starke Grippewelle 2017/18 hat nach Schätzungen rund 25.100 Menschen in Deutschland das Leben gekostet.

Fallzahlen im Corona-Hotspot, Stadt Fürth

Dieses beschauliche Städtchen ist inzwischen ein Corona-Hoch-Risikogebiet. Warum, weiß niemand, denn lange passierte dort fast nichts. Aber Nichtwissen ist bei Corona immer noch Standard.
Corona in Zahlen: Die rechnerische Letalitäts- oder Todesrate (gemessen in Todesfällen durch Infektionen) ist derzeit am höchsten in den folgenden Landkreisen:
Tirschenreuth mit 7,63%
Odenwaldkreis mit 5,41%
Straubing mit 5,35%
Wolfsburg mit 5,34%
Fürth mit 4,43%

Nun eine Betrachtung zur Corona-Mortalität in einem solchen Hochrisiko-Hotspot:

Bild 11 Stadt Fürth. Verlauf der Corona-Fallzahlen. Beachten: „aktuell Erkrankte Fälle“ sind Tageswerte. „Todesfälle“(Orange)/“Wieder Gesund“ sind kumulierte Werte. Quelle kosy

03. Juni: Summe Todesfälle: 37
29. Okt: Summe Todesfälle: 38
08. Dez.: Summe Todesfälle: 55

Dazu die Tabelle der aktuellen Fallzahlen:

Bild 12 Stadt Fürth. Corona-verstorben gesamt 55 Personen, davon 53 ab 70 Jahre alt. Abfrage 08.12.2020. Quelle: kosy

Nun der Vergleich Infektionen (Fallzahl) und Mortalität. Deutlich erkennbar verläuft die „zweite Welle“ gegenüber der ersten im Mortalitätsgeschehen mehr als wesentlich „glimpflicher“.

Bild 13 Stadt Fürth, Verlauf Corona-Infektionen und –Todesfälle. Grafik vom Autor durch übereinander kopieren erstellt. Quelle: Corona-in-Zahlen.de

Dazu der statistische Vergleich mit „Standard-“ Mortalität:
Deutschland
Jahr 2018: Einwohnerzahl: 82,8 Mio. Einschl. KW 49 verstorben: 897.408 Personen.
Davon waren über 70 Jahre alt: 765.980 Personen (anteilig 85,4 % der Verstorbenen)
Fürth
Einwohnerzahl: 128.500. Davon statistisch im Jahr 2018 bis einschl. KW 49 verstorben: 1.392 Personen, über 70 Jahre alt: 1.188 Personen .
2020 einschl. KW 49 an Corona verstorben: 55 Personen (davon 53 ab70 Jahren).
Der Corona-Anteil beträgt somit bisher ca. 4,63 % der statistischen Gesamt-Sterbezahl der über 70-Jährigen.

Intelligente Lösungen

Die unfehlbare Merkel ist unter dem üblichen Jubel der Medien wieder damit durchgekommen, rein emotionale Brachialmaßnahmen durchzusetzen, deren Wirkung – die Fallzahlen steigen trotzdem – außer den schlimmen Folgen kaum erkennbar bleibt. Der nur noch nachäffende Landesvater Söder hat sie (weil sie ja kein Ergebnis zeigen), sofort nochmals verschärft, da ihm die „Erziehung“ seiner Untertanen besonders am Herzen liegt. Fachlich beraten lässt er sich dabei von einem Corona-Ethikrat, dem eine ehemalige Regional-Bischöfin vorsteht.

Dabei zeigt der im Gegensatz zur GRÜNEN Führungsriege oft mit intelligenten Ansätzen aneckende – und deshalb immer wieder kurz vor dem Parteirauswurf stehende – Bürgermeister von Thüringen schon seit längerem, wie Lösungen aussehen können:

Tagesspiegel 09.12.2020: Boris Palmer über Tübingens Corona-Sonderweg: „Wir haben zuletzt bei den über 75-Jährigen keine Fälle mehr“

In Tübingens Klinik gibt es kaum Corona-Patienten. OB Palmer erklärt, mit welchen Maßnahmen die Älteren in der Pandemiegeschützt werden. Ein Interview.

Wir haben uns zum Ziel gesetzt, die Älteren besonders zu schützen, weil für sie die Gefahr durch Corona mit Abstand am höchsten ist. Deswegen haben wir im September damit begonnen, das Personal in den Altenheimen regelmäßig zu testen.

Im Oktober haben wirSchnelltestsgekauft, seither werden Besucher und Bewohner regelmäßig getestet.

So ist es uns gelungen, das Eindringen des Virus in die Alten- und Pflegeheime in unserer Stadt bisher vollständig zu verhindern. Wir haben insgesamt eine niedrige Sieben-Tage-Inzidenz, die letzten drei Wochen lag die um die 100 Fälle pro 100.000 Einwohner. Bei den über 75-Jährigen haben wir zuletzt überhaupt keine Fälle mehr gehabt. Deshalb hat auch unsereUni-Klinik nur sehr wenige Corona-Patienten.

Sie sagen, es gebe bei den über 75-Jährigen keine Fälle. Gilt das nur für die Altersheime oder auch für Alte, die noch zu Hause wohnen?

Bei den Menschen in den Heimen hatten wir gar keine Fälle. Aber auch die Mitarbeiter der mobilen Pflegedienste werden regelmäßig getestet, so dass wir das Einschleppen des Virus in die Privatwohnungen der Alten verhindern konnten.

Artikel, die einem ganz aktuell erscheinen, aber schon Jahre alt sind

Der mediale „Beschuss“ mit Pandemie-Fallzahlen und immer neuen, schlimmeren Darstellungen lässt meinen, so etwas wäre wohl einzigartig – deshalb die erforderlichen, extremen Maßnahmen – und früher noch nie vorgekommen.

Die folgenden Artikel sind schon alt und älter, erschienen aber in „schöner“ Regelmäßigkeit. Man fragt sich, warum unsere Politik damals keine Notstände ausgerufen hat.
Der Tagesspiegel 09.01.2000:
Krankenhäuser überfüllt – Patienten liegen auf Pritschen in den Gängen
Nach Großbritannien und Deutschland hat die Grippewelle jetzt auch Italien erreicht. Die Krankenhäuser in Mailand, Florenz und Venedig sind nach Presseberichten vom Sonntag derart überfüllt, dass praktisch keine Betten mehr frei sind. In vielen Hospitälern müssten die Kranken auf Pritschen auf den Gängen liegen. In Mailand war es über Stunden nicht möglich, einen Krankenwagen zu rufen: Patienten, die im Krankenhaus keine Aufnahme fanden, blockierten die Einsätze. Die Zeitung „La Repubblica“ meldete, allein in Turin seien zehn ältere Menschen an den Folgen der Virusgrippe gestorben. Derzeit würden 250 000 Fälle pro Woche registriert. Dabei sei der Höhepunkt der Grippewelle erst Ende Januar zu erwarten. Man rechne mit bis zu acht Millionen Kranken … In Deutschland nimmt die Zahl der Fälle ebenfalls zu. Vor allem Baden-Württemberg, Bayern und Thüringen sind betroffen …
Welt 19.02.2013: Grippewelle hat Köln fest im Griff
In Köln werden nicht nur die Betten auf den Intensivstationen knapp – auch die Blutkonserven werden weniger. Grund dafür ist die grassierende Grippe.
Bettenknappheit in Kölner Krankenhäusern. Aufgrund der vielen Grippekranken sind die Intensivstationen komplett überfüllt. Zeitweise sind die Krankenhäuser sogar so überlastet, dass sie keine neuen Patienten mehr aufnehmen können. Operationen müssen aufgrund der angespannten Lage verschoben werden.
Gegenüber der „Kölnischen Rundschau“ sagte der Chef der Anästhesie und Intensivstation in Hohenlind, dass zeitweise elf von 14 Intensivbetten mit Infektionspatienten belegt waren. Grund dafür ist nicht nur das Influenza-Virus, sondern auch ein aggressives Virus, das Atemwegserkrankungen bis hin zum Lungenversagen verursacht. Infolge dessen müssen die – meist älteren – Betroffenen zum Teil beamtet werden.
… Grippewellen seien nichts Ungewöhnliches, sagt Anne Bunte gegenüber Welt online. Saisonal würden sie immer wieder auftreten.
SZ
13. Februar 2015:Vor dem Kollaps
Alarmstimmung in Bayerns Kliniken: Der Patientenansturm ist so groß, dass die Notaufnahmen an vielen Häusern aktuell völlig überlastet sind. „Momentan ist die Situation – auch durch die Grippewelle – extrem angespannt, wir stehen mit dem Rücken zur Wand“, sagt Günter Niklewski, der Ärztliche Direktor des Klinikums Nürnberg. „Voll, voll, alles voll“, sagt er bei seiner Rückkehr aus der Notaufnahme, „wir kommen derzeit an die Kante von dem, was noch geht.“ Niklewski steht mit diesem Problem nicht alleine, selbst in der Landeshauptstadt München, die über mehr Versorgungsangebote verfügt, geraten immer mehr Häuser an ihre Kapazitätsgrenze und melden sich in der Rettungsdienstleitstelle ab – Botschaft: „Wir haben kein Notfallbett mehr.“
Ärzteblatt 7. Februar 2017: Grippewelle sorgt für überlastete Kliniken
Nachdem die Grippewelle in Frankreich bereits für eine Überlastung der Krankenhäuser und zu verschobenen Operationen geführt hat, scheint die Grippewelle nun auch die ersten Kliniken in Deutschland zu treffen. Bereits gestern hatte das Städtische Krankenhaus in Görlitz Patienten vorerst abweisen müssen. Nun klagen die Notaufnahmen mehrerer Kliniken in Nürnberg und München über Überlastung
„Es ist extrem schwierig im Moment. Uns ist keine vergleichbare Situation in dem Ausmaß aus den vergangenen Jahren bekannt.“ Der Bayerische Rundfunk hatte zuerst über die Engpässe berichtet.
Immer wieder müssten Kliniken in Nürnberg ihre Notaufnahmen zeitweise schließen, sagte Reißmann. Teils müssten Patienten auf Krankenhäuser in Erlangen und im Nürnberger Land verteilt werden. „Die Rettungswagen sind derzeit lange unterwegs, bis sie die Patienten unterbringen.“
nordbayern.de 22.02.2018: Grippe-Welle grassiert: Krankenhäuser sind überlastet Zahl der Influenzafälle in der Region steigt immer weiter an
NÜRNBERG – Die diesjährige Grippewelle hat die Region jetzt mit voller Kraft erfasst. Etliche Krankenhäuser können schon keine Influenza-Patienten mehr aufnehmen. Viele Kliniken haben sich wegen voller Betten bereits von der Rettungsleitstelle abgemeldet …

Es bleibt nur die Schlussfolgerung übrig: Damals gab es keine Bilder aus Bergamo mit medienwirksam, auf einem langen Militär-Lastwagenkorso abtransportierten Särgen. Meldungsarten, auf die unsere Kanzlerin (und deren höfische Umgebung) grundsätzlich mit panischen Entscheidungen reagiert.
Es ist also angebracht, weiterhin daran zu zweifeln, dass in Berlin (und leider auch in Bayern) von Vernunft getrieben entschieden wird.

Der GRÜNE Bürgermeister von Tübingen hat es gerade treffend beschrieben: Tagesspiegel, 08.12.2020: … Die Berlinerinnen und Berliner sind einer aktuellen Umfrage zufolge ziemlich unzufrieden mit dem Krisenmanagement des Berliner Senats. Können Sie das verstehen?
Da steht mir kein Urteil zu, aber ich habe ja schon mal gesagt, was ich als Privatmensch denke, wenn ich nach Berlin komme: Vorsicht, Sie verlassen jetzt den funktionierenden Teil Deutschlands …

 




Einige interessante Fakten zu Covid in Schweden

Eine Tabelle von besonderem Interesse in diesen Pandemiezeiten ist die wöchentliche Sterblichkeitsrate, und noch interessanter ist sie, wenn wir sie mit den Statistiken des Worldometer Covid vergleichen.

Ich stütze die Statistiken auf Berichte vom 5. Dezember, mache aber am 15. November einen Cutoff, um Fehler wegen spät gemeldeter Todesfälle zu vermeiden. Den Informationen des SCB zufolge treten bei Daten, die älter als zwei bis drei Wochen sind, keine wesentlichen Änderungen auf. Wir können daher die Daten bis zum 15. November als vertrauenswürdig betrachten.

Abbildung 1: Worldometer vom 5. Dezember mit Aufzeichnungsende am 15. November

Abbildung 2: Gesamtzahl der Todesfälle pro Tag in Schweden bis zum 15. November. Die Zahlen für 2020 sind violett, die grüne Linie zeigt die Durchschnittszahlen von 2015 bis 2019 und die rote Linie die Zahlen für 2020, wenn die gemeldeten Covid-Todesfälle subtrahiert werden.

Laut Worldometer, siehe Abbildung 1, hatte Schweden bis zum 15. November 6405 Corona-Todesfälle. Das sind etwa 600 Todesfälle pro Million Bürger, womit Schweden zu den am stärksten betroffenen Ländern wie Großbritannien, Frankreich und den USA zählt.

Wie wir in Abbildung 2 sehen, sind die überzähligen Todesfälle durch Covid von Mitte März bis Juni deutlich sichtbar, und wir sehen auch den Beginn einer zweiten Welle ab Mitte Oktober.

Hier kommt jedoch der interessante Teil, die überhöhte Sterbeziffer für 2020 im Vergleich zum Durchschnitt der Jahre 2015 bis 2019 beträgt nur 3570. Das sind nur 56% der Covid-Todesfälle, die von Worldometer im gleichen Zeitraum gemeldet wurden.

Der Grund dafür ist, dass die Sterbeziffer für 2020 sowohl vor der ersten Welle als auch in der Zeit zwischen den beiden Covid-Wellen unter dem Durchschnitt liegt. Die tatsächlichen Zahlen von SCB vor, während und nach der ersten Covid-Welle sind in der folgenden Tabelle dargestellt:

Die Tabelle basiert auf Zahlen des SCB. Wir sehen, dass 2020 sowohl vor als auch nach der ersten Covid-Welle eine niedrigere Sterblichkeitsrate aufweist als der Durchschnitt der Jahre 2015 bis 2019.

Teile dieser Anomalie können rein zufällig sein. Zum Beispiel war die Grippesaison 2019-2020 in Schweden besonders leicht.

Man kann darüber spekulieren, ob die beunruhigenden Pandemieberichte Anfang dieses Jahres genügend Menschen dazu veranlasst haben könnten, besonders vorsichtig mit Infektionen umzugehen, und damit auch eine geringere Ausbreitung der Grippe verursacht haben, aber das kann weit hergeholt sein.

Schwedens Chefepidemiologe Anders Tegnell wies darauf hin, dass die milde Grippesaison mitverantwortlich für die relativ hohe Covid-Todesrate zu Beginn der Pandemie sei. Mehr der am stärksten gefährdeten Personen überlebten die schwache Grippesaison, was bedeutet, dass Schweden mit einer höheren Anzahl gefährdeter Personen als normal in die Covid-Pandemie eintrat.

Er mag zwar Recht haben, aber dennoch werden die überzähligen Todesfälle im Jahr 2020 voraussichtlich groß genug sein, um die Lebenserwartung im ganzen Land um 0,3 Jahre zu senken. In der Region Stockholm wird die Lebenserwartung um schätzungsweise 1,2 Jahre zurückgehen, von 83,7 Jahren auf 82,5 Jahre.

Irreführende Worldometer-Statistiken

Ein weiterer interessanter Aspekt ist, dass die Worldometer-Statistik für Schweden in den letzten Tagen immer einen Einbruch zeigt. Der Grund dafür ist, dass es eine Verzögerung bei der Berichterstattung gibt, so dass die gemeldeten Zahlen für die letzten Tage viel zu niedrig sind. Dies wird in den beiden folgenden Abbildungen veranschaulicht.

Die Worldometer-Grafiken vom 21. November zeigen einen Rückgang nach dem 9. November. Dieser Rückgang ist künstlich und durch die späte Berichterstattung verursacht.

Das Worldometer vom 5. Dezember zeigt, dass die Todesrate nach dem 9. November weiter gestiegen ist.

Es ist noch zu früh, um zu sagen, ob die Rate nach dem 24. November ebenfalls weiter gestiegen ist.

Diese beiden Diagramme veranschaulichen, wie leicht wir uns von Statistiken täuschen lassen können, und das kann gefährlich sein, denn wir sind auf gute Statistiken angewiesen, um die richtigen Entscheidungen zu treffen.

Beispielsweise verwenden die Behörden die Zahlen für die Zahl der Neuinfizierten als Instrument, um die Beschränkungen, die die Reproduktionsrate R senken, entweder zu verschärfen oder zu lockern. Ziel ist es, R unter 1,0 zu halten. Ich bin ziemlich sicher, dass die Entscheidungsträger in der Regierung über diese Verzögerung Bescheid wissen, aber die Öffentlichkeit vielleicht nicht, und das beeinflusst, wie ernst wir die Situation nehmen.

Worldometer ist eine universell genutzte Website, und viele Laien suchen sie für ihre Länder auf. Wenn die Statistik für die letzten Tage einen Rückgang zeigt, werden viele denken: „Gott sei Dank, es ist vorbei, jetzt können wir nachlassen“.

Das ist vielleicht nicht der Fall.

References:

SCB: https://www.scb.se/hitta-statistik/sverige-i-siffror/manniskorna-i-sverige/doda-i-sverige/

Worldometer: https://www.worldometers.info/coronavirus/country/sweden/

Link: https://wattsupwiththat.com/2020/12/07/some-interesting-facts-about-covid-in-sweden/

Übersetzt von Chris Frey EIKE




Wie Politik Forschungsfreiheit versteht

Politische Ereignisse, Verkündungen und Maßnahmen prasseln nieder auf uns Bürger in vielfältiger Weise. Um sie alle gebührend wahrzunehmen, zu verfolgen und zu beurteilen, ist die dafür nötige Zeit häufig nicht sofort verfügbar. So geht es mir unter anderem mit der „Bonner Erklärung zur Forschungsfreiheit“. Sie verdient es, nachträglich noch einmal aufgegriffen zu werden. Unterzeichnet haben die Erklärung (s.u.) Bundesforschungsministerin Anja Karliczek und einige ihrer EU-Amtskollegen am 20. Oktober 2020 in Bonn. Sie verpflichten sich darin, die Freiheit der Wissenschaft und den kritischen Diskurs vor staatlichen Eingriffen zu schützen.  Weitere Staaten sollen sich der Erklärung anschließen oder haben es schon getan. Sie kommt daher mit wohlklingendem Inhalt. Die Forschungsfreiheit wird politisch vollmundig beschworen. Doch lässt sie unerwähnt, wo das Gegenteil geschieht, zumal in Deutschland, und Politik die Forschungsfreiheit massiv verletzt. Die Verlogenheit ist unübersehbar. Wie Politik Forschungsfreiheit versteht und verletzt, zeigt Dietmar Ufer**) in einem Gastbeitrag mit Beispielen auf. Von mir schließt sich eine Ergänzung an. Die Zwischenüberschriften in Ufers Beitrag  eingefügt habe ich.

Gedanken zur „Bonner Erklärung zur Forschungsfreiheit“

Von Dietmar Ufer

Nachfolgende Gedanken sind zwar von allgemeiner Bedeutung, werden jedoch aus dem Gesichtswinkel eines ehemals auf dem Gebiet der Energiewirtschaft tätigen Forschers und seinen langjährigen Erfahrungen formuliert. Bei der „Bonner Erklärung zur Forschungsfreiheit“ handelt sich um ein Papier mit grundsätzlich richtigen und notwendigen Forderungen, die eigentlich für die Europäische Union oder Deutschland als selbstverständlich anzusehen sind und daher keiner weiteren Hervorhebung durch ein offizielles, von Ministern unterschriebenes, Dokument bedürften.

Verletzte Forschungsfreiheit in der Kernreaktortechnik und Klimatologie

Jedoch weiß jeder in der Forschung Tätige, dass die Forschungsfreiheit tatsächlich immer wieder verletzt wird. Beispielsweise wird sie eingeschränkt durch Verteilung von staatlichen Fördermitteln, deren Vergabe vorab in Abhängigkeit von politischen Zielstellungen entschieden wird. So wird die Entwicklung der Kernreaktortechnik in Deutschland staatlich verhindert oder Forschungen in der Klimatologie werden nur dann gestützt, wenn sie der Bestätigung eines anthropogenen Klimawandels und dem Ziel der „Dekarbonisierung“ dienen. Wissenschaftler mit kritischer Haltung zu einem staatlich vorgegebenen Meinungsbild werden von Politikern und Medien öffentlich diskriminiert.

Unerwünschte Forschung als Desinformation dargestellt

Im Papier fehlt eine gründliche selbstkritische Analyse des tatsächlichen Standes der Forschungsfreiheit (wenigstens in Deutschland). Stattdessen wird allgemein auf ihre Verletzungen „weltweit und auch in Europa“ verwiesen. Zweimal wird gefordert, der „verzerrten Darstellung von Fakten und Desinformationskampagnen entgegenzuwirken“. Dabei wollen die Wissenschaftsminister als Unterzeichner der Erklärung „unsere Wissenschaftsorganisationen“ (die zumeist von der öffentlichen Hand leben) dabei „unterstützen“. Letztlich entscheiden also Regierungen darüber, was „verzerrte Fakten“ und „Desinformationskampagnen“ sind, nicht etwa die Forscher selbst mit ihren „fundierten wissenschaftlichen Erkenntnissen und Ansichten“, die „transparent ermittelt werden und widerlegbar sind“.

Von der Regierungsansicht abweichende Forschung wird gebrandmarkt als „Fake“

Besonders deutlich wird das in der Klimaforschung, in der jede von der Regierungssicht abweichende Meinung als „Fake“ gebrandmarkt wird. Einige „Wissenschaftsorganisationen“, die sich auf diesem Gebiet betätigen, tragen entscheidend dazu bei, die Forschungsfreiheit zu behindern – de facto gibt es sie in Deutschland auf diesem Gebiet nur noch eingeschränkt im privaten Rahmen. Bundesforschungsministerin Karliczek selbst demonstrierte ihre Sicht auf die Forschungsfreiheit, indem sie erklärte: „Wir sind auf die Wissenschaft angewiesen, wenn wir zum Beispiel den Klimawandel begrenzen wollen…“. Entgegen wissenschaftlich begründeter Forschungsergebnisse vertritt sie hier – ausgerechnet im Zusammenhang mit der „Forschungsfreiheit“ – die Meinung, dass nach Milliarden Jahren Klimawandel der Mensch ihn beenden könne!

Der Zusammenhang zwischen Forschungsfreiheit und Demokratie

Wiederholt wird in dem Papier auf den Zusammenhang zwischen Forschungsfreiheit und Demokratie hingewiesen. Es wird erklärt, dass ein „ein kritischer Diskurs keine Illoyalität bedeutet, sondern einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt.“ – Wenn aber die Demokratie nicht nur ein Aushängeschild in der wissenschaftlichen Meinungsbildung sein soll, dann muss der demokratischen Öffentlichkeit auch die Möglichkeit gegeben werden, sich über bestimmte Forschungserkenntnisse zu informieren, und zwar objektiv, nicht ausschließlich aus einer einzigen Sicht.

Abweichende Meinungen werden ignoriert, deren Vertreter diskriminiert

Das ist – wenigstens in Deutschland – nicht der Fall! Nicht nur auf den Gebieten Klimatologie und Energetik werden in allen Massenmedien ausschließlich regierungsamtliche Auffassungen vertreten – abgesehen von gelegentlichen kritischen Leserbriefen. Davon abweichende Meinungen werden ignoriert und deren Vertreter diskriminiert. Vom „Mainstream“ abweichende Forschungsergebnisse können nur ausnahmsweise in privat finanzierten Schriften oder im Internet veröffentlicht werden. Ein offener Meinungsaustausch – sowohl auf der Ebene der Forschung als auch in der interessierten Öffentlichkeit – findet nicht statt.

Forscher, die von politischen Dogmen abweichen, finden kein Gehör

Seit Jahren wird in den Massenmedien immer wieder verkündet: „Der Mensch ist für den Klimawandel verantwortlich“, „Die Emission von Kohlendioxid ist schädlich und muss möglichst komplett eingestellt werden“ oder „Die Energieversorgung kann komplett mit sog. erneuerbaren Energien erfolgen“. Kein Forscher findet Gehör, der von diesen Dogmen abweichende Meinungen vertritt – er erhält keine staatlichen Fördermittel und wird von keinem TV-Sender oder einer großen Zeitung eingeladen, seine Meinung darzustellen und zu beweisen.

Was die Forschungsminister bedenken sollten

Man kann sich der „Bonner Erklärung“ nur anschließen, wenn sie erklärt: „Wir verurteilen alle Verletzungen der Forschungsfreiheit aufs Schärfste und setzen uns mit Nachdruck dafür ein, diese zu verhindern.“ Vielleicht müssten die Forschungsminister den Inhalt ihrer „Bonner Erklärung“ einmal selbstkritisch beleuchten. Dabei sollten sie bedenken, dass „ein kritischer Diskurs … einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt“. Die Forscher jedenfalls hierzulande würden einen solchen ministeriellen Lernprozess mit Interesse verfolgen.

Politiker, die sich Forscher wie Schoßhündchen halten wollen

Soweit der Beitrag von Dietmar Ufer.

Den Wortlaut der Bonner Erklärung finden Sie hier. Zu dieser Erklärung hat Bundesforschungsministerin Anja Karliczek eine Pressemitteilung ihres Hauses verfassen lassen (hier). Bezeichnend dafür, wie diese Politikerin Forschungsfreiheit versteht, ist darin dieser Satz: „Wir verurteilen alle Versuche, Forschungsfreiheit einzuschränken. Das gilt auch für Angriffe gegen Wissenschaftler aus einigen Teilen der Gesellschaft, wie dies leider auch in der Corona-Pandemie verstärkt zu beobachten ist.“ Forscher also, die zu anderen, aber politisch nicht genehmen Aussagen kommen, beschränken die Freiheit jener Forscher, die Politiker sich wie Schoßhündchen halten wollen. Absolut irre.

Missliebige Forschungsergebnisse werden niedergemacht als „verzerrt“ und „populistisch“

In der Bonner Erklärung selbst lautet ein ebenso entlarvender Satz: „Zur Verteidigung der Wissenschaftsfreiheit gehört es auch, populistisch motivierter Faktenverzerrung den Boden zu entziehen.“ Im Klartext: Forschung, die der Bundesregierung und den Regierungen anderer EU-Staaten nicht genehm ist, wird als „populistisch“ hingestellt und als nicht erlaubt – oder verharmlosend in Merkel-Sprache: als nicht hilfreich. Und das Darstellen von Fakten, die politisch missliebig sind, wird abwertend niedergemacht als „verzerrt“.

Wie Ministerin Karliczek Wissenschaftsfreiheit politisch verdreht

Der Deutschlandfunk hat am 22. Oktober 2020 (hier) berichtet: „Laut Karliczek ist die Wissenschaftsfreiheit weltweit, aber auch in Europa gefährdet. Forscherinnen und Forscher würden ‚auf das Übelste beschimpft, denunziert und bedroht‘, sagte die CDU-Politikerin. Dadurch sollten sie ‚mundtot‘ gemacht werden, ‚weil ihre Aussagen dem Meinungsbild derer, die sie angreifen, widersprechen‘. Die Gesellschaft sei aber auf die Wissenschaft angewiesen – zum Beispiel beim Klimaschutz oder um die Corona-Pandemie in den Griff zu bekommen. Staaten müssten die Forschungsfreiheit respektieren, Gesellschaften Forscherinnen und Forscher verteidigen.“ So wird Wissenschaftsfreiheit politisch verdreht.

Forschungsfreiheit politisch gedrosselt, nicht geschützt

Oder anders übersetzt: Forschungsfreiheit sollen nur jene genießen, die in ihrer Forschung dem allgemeinem Meinungsbild (sprich: dem von Politik und Medien bestimmten Mainstream) folgen. Wer forschend dem nicht entspricht und zu anderen Forschungsergebnissen kommt, dem wird die Forschungsfreiheit nicht zugestanden. Die Forschungsfreiheit wird politisch also gedrosselt, nicht geschützt. Gefährdet, da hat Ministerin Karliczek recht ist die Forschungs- und Wissenschaftsfreit in der Tat, aber nicht durch jene unbotmäßigen Forscher, sondern durch die Politik und Politiker wie Karliczek selbst. Sie agieren wie der Dieb, der „Haltet-den-Dieb“ in die Menge ruft, um von sich und ihrem Vergehen auf andere abzulenken..

____________________________________________________________

*) Dr. rer. oec. Ing. Dietmar Ufer  ist Energiewirtschaftler und Gründungsmitglied des Europäischen Instituts für Klima und Energie (EIKE). Von 1970 bis 1998 hat er im Institut für Energetik in Leipzig als stellvertretender Direktor und Bereichsleiter für Energie und Ökologie gearbeitet. Sein  Beitrag stammt vom 23. Oktober 2020. Sein  Beitrag stammt vom 23. Oktober 2020.

„Bonner Erklärung“

Pressemitteilung von Anja Karliczek

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Wie und warum NASA und NOAA Klimadaten manipulieren

Dieselben Klima-Alarmisten behaupten auch, dass Realisten „von Interessen fossiler Brennstoffe finanziert werden“ und daher verdächtige Motive haben. Nach Ansicht der Alarmisten sind Realisten nicht daran interessiert, Fakten und objektive Wahrheiten zu verbreiten, da ihre eigentliche Absicht darauf ausgerichtet sein muss, irgendeine Art von Vermögensinteresse zu schützen.

Sind diese beiden Argumente wirklich fundiert? Wenn ja, sollten sie dann nicht auch auf Alarmisten angewandt werden?

Was würde mit der Stichhaltigkeit der Argumente der Alarmisten geschehen, wenn sie tatsächlich diejenigen sind, die es versäumen, „der Wissenschaft zu folgen“? Was wäre, wenn ihre Motive weniger in der „Rettung des Planeten“ als vielmehr in der Arbeitsplatzsicherheit liegen würden? Was ist, wenn die Hüter der „Wissenschaft“ – die National Aeronautics and Space Administration (NASA) und die National Oceanic and Atmospheric Administration (NOAA) – die Klimadaten fälschen, und was ist, wenn die Quelle ihrer Finanzierung dieses Verhalten in einzigartiger Weise fördert?

Tony Heller hat über seine Website RealClimateScience.com schlüssig nachgewiesen, dass sowohl die NOAA als auch die NASA zumindest in den letzten 30 Jahren ihre Daten verändert und verfälscht haben, um das Narrativ zu untermauern, dass das vom Menschen verursachte CO2 die Temperatur der Erde beeinflusst. (Siehe Heller, „Wie die US-Temperaturaufzeichnungen verändert werden, Teil 1-3“).

Heller hat zum Beispiel überzeugend gezeigt, wie die NASA ihre ursprünglichen Temperaturdaten so verändert hat, dass die Temperatur für die Jahre 1905 bis 1940 gesenkt und die Daten für die Jahre 1940 bis 2010 angehoben wurden, wodurch künstlich ein klarer Aufwärtstrend der Temperatur über den gesamten Zeitraum erzeugt worden ist, während die ursprünglichen, unveränderten Daten tatsächlich einen Abkühlungstrend zeigen.

Heller wies auch nach, wie die „Wissenschaftler“ der NOAA ebenfalls zu der gleichen Schlussfolgerung des Erwärmungstrends gekommen sind. Doch während die NASA die vorhandenen Daten einfach angepasst hat, hat die NOAA sie noch einfacher erfunden.

In einem bestimmten Zeitraum gibt es eine Reihe von Wetterstationen, die keine Daten melden. Für diese Stationen, die keine Daten melden, „schätzt“ die NOAA die Daten mit Hilfe eines geheimen, selbst erstellten Algorithmus. Im Jahr 1950 „schätzte“ die NOAA nur 5% der fehlenden Stationen. Bis 2015 war die Zahl der geschätzten Stationen auf 48% gestiegen! Es ist für die NOAA nicht schwierig, eine Trendlinie zur Untermauerung ihrer Theorie zu zeichnen, wenn die Hälfte des Datensatzes selbst hergestellt wurde.

[Hervorhebung vom Übersetzer].

Weder die NOAA noch die NASA haben die Kritik von Tony Heller abgestritten, weil sie es nicht können. Die Zahlen sprechen für sich selbst. Stattdessen sind die NOAA und die NASA mit beiden Beinen auf den menschengemachten politischen Zug der globalen Erwärmung gesprungen – zur Hölle mit den Fakten.

Dann stellen sich also zwei offensichtliche Fragen: Warum sollten die NOAA und die NASA dies tun, und wie tun sie es? Lassen Sie uns zunächst untersuchen, warum.

Als US-Regierungsbehörden werden sowohl die NOAA als auch die NASA vollständig über den jährlichen Haushalts der [US-]Bundesregierung finanziert. Meine erste Begegnung mit diesem Verfahren fand statt, als ich von Präsident George W. Bush zum Administrator (CEO) der St. Lawrence Seaway Development Corporation – einer Bundesbehörde – ernannt worden war. Da ich mein ganzes Leben in der Privatwirtschaft verbracht hatte, war ich mit den Messgrößen vertraut, mit denen sie die Leistung und den Erfolg von Organisationen misst: Bilanz, Gewinn- und Verlustrechnung, Gewinn und Verlust, Börsenkurs, Verschuldungsgrad und so weiter.

Als es darum ging, die Leistung einer Bundesbehörde zu messen, erwartete mich eine Überraschung. Keine dieser Kennzahlen für den privaten Sektor war hier anwendbar. Keine davon wurde auch nur als relevant betrachtet. Es gab nur eine Kennzahl, die Erfolg oder Misserfolg misst. Das heißt, erhielt die Agentur die jährlichen Mittel, die sie von den Finanzausschüssen des Repräsentantenhauses und des Senats beantragt hatte?

Das war alles. Es gab keine Bilanz, Gewinn- und Verlustrechnung oder irgendeine andere gebräuchliche finanzielle Messgröße. Es zählte nur ein Maßstab: was für ein Stück des vom Steuerzahler finanzierten Kuchens erhielt die Agentur jährlich vom Kongress.

Ich habe schnell gelernt, dass hierbei hart – zeitweise sogar rücksichtslos – gekämpft wurde. Um erfolgreich öffentliche [Steuer-]Gelder zu erlangen, würden die Agenturen alles tun, alles sein und alles sagen, um dem Kongress politisch attraktiv zu erscheinen.

Das bedeutet, dass jede Bundesbehörde ständig ihr Fähnchen anch dem politischen Wind ausrichtet. Jede erfolgreiche Agentur ist in der Lage, die geringste Veränderung des politischen Windes zu erkennen. Dabei spielt es keine Rolle, ob die Behörde schlampig geführt wird, antiquiert ist oder sich stümperhaft und stolpernd ihren Weg durch den Bürokratie-Wald bahnt. Wenn es ihr gelingt, den Kongress von ihrem politischen Nutzen zu überzeugen, dann wird ihrem Haushaltsantrag stattgegeben, und das Überleben der Agentur ist gesichert.

Dies führt zu der unverrückbaren Tatsache, dass das Arbeitsergebnis jeder Bundesbehörde, einschließlich derer, die für die Erhebung von Klimadaten zuständig sind, hochgradig politisiert ist. Jede. Einzelne. Eine. Das unveränderliche Gesetz des bürokratischen Überlebens verlangt es.

NASA- und NOAA-„Wissenschaftler“ sind keine ideologisch neutralen Forscher, die in einem Vakuum leben. Sie existieren nicht in einem Elfenbeinturm der Datenreinheit. Sie sind Bürokraten, die bürokratische Interpretationen von Klimadaten vornehmen, und ihre Meinungen werden durch den institutionellen Imperativ des Gehorsams gegenüber politischen Notwendigkeiten eingerahmt. Jeder NOAA- oder NASA-Mitarbeiter, der es wagt, die vorherrschende Parteilinie in Frage zu stellen, würde seine Karriere beenden und Selbstmord begehen.

Dies erklärt, warum NOAA und NASA Klimadaten fälschen. Wie sie das tun, lässt sich an der Behandlung der täglichen Temperaturdaten durch die NOAA ablesen.

Das Ablesen von Temperaturaufzeichnungen scheint ein ziemlich unkomplizierter Prozess zu sein, nicht wahr? Falsch.

Zuerst müssen die Wetterstationen ausgewählt werden, deren die Daten man aufzeichnen will. Die „Ausreißer“ werden verworfen – ebenso die „Duplikate“. Dann müssen wie schon erwähnt die Daten der nicht meldenden Stationen „geschätzt“ werden. Aber das ist noch nicht alles. Als nächstes kommt die Anpassung der „Tageszeit“. Es scheint einen Unterschied zu machen, ob die Ablesung am Morgen oder am Nachmittag vorgenommen wurde.

Dann gibt es Anpassungen für den städtischen Wärmeinseleffekt – die Tatsache, dass das Gelände um viele der älteren Stationen bebaut, gepflastert oder anderweitig verändert wurde, so dass künstlich Wärme erzeugt wird, was die Temperaturmessungen verzerrt. Dann gibt es Anpassungen für verschiedene „Typen“ von Temperaturdaten. Um NOAA zu zitieren, „einige sind 175 Jahre alt und einige sind nur 1 Stunde alt“. Und: „Die Daten müssen „homogenisiert“ und „synthetisiert“ werden.

Vielleicht erfasst diese Aussage der NOAA am besten die außerordentliche Menge beurteilender Entscheidungen, welche die Sammlung von Temperaturdaten umgibt: „Diese Daten werden einer Qualitätskontrolle unterzogen und sind möglicherweise nicht mit den ursprünglichen Beobachtungen identisch“.

Das ist es. Qualitätskontrolle. Der geheime Brei der NOAA, der üppig auf alle ihre Temperaturbeobachtungen angewandt wird. Die Geschichte, warum und wie die NOAA und die NASA Daten manipulieren, läuft darauf hinaus: „Diese Daten sind qualitätskontrolliert und möglicherweise nicht mit den ursprünglichen Beobachtungen identisch. Die Klimaverlautbarungen und -bestimmungen der NOAA und der NASA sind keine „Wissenschaft“ – eine objektive Wahrheit. Sie sind geheim-bürokratische Interpretationen von Dutzenden von Klimadatenpunkten, die dazu dienen, eine Schlussfolgerung zu stützen, die den Finanzierungsimperativen der Agentur förderlich ist.

Und das ist die Wahrheit.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia.

Link: https://www.cfact.org/2020/12/02/why-and-how-nasa-and-noaa-manipulate-climate-data/

Übersetzt von Chris Frey EIKE