Das Hähnchen­grill-Paradoxon

Würden Sie ein solches Angebot tatsächlich annehmen?

Vielleicht würden Sie die Funktionsweise eines solchen Turbobräuners auf das Prinzip eines Hähnchengrills zurückführen, dessen Leistung man einfach auf das ganze Hähnchen inklusive seiner Rückseite herunterrechnet. Und daher könnten Sie zu der Erkenntnis gelangen, dass die Wirkung einer doppelt so großen direkten Strahlungsleistung Ihrer Gesundheit nicht ganz zuträglich wäre. Und genauso berechnet man jetzt umgekehrt einen viel zu geringen Wert für die tatsächliche „natürliche“ Temperatur unsere Erde. Man verteilt nämlich einfach die tatsächliche spezifische Strahlungsleistung der Sonne auf der Tagseite unserer Erde rechnerisch über die gesamte Erdoberfläche, also auch auf deren Nachtseite. Dabei kommt man fälschlicher Weise auf eine „theoretische Globaltemperatur“ von (-18°C) und behauptet, die Sonne sei gar nicht stark genug, um mit ihrer direkten Einstrahlung die gemessenen Temperaturen auf unserer Erde zu erzeugen. Als Erklärung für die Differenz zur sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) postuliert man dann eine ominöse „atmosphärische Gegenstrahlung“, die konstruktionsbedingt jede Differenz zu einer beliebigen NST erklären kann, weil sie quantitativ lediglich an der sogenannten „Abstrahlungstemperatur“ von (-18°C) „festgemacht“ ist. Damit schaltet man dann eben mal den natürlichen Klimaantrieb aus, dessen Einfluss in den vergangenen 420.000 Jahren immerhin um ca. +3°C/-9°C geschwankt hatte. Mit diesem „Hähnchentrick“ beweist man also einen vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ als alleinigen Antrieb unseres Klimageschehens, denn man muss ja immer nur die „Gegenstrahlung“ passend nachjustieren. Die direkte spezifische Strahlungsleistung der Sonne kann auf unserer Erde im äquatorialen Zenit aber eine Maximaltemperatur von bis zu ca. 120°C erzeugen. Abzüglich des durchschnittlich reflektierten Anteils und durch eine Mittelung über die gesamte Erdoberfläche ergeben sich nach herkömmlicher Rechnung aber lediglich -18°C.

Bezogen auf einen Hähnchengrill, bei dem man ebenfalls die Leistung des Heizstrahlers auf das gesamte Hähnchen inklusive seiner Rückseite herunterrechnet, würde das den Unterschied zwischen einem gegrillten (120°C) und einem tiefgefrorenen (-18°C) Hähnchen ausmachen.
(Aus meinem Buch „Mehr geht nicht“ mit Änderungen und Ergänzungen.)

Also, je nachdem, ob man sich auf die tatsächlich bestrahlte Fläche beschränkt oder ob man, wie beim Hähnchen, „aufgrund der Rotation“ fälschlicherweise unbestrahlte Flächen in diese S-B-Inversion einbezieht, kommt man für unsere Erde zu ganz unterschiedlichen „theoretischen“ Temperaturen, von denen nur eine richtig sein kann. Und beim THE-Paradigma wird ohne weitere Erklärung der planare solare Poynting Vektor (Einstrahlung) gegen einen radialen terrestrischen Poynting Vektor (Abstrahlung) ausgetauscht, indem einfach nur mit Beträgen gerechnet wird. Bei meinem hemisphärischen S-B-Modell wird dagegen bei der solaren Einstrahlung auf der Tagseite der Erde der solare Zenitwinkel berücksichtigt.

Definition: Als Temperaturgenese sei derjenige Prozess bezeichnet, mit dem der Vektor (Betrag&Richtung) der Strahlstärke von der solaren Einstrahlungsrichtung zur terrestrischen Abstrahlungsrichtung hin verändert wird. Es ist in einer physikalischen Betrachtung nicht statthaft, die Richtung eines Vektors zu unterdrücken und nur mit seinem Betrag zu rechnen.

ERGO: Mein hemisphärisches S-B-Modell ist das einzige Modell für die Temperaturgenese auf unserer Erde, das die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden kann.

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung abbilden und erfasst damit qualitativ alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese.

Das Modell einer „Erde ohne Atmosphäre“ orientiert sich am Mond

Die hemisphärische S-B-Inversion ist nicht auf eine ominöse „Erde ohne Atmosphäre“ anwendbar, aus der sich dann ein „natürlicher atmosphärischer Treibhauseffekt herleitet. Nur zur Erinnerung, Klima kommt aus dem Griechischen und bedeutet ‚Krümmung/Neigung [des Sonnenstandes]‘ – und eine solche Neigung des Sonnenstandes gibt es nachts nun einmal nicht. Der unvoreingenommene Betrachter kann das schon daran erkennen, dass der Lichtschutzfaktor der – selbstverständlich nur am Tage – benutzten Sonnencreme üblicherweise umgekehrt proportional zur geographischen Breite des jeweiligen Einsatzortes ist. Eine solche „Erde ohne Atmosphäre“ entspricht übrigens viel eher dem Mond, dessen Tagestemperatur mein hemisphärischer S-B-Ansatz (hier und hier) ganz hervorragend abbilden kann. Dabei ist zu beachten, dass, abweichend von der Situation auf dem Mond, auf der Erde das S-B-Temperaturäquivalent niemals erreicht wird. Denn mit der örtlichen Erwärmung beginnen hier unmittelbar auch Konvektion und Verdunstung, durch die fortlaufend Energie in die globalen Zirkulationssysteme abgeführt wird.

Also noch mal zur Erinnerung der Unterschied zwischen dem S-B-Gesetz und einer S-B-Inversion:

Das Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Formel: S=P/A=SIGMA T4

In Worten: Ein schwarzer Körper mit einer gegebenen Temperatur T (>0K) in [K] strahlt zeitgleich eine durch das S-B-Gesetz fest verknüpfte Strahlungsleistung [W] über seine gesamte Oberfläche „A“ in [m²] aus. Die Abstrahlung erfolgt in Richtung der Flächennormalen. Das S-B-Gesetz enthält weder nicht strahlende Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s].

Jede Berechnung einer Temperatur (sekundär) aus einer bestimmten Strahlungsleistung (primär) stellt eine Inversion (Strahlung=>Temperatur) des Stefan-Boltzmann-Gesetzes dar, die nur zulässig ist, wenn alle genannten Randbedingungen des S-B-Gesetzes strikt 1:1 erfüllt werden:

Die Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Formel: T=(S/SIGMA)1/4

In Worten: Eine gegebene spezifische Strahlungsleistung [W/m²] beleuchtet einen (schwarzen) Körper mit einer Oberfläche „A“ in [m²] und erzeugt dort zeitgleich ein über das S-B-Gesetz fest verknüpftes Temperaturäquivalent in T [K], und zwar strikt abhängig vom Einfallswinkel der Strahlungsleistung auf die Fläche „A“. Eine Stefan-Boltzmann-Inversion darf weder unbeleuchtete Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s] enthalten.

Die PHYSIKALISCHE Gleichzeitigkeit im Stefan-Boltzmann-Gesetz: Die Zeit „t“ ist NICHT im S-B-Gesetz enthalten. Daher müssen alle mathematischen Prozesse im Zusammenhang mit S-B (S-B-Berechnung, S-B-Inversion) unmittelbar zeitgleich erfolgen.

Die fehlerhafte Durchschnittsberechnung: In einem physikalischen T4-Gesetz folgt eine Durchschnittsberechnung nicht der ursprünglichen Funktion, Beispiel:
0 W/m² entsprechen nach dem S-B-Gesetz -273 °C und 470 W/m² entsprechen 28 °C. Der daraus gemittelte Temperaturwert von etwa -122,5 °C für einen Strahlungsdurchschnitt von 235 W/m² entspricht aber keineswegs der diesem Strahlungswert direkt zugeordneten S-B-Temperatur von -19°C.

Im Stefan-Boltzmann-Gesetz ist der Rechenweg nicht austauschbar:

PHYSIK(=MEAN@S-B-Inversionen[W/m²]) # MATHEMATIK(=S-B-Inversion@MEAN[J/m²s])

In jede Gleichung können Sie ohne Veränderung der mathematischen Lösung beliebige Größen einfügen, solange diese gleichzeitig im Zähler UND Nenner auftauchen, also zum Beispiel:

(Lichtgeschwindigkeit/Lichtgeschwindigkeit) oder (Gewicht der Erde/Gewicht der Erde) oder (Sekunde/Sekunde) oder…

Wenn Sie also auf Ihrem Rechenweg zwischendurch die spezifische Leistung mit Sekunden multiplizieren (=Arbeit [s*W/m²=J/m²]) und am Ende wieder durch Sekunden teilen (Leistung [J/m²s=W/m²]), macht das der Mathematik gar nichts; anders ist es mit der Physik, denn die ist hinterher nicht mehr dieselbe. Denn in der Physik muss der Gegenstand der Betrachtung physikalisch anwesend sein. Beim S-B-Gesetz selbst ist das ganz profan, weil der Schwarzkörper eine ganz konkrete Temperatur besitzt und daher die gleichzeitige spezifische Strahlungsleistung über seine gesamte Fläche „A“ konstant ist. Bei der S-B-Inversion darf dagegen ein Temperaturdurchschnitt nur aus den UNMITTELBAR GLEICHZEITIGEN S-B-Ortstemperaturen berechnet werden, eine MITTELBARE Durchschnittsbildung über die zeitliche Summation/Integration der spezifischen Strahlungsleistung mit nachfolgender S-B-Anwendung ist dagegen nicht erlaubt.

Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nichts zu suchen.

AUFFORDERUNG: Die Faktor4-Tag=Nacht-THE-Fraktion möge den PHYSIKALISCHEN Beweis erbringen, dass das Stefan-Boltzmann-Gesetz (S=P/A=SIGMA T^4) Flächen (B) enthält, die NICHT zur Strahlungsleistung (P) des Schwarzkörpers beitragen.

 

 

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften…

Die „zweite Sonne“ im hemisphärischen S-B-Modell sind die Ozeane

Und jetzt betrachten wir einmal, wie sich die Flächen (A=beleuchtet) und (B=unbeleuchtet) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von 14,8°C auswirken. Diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesem Durchschnittswert also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Die Nachtseite unserer realen Erde erhält in der erlebten Realität also keinerlei Sonneneinstrahlung, hat aber trotzdem keine Mond-Temperatur von etwa minus 200°C. Denn die Nachttemperatur hängt im Wesentlichen von der Wärmespeicherfähigkeit des passiv bestrahlten Himmelskörpers ab. Und auf der Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung, und diese Wärmespeicher werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter auf beiden jahreszeitlichen Hemisphären:

Abbildung 2: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA)

Diese Ozean-Daten repräsentieren also schon einmal zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von ca. 15°C kumulieren. Dieser Verlauf bestätigt mein hemisphärisches S-B-Modell, das den 0°C-Durchgang des tagseitigen S-B-Temperaturäquivalentes ebenfalls bei etwa 70° nördlicher und südlicher geographischer Breite berechnet, wie die nachfolgende Abbildung beweist:

Abbildung 3: Das breitenabhängige S-B-Temperaturäquivalent im Äquinoktium

Links: Das vom Zenitwinkel abhängige tagseitige S-B Temperaturäquivalent für 1°-Segmente zwischen 0° und 90° nördlicher und südlicher Breite in [°C]

Berechnungsschema:

Lotrechter Sonnenstand auf dem Äquator,
Berechnung des S-B-Temperaturäquivalents aus der lokalen solaren Einstrahlung auf Mantelringen von 1° Breite mit dem Radius ri und dem Zenitwinkel i nach der Formel:

Der Grenzwert (n->oo) für die Summation über alle Segmente „n“ zwischen 0° und 90° nördlicher und südlicher Breite auf der Tagseite der Erde ergibt sich als meine Korrektur der Integrallösung von G&T (2009) zu 2 x 144,15K = 288,3K = 15,15°C

Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag

Und nun erkläre bitte irgendein Anhänger der ominösen „Erde ohne Atmosphäre“, wie die globale Nachttemperatur in meinem hemisphärischen S-B-Modell für die reale Erde auch nur auf -18°C oder sogar auf Mond-Temperaturen von ca. -200°C absinken sollte. Die NASA-Abbildung der jährlichen mittleren ozeanischen Oberflächentemperatur weist vielmehr nach, dass die Ozeane genügend Wärme enthalten, um die Nachttemperaturen über die Umgebungsgleichung des S-B-Gesetzes nicht unter ihr eigenes Temperaturniveau absinken zu lassen (Ozean=>Atmosphäre=>Land). Denn schließlich tragen die dort abgebildeten Durchschnittstemperaturen nicht nur zu zwei Dritteln zur globalen Durchschnittstemperatur bei, nachts/im Winter/in höheren geographischen Breiten erfolgt aus diesem Wärmereservoir auch noch ein stetiger Wärmefluss vom Meer zum Land (hier Punkt 6). Auf dem Hamburger Bildungsserver Klimawandel heißt es unter „Ozean im Klimasystem“ bestätigend, Zitat mit Hervorhebungen:
Zwischen Ozean und Atmosphäre herrscht ein ständiger Energie-/Wärmeaustausch: Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt. Im Sommer/ am Tag ist der Ozean kälter als die Atmosphäre, da diese sich schneller durch die höhere solare Einstrahlung erwärmt. Es wird also Wärme von der Atmosphäre in den Ozean transportiert, der diese speichert. Auch im Winter/ in der Nacht reagiert der Ozean nur sehr langsam auf die viel geringere Einstrahlung. Während die Atmosphäre schon wieder stark abgekühlt ist, ist in der oberen Schicht des Ozeans noch viel Wärme gespeichert und erwärmt somit die über ihm liegende Atmosphäre. Der Ozean dämpft also den Einfluss der Sonneneinstrahlung, sodass Landgebiete in Meeresnähe im Winter eher wärmer, im Sommer kühler als meerferne Gebiete sind. Sie zeigen somit einen schwächeren Jahresgang. Analoges gilt für Tag- und Nachttemperaturen.“

ALSO:Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt“, und dieser Energietransfer wird durch die S-B-Umgebungsgleichung beschrieben:

DELTA S = SIGMA (T4 – T04)
An dieser Stelle bietet es sich an, auch gleich noch das viel diskutierte Jacken-Paradoxon aufzulösen. Wenn es draußen kalt ist, dann ist die Umgebungstemperatur T0 niedrig, nehmen wir mal 273K; Ihre Körpertemperatur beträgt dagegen 310K. Ihr Körper strahlt also mit DELTA S = SIGMA (3104K – 2734K) und Sie frieren. Wenn Sie jetzt eine Jacke anziehen, erwärmt sich deren Innenseite durch Ihre Körpertemperatur, sagen wir einmal auf 305K, das ist also Ihre neue Umgebungstemperatur. Ihr Körper strahlt dann nur noch mit DELTA S = SIGMA (3104K – 3054K) und Sie frieren nicht mehr, weil Ihr Körper durch die Jacke besser gegen den Wärmeverlust isoliert ist. Die Jacke erhöht also Ihre Körpertemperatur nicht, sondern verhindert lediglich dass Sie auskühlen. Anders ist es, wenn Sie in dieser Jacke Sport treiben. Dann produziert Ihr Körper mehr Wärme, als durch diese Jacke abgeleitet werden kann und Sie fangen an zu schwitzen. Da hilft dann nur noch eine dünnere Jacke, die schlechter isoliert…

Die hemisphärische S-B-Inversion ist ein qualitatives 3D&T-Modell unserer Erde

Da nun einmal die tagseitige solare Einstrahlung als Primärquelle für die Temperaturgenese auf unserer Erde anzusehen ist, stellt die hemisphärische S-B-Inversion ein realistisches 3D&T-Modell unserer Erde dar. Dieses Modell erklärt die Temperaturgenese, die Nachttemperatur und die globale Abstrahlung widerspruchsfrei zu den Hauptsätzen der Thermodynamik, wie die drei nachfolgenden Abbildungen belegen:

Tagseitige Einstrahlung @2PIR² und Temperaturgenese: Die hemisphärische Temperaturgenese folgt dem Sonnenstand auf der Tagseite der Erde:
S0*(1-ALBEDO) * COS(örtl. Zenitwinkel der Sonne)

Abbildung 4: Maximales breitenabhängiges S-B-Temperaturäquivalent im Äquinoktium.

Die Temperatur auf den Landmassen der Nachtseite unserer Erde kann nicht unter die Temperatur der globalen Wärmespeicher absinken und wird durch die S-B-Umgebungsgleichung DELTA S=SIGMA(T4-T04) beschrieben:
Die globalen Wärmespeicher unserer Erde (@T0) verhindern ein Mond-ähnliches Absinken der Nachttemperaturen auf unserer Erde. Der nächtliche Abstrahlungsverlust der Landoberfläche (@T) wird durch Advektion und Kondensation kompensiert.

Abbildung 5: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA).

Globale Abstrahlung @4PIR²:

Der Energiefluss bei der Abstrahlung (@4PIR²) vom Warmen (Erdoberfläche@390W/m²) zum Kalten (Abstrahlungshöhe@235W/m²) gehorcht den Hauptsätzen der Thermodynamik.

Abbildung 6: Die Richtung des Poynting-Vektors im globalen Abstrahlungsmodell (@4PIR2). Mit perspektivisch angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

QED: Mein hemisphärisches S-B-Modell geht vom prinzipiellen Unterschied zwischen Tag und Nacht aus und erfordert keinen „natürlichen atmosphärischen Treibhauseffekt“ zur Erklärung der terrestrischen Temperaturgenese. Dieses S-B-Modell liefert vielmehr ein qualitatives Bild von den räumlichen und zeitlichen Veränderungen, die unser globales Klimageschehen bestimmen. Das hemisphärische S-B-Modell wäre also eine einmalige Möglichkeit, die Position der Klimarealisten in der Auseinandersetzung um unserer aller Zukunft zu stärken und die gesamte CO2-Klimahysterie ad absurdum zu führen; meinen damaligen Ausführungen ist also nichts hinzuzufügen…

Das Treibhaus-Paradoxon macht die Nacht zum Halbtag – den Tag aber leider auch…

Aber GLAUBEN Sie mir bitte ja nichts, schon gar nicht mein hemisphärisches S-B-Modell. PRÜFEN Sie vielmehr alles sehr sorgfältig, und widerlegen Sie mein S-B-Modell, indem Sie den wissenschaftlichen Nachweis über eine eindeutige physikalische Tag&Nacht-Gleichheit führen. In der nachfolgenden Tabelle können Sie noch einmal die Unterschiede der beiden konkurrierenden Modelle überprüfen:

Tabelle 1: Direkter Vergleich der konkurrierenden S-B-Modelle für die Globaltemperatur mit meiner Bewertung – können Sie hier vielleicht einen Vorteil für das 4PIR2-THE-Paradoxon erkennen?

2PIR² = Das hemisphärische S-B-Modell 4PIR² = Das THE-Tag=Nacht-Flacherdeparadigma
[Hinweis von Admin: Die in der Tabelle in der rechten Spalte genannten Links konnten im EIKE-Editor nicht übernommen werden. Sie folge hier entsprechend der Numerierung links.

Links: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18.

Ende Hinweis]

Die tatsächliche Abfolge von Tag und Nacht im realen Leben entspricht nicht dem 4PIR2-Tag=Nacht-THE-Halbdunkel, sondern spiegelt vielmehr das Kindergarten-Alltagswissen, nachts sei es dunkler als draußen. Von daher müsste jeder Betrachter erkennen können, dass unsere Sonne ausschließlich am Tage (@2PIR2) Arbeit (=Leistung*Zeit) zu verrichten gewillt ist und nachts (ebenfalls @2PIR2) einfach streikt. Der Ausgangspunkt der herkömmlichen THE-Ableitung, die „-18°C-S-B-Globalinversion“ ist also definitiv falsch, weil sie mit der Tag&Nacht-Realität auf unserer Erde nichts zu tun hat und erst durch das Kunstprodukt „THE“ wieder an diese Realität anzuschließen vermag. Wer also meinen hemisphärischen 2PIR2-Ansatz ablehnt, der möge sich gerne etwas ganz Neues ausdenken; der 4PIR2-Tag=Nacht-THE-Ansatz kann es jedenfalls wirklich nicht sein. Es ist schon sehr erstaunlich, dass der astronomische Gebrauch des Stefan-Boltzmann-Gesetzes für aktiv leuchtende Sterne einstmals kritiklos auf einen passiv bestrahlten Planeten wie unsere Erde übertragen worden ist. Es ist noch erstaunlicher, dass mehr als drei Jahrzehnte intensiv alimentierte Klimaforschung den Unterschied zwischen Tag und Nacht nicht erkannt haben will. Am erstaunlichsten aber ist, dass selbst bei den sogenannten Klimarealisten eine überwiegende Mehrheit diese fehlerhafte S-B-Inversion hochemotional verteidigt.

 




Corona: Gibt es intelligente Lösungen oder nur die unserer Politiker?

Coronadaten

Anmerkung: Warum immer wieder „Corona“? Weil es eine vorgezogene Blaupause für die Maßnahmen zum Klimawandel ist. Genau so Unsinnig und an vielen Fakten vorbei wird auch dort entschieden. Nur, dass man es bei Corona besser erkennen kann.

Lediglich die Zeithorizonte unterscheiden sich und etwas ganz Wichtiges: Bei „Covid“ schmeißen die Politiker das Geld zum Fenster hinaus und es kommt nie wieder zurück. Beim Klimawandel passiert das Erste auch, doch bekommt das Geld gezielt ein bestimmtes Klientel und die anderen müssen es über Jahrzehnte über die Luftsteuer zurückbringen.

Schaut man sich (nur) die Grafiken auf amtlichen Seiten – und die immer verzweifelteren Hilferufe unserer Politiker – an, dann kann einem mit Corona wirklich Angst und Bange werden.

 

Bild 1 Corona-Fallzahlen. Quelle: RKI Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 16.12.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND

Bild 2 Corona-Daten. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 3 Corona-Daten von Bild 2.Blaue und rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 4 Corona-Daten, summiert. Anzahl Todesfälle (rot) Maßstab rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Gesamtübersicht der pro Tag ans RKI übermittelten Fälle, Todesfälle und 7-Tages-Inzidenzen nach Bundesland und Landkreis

Erste Zweifel sollten einem jedoch spätestens kommen, wenn man sich die Mühe macht, Verläufe anderer Länder, wie zum Beispiel der Schweiz zu betrachten:

Bild 5 Schweiz: Covid-19 Fallzahlen und Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020. Rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: Covid-19 Schweiz

Auswertung

Die Darstellungen auf den üblichen Dashboards sind in aller Regel so aufgebaut, dass ein Alarm „sichtbar“ ist, Datenhintergründe aber wenig, bis gar nicht erkennbar werden.
Deshalb anbei der Versuch, solche Hintergrundaussagen nachzubilden.

Dazu eine Ableitung der Mortalität der ersten und der zweiten Welle:

Bild 6 Aufteilung der „zwei Wellen“-Darstellung zum Ableiten der Zahlen in Tabelle, Bild 7

Bild 7 Daten von Bild 6 (RKI-Corona-Werte)

Der „Fall Tübingen“

In dieser Stadt hat ausgerechnet der GRÜNE Bürgermeister ein Experiment gewagt, welches aufzeigt, wie sehr an der Wirklichkeit vorbei die globalen Corona-Maßnahmen der hohen Politik sind und vor allem, mit wie wenig Aufwand – aber eben mit Köpfchen – das Coronaproblem in den Griff zu bekommen ist.

Aus irgend einem Grund finden sich ausgerechnet zur Stadt Tübingen keine Coronazahlen! Das hat dazu geführt, dass „Der Tagesspiegel“ aus Berlin – die „Berlinprawda“ als Pendant zur Alpenprawda – sich genötigt sah, ihren „Verriss“ dieser Maßnahmen mit den Zahlen des Landkreises zu „belegen“:
[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen Doch kein Corona-Wunder in Tübingen?
… Anders als von Oberbürgermeister Palmer behauptet, gibt es Infektionen bei den Über-75-Jährigen. Die Landkreiszahlen sind teils sogar höher als in Berlin …
Zum Glück wurde dieser dämliche Artikel nicht über die dpa verbreitet, sonst wäre laut unserem Bundespräsidenten(Versuch) diesem Pamphlet der bewussten Falschdarstellung noch ein „Wahrheitstempel“ aufgedrückt worden (Laut unsrem Präsidentenversuch sagt die dpa immer die reine Wahrheit).

Wie gesagt, finden sich aus irgend einem Grund zur Stadt keine Zahlen. Allerdings veröffentlicht die Uniklinik Tübingen auf ihrer Homepage „ihre“ Corona-Behandlungszahlen.
In der Datennot kann man diese sicher als eine grobe Stichprobe betrachten und die Wahrheit wenigstens im Ansatz ergründen. Aus irgend eine Grund macht es die Uniklinik schwer, deren Hinterlegung auszuwerten, denn die Angaben sind in einer katastrophal ausgeführten Textdatei hinterlegt, deren Umsetzung auf Excel viel, viel händische Nacharbeit erfordert. Für eine Uniklink eigentlich eine Schande und schade. Aber in Deutschland gewöhnt man sich daran und fragt sich nur, woher unsere Politiker ihr „Wissen“ beziehen. Dass diese (oder ihre Büromitarbeiter) sich solche Mühen machen, kann der Autor kaum glauben.

Anbei nun ein Vergleich von Verläufen Deutschland und Stadt Tübingen. Leider fehlen zu Tübingen die „Fälle gesamt“. Die „Fälle“ Uniklinik und „Anzahl hospitalisiert“ sollten aber vergleichbar sein. Auch listet die Uniklinik keine Mortalität. Man muss von einer „Ähnlichkeit“ des Verlaufes Intensivfälle und Mortalität ausgehen (diese stimmt allerdings nicht ganz, da in der zweiten Welle die Mortalität niedriger ist).
Um sich allerdings ein grobes Bild über Erfolg oder Misserfolg zu machen sollte es ausreichen (und es gibt derzeit nichts Besseres):

Bild 8 RKI Deutschlandzahlen

Bild 9 Fallzahlen der Uniklinik Tübingen. Die Differenz von „Fälle gesamt“ zu „Intensivfälle“ sind Patienten auf Bettenstation Grafik vom Autor erstellt. Datenquelle: Uniklinikum Tübingen, Corona-Fallzahlen Behandlungen

Dazu nochmals parallel die Deutschlandwerte mit einem Korrekturversuch der Mortalitätswerte:

Bild 8a RKI-Deutschlanddaten. Anzahl Intensivbehandelt aus der Mortalitätszahl hochgerechnet. Für die 1. Welle mal 2; für die 2. Welle mal 1,5). Grafik vom Autor erstellt

Fazit
In der Stadt Tübingen scheinen in der zweiten Welle im Deutschlandvergleich die Hospitalisierungen und die Sterbezahlen wesentlich niedriger zu sein! Herr Palmer hat also richtig erkannt, wo und wie man zur wirklichen Problemlösung ansetzen muss und dass das verzweifelte, blinde „Schießen mit der Schrotflinte“ nur immens Geld verpulvert, aber nichts bringt.

Gut, weil Klugheit – und sich zu trauen, es auch noch leibhaftig umzusetzen – in seiner Partei mit das Schlimmste ist, was eine Führungskraft haben kann, will ihn seine Partei auch am liebsten „entlassen“. Und die Landesfürsten Deutschlands und unsere Kaiserin interessieren sich sowieso nicht dafür.
Große, aufwühlende Reden zu halten (was unsere unfehlbare Kanzlerin aber definitiv nicht kann, da deren furchtbares Grammatik-Geschwurbel jegliches Zuhören zur Qual macht, Söder damit allerdings „staatsmännisch“ brilliert, weshalb er es so oft wie möglich anbringt) ist werbewirksamer und leichter, als sich in die Niederungen von Lösungsversuchen zu begeben.

Übersterblichkeit“

Immer neu muss man sich klarmachen, dass der totale Lockdown mit einer hohen Übersterblichkeit begründet wird:
[9] … Söder sagte, er könne nicht nachvollziehen, warum in der Öffentlichkeit die hohen Todeszahlen nicht zu mehr Anteilnahme führen würden. Er sprach in diesem Zusammenhang von einer „ethischen Kapitulation“.

Nur, diese „Übersterblichkeit“ ist in den Daten des Statistischen Bundesamtes nicht zu finden. Das „darf“ aber nicht sein. Also hat dieses Amt einfach selbstherrlich festgelegt, dass eine Abweichung vom Mittelwert der letzten 4 Jahre ein Übersterblichkeit begründet.

Um zu zeigen, was die Zahlen dieses Amtes wirklich aussagen, anbei nochmals Grafiken dazu. Muss man sich natürlich selbst erstellen, denn solche sind zu aussagekräftig und belegen die Falschdarstellung des Amtes:

Bild 9a Deutschland, Sterbezahlen der letzten Jahre. Die Covid-Mortalität zugefügt. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt; RKI

Nun sind die Gesamt-Verstorbenen vielleicht nicht ganz aussagekräftig. Also die Grafik für die Hoch-Risikogruppe ab 70 Jahren. Auch bei dieser Gruppe sieht man keine Übersterblichkeit:

Bild 10 Deutschland, Sterbezahlen der letzten Jahre für die Altersgruppe ab 70. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt

Auch die Uni München findet keine Übermortalität

Bei der Uni München gibt es scheinbar noch ein paar „renitente“ Professoren, die nicht bedingungslos die unfehlbare Merkel und den heiligen Landespapst Söder anhimmeln, sondern sich noch trauen, die Zahlen anzusehen und der eigenen Auswertung mehr zu glauben als den Corona-Landtagsreden von Herrn Söder oder den „Verzweiflungsaufrufen“ an das Volk von Frau Merkel.
Deren Bericht zur (nicht vorhandenen) „Übermortalität“ von Corona ist für jeden nachlesbar:
[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

Den Autor freut es, denn diese Professoren haben genau das gemacht, was der Autor auch laufend durchführt:
[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden
[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

… und sind dabei zum gleichen Ergebnis gekommen. Auf Achgut gibt es dazu eine kleine Rezension:
[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation
Die wichtigsten Schlussfolgerungen (Anm.: Originalzitierungen aus der Studie):
1. Todesfälle durch COVID-19 – Adjustiert auf die Einwohnerzahl, zeigt sich keine ausgeprägte Übersterblichkeit
2. Problematische Entwicklung der Fallzahlen bei den Hochbetagten – Die bisherigen Corona-Maßnahmen verfehlen notwendigen Schutz der Ältesten
3. Aktuelle Analysen zum Verlauf der Pandemie: Kein deutlicher Rückgang nach dem Lockdown. Seit der dritten Oktoberwoche gibt es insgesamt einen stabilen Verlauf
Wobei wir als Negativbeispiel wieder beim Robert-Koch-Institut landen. Was sind dessen Corona Lageberichte eigentlich wert? Nehm
en wir den vom 13. Dezember 2020. Das RKI bringt es fertig, uns die täglichen Todeszahlen zu präsentieren, ohne zu beantworten, ob diese Teil des normalen Sterbegeschehens von ca. 2.700 Toten täglich sind oder nicht.
Offensichtlich sind sie es, wie die LMU errechnet, doch wieso interessiert sich das RKI nicht für diese gute Nachricht? Mögliche Corona-Impftote dagegen stellt Lothar Wieler schon einmal 
vorsorglich in den Kontext des normalen Sterbens. Ich muss mich leider wiederholen: Das RKI ist in der Corona-Krise ein Totalausfall.

Aus der Studie einige Grafiken:

Bild 11 [5] LMU: CoDAG-Bericht

Bild 12 [5] LMU: CoDAG-Bericht

 

Bild 13 [5] LMU: CoDAG-Bericht

Das Ergebnis der Studie:
[5] LMU: CoDAG-Bericht: … Die November-Maßnahmen waren nicht hinreichend geeignet die Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten zu stoppen. Insgesamt zeigen die Analysen einen Beginn des starken exponentiellen Wachstums in den letzten Septemberwochen. Eine Stabilisierung bei den gemeldeten Ansteckungen gab es schon in der 3. Oktoberwoche, also vor Inkrafttreten des “Lockdown Light” …
Ein deutlicher Rückgang der Zahlen im November ist in keiner der untersuchten räumlichen Ebenen zu erkennen … Problematisch ist, dass die Eindämmung der Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten nicht ausreichend gelungen ist …

Ein bisschen Vorbild – ist auch die Schweiz

[1] Achgut: … Peak in der Schweiz schon Ende Oktober erreicht
… Es klingt hart, aber die Politik instrumentalisiert auf diese Weise die Covidtoten, um Grundängste anzuheizen, die sich im Vergleich zu der normalen Sterberate schnell relativieren ließen. Es würde derzeit vielen Menschen mental sehr helfen, davon zu erfahren. Aber wohl nicht den Umfragewerten.
Vielleicht sollte man zum schweizerischen Bundesamt für Gesundheit nach Bern schauen, die machen das nämlich deutlich besser. Zum Beispiel im letzten 
Situationsbericht vom 9. Dezember 2020. Dort erkennt man, dass der Peak schon Ende Oktober erreicht wurde und die Belegungen sinken, und das alles ohne Lockdown. Wir erfahren außerdem die genaue Altersverteilung und das Medianalter der Verstorbenen, welches bei 86 Jahren liegt. 

Anbei einige Grafiken aus der Schweiz, Sehr gut sieht man darin die Altersverteilung::

Bild 14 Schweiz: Laborbestätigte Hospitalisationen, Schweiz und Liechtenstein, 08.06.2020 bis 17.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 15 Schweiz: Laborbestätigte Hospitalisationen nach Altersklassen, Schweiz und Liechtenstein, 08.06.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 16 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 17.12.2020, pro 100 000 Einwohner

Bild 17 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Das ist mit Sicherheit falsch: „Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser

BR24, 15.12.2020: … Der bayerische Ministerpräsident Markus Söder hat in einer Regierungserklärung die Notwendigkeit des Lockdowns ab Mittwoch betont. „Die Lage wird von Tag zu Tag dramatischer“, die Zahlen gingen „sprunghaft“ nach oben, sagte der CSU-Politiker im Bayerischen Landtag. Die Folgen seien „absolut dramatisch“, Corona sei „die Katastrophe unserer Zeit“. Deswegen müsse nun die Notbremse gezogen werden. „Wenn wir jetzt nicht konsequent runterfahren, sind die Schäden enorm.“ Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser“

Dazu lässt sich nur sagen: Entweder spinnen die Zahlen, oder unsere Politiker. Was davon zutrifft, soll jeder Leser für sich entscheiden.

Quellen

[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation

[2] Achgut, 12.12.2020: Corona-Stellungnahme: Der Lieferservice der Leopoldina

[4] DW, 17.12.2020: Corona-Hotspots abriegeln? In Sachsen liegen die Nerven blank

[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden

[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen: Doch kein Corona-Wunder in Tübingen?

[9] FAZ, 03.12.2020: Söder erwägt strengere Beschränkungen von Kontakten

 




Durchmischungs-Schicht in den Ozeanen, Wasser­temperatur SST und Klimawandel

Die Mischschicht ist eine Zone, in der Turbulenzen, verursacht durch Oberflächenströmungen und Wind, das Wasser so gründlich vermischt haben, dass Temperatur, Dichte und Salzgehalt in der gesamten Schicht relativ konstant sind. Ursprünglich wurde die „Mischschichttiefe“, die Bezeichnung für die Basis der Schicht, als der Punkt definiert, an dem die Temperatur 0,5 °C von der Oberfläche abweicht (Levitus, 1982). Dies erwies sich im Winter in der Nähe der Pole als unzureichende Definition, da die Temperatur dort in bestimmten Bereichen bis zu 2.000 m nahezu konstant sein kann, die turbulente Zone der Mischschicht aber nicht so tief ist (Holte & Talley, 2008). Zwei der Gebiete, die bei der Auswahl der Mischschichttiefe mit dem 0,5°C-Kriterium Probleme bereiten, sind der Nordatlantik, zwischen Island und Schottland und im Südlichen Ozean südwestlich von Chile. Die Gebiete sind in Abbildung 1 durch hellblaue Kästen gekennzeichnet.

Abbildung 1. Die Gebiete des Nordatlantiks und des Südlichen Ozeans, in denen die Definition der Tiefe der Mischschicht aufgrund des abwärtsströmenden Oberflächenwassers während des lokalen Winters schwierig ist.

Die in Abbildung 1 gezeigten Regionen sind Gebiete, in denen ein signifikantes Absinken von Oberflächenwasser in die Tiefsee stattfindet. Dies sind nicht die einzigen Gebiete, in denen dies geschieht, aber diese Gebiete enthalten oft nahezu konstante Temperaturprofile für die oberen 1.000 Meter oder sogar tiefer. Abbildung 2 zeigt das durchschnittliche Juli-Temperaturprofil für das Gebiet des Südlichen Ozeans in Abbildung 1.

Abbildung 2. Ein durchschnittliches Juli-Temperaturprofil des Südlichen Ozeans aus der blauen Region, die in Abbildung 1 dargestellt ist. Die Daten, die zur Erstellung des Profils verwendet wurden, stammen aus mehr als 12 Jahren, zentriert auf 2008. Die Daten stammen von NOAA MIMOC.

Wie von James Holte und Lynne Talley erläutert (Holte & Talley, 2008), hat die Tiefenkonvektion in diesem Teil des Südlichen Ozeans das Temperaturprofil so stark verzerrt, dass eine einfache Temperaturgrenze nicht verwendet werden kann, um die Tiefe der Mischungsschicht festzulegen. Im Laufe der Jahre wurden zahlreiche Lösungen für dieses Problem vorgeschlagen, die in ihrem Artikel aufgeführt und diskutiert werden. Das von ihnen vorgeschlagene Verfahren wird von Sunke Schmidtko verwendet, um die Mischungsschicht im NOAA MIMOC-Datensatz zu definieren, der weiter unten diskutiert wird (Schmidtko, Johnson, & Lyman). Die Methode von Holte und Talley ist kompliziert, wie viele der anderen Lösungen auch. Es scheint, dass bis heute kein allgemein akzeptiertes Verfahren zur Definition der gemischten Schicht gefunden worden ist.

Je nach Ort und Jahreszeit ändert sich die Tiefe der Mischschicht. Am dicksten ist sie im lokalen Winter in den höheren Breiten. Dort kann sie sich nach der Logik von Holte und Talley bis zu 400 m unter der Oberfläche oder noch weiter erstrecken, und bei Verwendung der Temperaturgrenze von 0,5 °C noch viel tiefer. Abbildung 3 zeigt eine Karte der Mischschichttiefe im Januar.

Abbildung 3. Mischschichttiefe des Ozeans im Januar nach dem Vergahren von Holte und Talley. Die orangenen und roten Farben kennzeichnen 400 bis 500 Meter. Daten von NOAA MIMOC.

Die Mischungsschichtdicke der nördlichen Hemisphäre wird jedoch in den nördlichen Sommermonaten dünner und in der südlichen Hemisphäre dicker, insbesondere im südlichen Ozean um die Antarktis, wie in Abbildung 4 dargestellt.

Abbildung 4. Die Mischschichttiefe des Ozeans im Juli unter Verwendung des Verfahrens von Holte und Talley. Wieder kennzeichnen die orangenen und roten Farben 400 bis 500 Meter. Daten von NOAA MIMOC.

Die dickeren Zonen der Mischungsschicht treten immer im lokalen Winter auf und erreichen ihren Höhepunkt in der Nähe des 60° Breitengrades, wie in Abbildung 5 zu sehen ist.

Abbildung 5. Durchschnittliche Mischschichtdicke nach Breitengrad und Monat. Die dickste Mischungsschicht wird auf der Südhalbkugel bei etwa 55 Grad Süd erreicht. In der nördlichen Hemisphäre wird der Spitzenwert bei etwa 60 Grad erreicht. Die Mischschichttiefe in diesem Diagramm wurde nach dem von Holte und Talley entwickelten Verfahren berechnet. Daten von NOAA MIMOC.

Die Bedeutung der Mischschicht

Im vorherigen Beitrag wurde betont, dass die gemischte Schicht in thermischem Kontakt mit der Atmosphäre steht, mit einer kleinen Verzögerung von ein paar Wochen. Außerdem hat sie etwa die 22-fache Wärmekapazität der Atmosphäre, wodurch die durch Wetterereignisse verursachten drastischen Änderungen der Lufttemperatur geglättet werden. Wenn man also das Klima betrachtet, das viel längerfristig ist als das Wetter, erscheint die Beobachtung des Trends der Mischschichttemperatur ideal. In Abbildung 6 vergleichen wir die jährlichen globalen Durchschnittswerte der Mischschichttemperatur von Jamstec, MIMOC und der Universität Hamburg mit den globalen Schätzungen der Meeresoberflächentemperatur (SST) von der Hadley Climatic Research Unit (HadCRU) und der NOAA. Das sind keine Anomalien, das sind tatsächliche Messungen, aber sie sind alle korrigiert und gerastert. Ich habe einfach die jeweiligen globalen Raster gemittelt.

Abbildung 6. Die von Jamstec berechnete globale Mischschichttemperatur ist in schwarzer Farbe aufgetragen. Sie wird mit der HadSST Version 4, der ICOADS SST der NOAA und der ERSST der NOAA verglichen. Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind nahezu identisch und zentriert auf das Jahr 2006, sie sind als Kästchen gezeichnet, die sich gegenseitig überlagern. Die Daten stammen von den jeweiligen Agenturen.

Eine vernünftige Ozeanabdeckung ist erst seit 2004 verfügbar, daher sind die Jahre davor suspekt. In Abbildung 6 sind alle Daten als Jahresmittelwerte aufgetragen. Die Hadley-CRU-Temperaturen stimmen gut mit dem Jamstec-Datensatz für die gemischte Schicht überein, und überraschenderweise zeigen beide Datensätze ähnliche abnehmende Temperaturtrends von etwa zwei bis drei Grad pro Jahrhundert. Der ICOADS (International Comprehensive Ocean-Atmosphere Data Set) SST-Trend der NOAA ist flach bis steigend und über ein Grad wärmer als die beiden anderen Aufzeichnungen. Die Anzahl der Jamstec-Mischschichtbeobachtungen ist in orange eingezeichnet (rechte Skala), um uns zu helfen, die Datenqualität für jedes Jahr zu beurteilen. Jamstec erreichte im Jahr 2004 150.000 Beobachtungen, und wir waren der subjektiven Meinung, dass dies ausreichend sei.

Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind viel niedriger als HadSST und die Jamstec Mischschichttemperaturen. Dennoch fallen diese beiden mehrjährigen Mittelwerte, die auf das Jahr 2006 zentriert sind, entsprechen genau den Aufzeichnung der ERSST SST und liegen über vier Grad niedriger als HaddSST und Jamstec. Der Unterschied kann nicht einfach darin liegen, wo die Temperaturen gemessen werden. Er kann nicht einmal in den Daten liegen, da alle diese Aufzeichnungen fast die gleichen Eingangsrohdaten verwenden, er muss in den Korrekturen und Verfahren liegen.

Die verschiedenen Schätzungen der Mischschichttemperaturen sind unterschiedlich, ebenso die SSTs. Warum sind zwei Aufzeichnungen rückläufig und der Rest gleichbleibend oder steigend? Die verschiedenen Schätzungen stimmen weder bei der Temperatur noch beim Trend überein.

Meeresoberflächen- und Mischschichttemperaturen sollten nicht in Anomalien umgewandelt werden müssen, es sei denn, sie werden mit terrestrischen Temperaturen verglichen. Sie werden alle auf ungefähr der gleichen Höhe und im gleichen Medium gemessen. Alle Datensätze sind global, mit ähnlichen Eingangsdaten. Alle sind gerastert, um die Auswirkungen einer ungleichmäßigen Datenverteilung zu reduzieren. Die Raster sind unterschiedlich groß und die gerasterten Gebiete unterscheiden sich in ihren nördlichen und südlichen Grenzen, aber alle Raster decken alle Längengrade ab. Tabelle 1 listet die Breitengrad-Datengrenzen der Gitter auf, sie sind nicht so unterschiedlich.

Tabelle 1. Die nördlichen und südlichen Datengrenzen für jeden Datensatz im Jahr 2019.

In Abbildung 7 haben wir die HadSST- und ERSST-Anomalien aufgetragen. Wie haben sie diese Anomalien aus den Messungen in Abbildung 6 erhalten?

Abbildung 7. HadSST und ERSST Version 4 Temperaturanomalien.

Der HadSST-Datensatz wird von John Kennedy und seinen Kollegen an der MET Hadley Climatic Research Unit gepflegt (Kennedy, Rayner, Atkinson, & Killick, 2019). Sie stellen fest, dass sich ihr Datensatz von ERSST unterscheidet und geben zu, dass dies auf die Unterschiede bei den Korrekturen und Anpassungen der Rohdaten zurückzuführen ist. Kennedy erwähnt, dass die SST „entscheidend zur Charakterisierung des Klimas der Erde beiträgt.“ Wir stimmen zu. Kennedy schreibt auch:

Eine der größten Unsicherheitsquellen bei Schätzungen der globalen Temperaturänderung ist die Korrektur systematischer Fehler bei Messungen der Meeresoberflächentemperatur (SST). Trotz der jüngsten Arbeiten zur Quantifizierung und Reduzierung dieser Fehler in der gesamten historischen Aufzeichnung bleiben die Unterschiede zwischen den Analysen größer als durch die geschätzten Unsicherheiten erklärt werden kann.“ (Kennedy, Rayner, Atkinson, & Killick, 2019)

Ein Blick auf Abbildung 6 bestätigt, dass diese Aussage richtig ist. Der größte Teil von Kennedys 90-seitiger Studie katalogisiert die Schwierigkeiten bei der Erstellung einer genauen SST-Aufzeichnung. Er stellt fest, dass selbst subtile Änderungen in der Art und Weise, wie SST-Messungen vorgenommen werden, zu systematischen Fehlern von bis zu einem Grad führen können, und das ist die geschätzte globale Erwärmung des 20. Jahrhunderts. Wir glauben nicht, dass die SST-Aufzeichnung von 1850 bis 2005 sinnvoll ist. Die mehrdeutigen Datenquellen (hauptsächlich Schiffsmessungen mit Eimern bis zum Zweiten Weltkrieg und Messungen im Kühlwasser der Schiffsmotoren danach) sowie die ungenauen Korrekturen ersticken jedes potenzielle Klimasignal. Die Daten sind seit 2005 viel besser, aber Abbildung 6 zeigt große Unterschiede in den Zusammenstellungen der verschiedenen Agenturen. Als nächstes überprüfen wir die Definitionen der Agenturen für die in Abbildung 6 dargestellten Variablen.

[Es folgt eine genaue Beschreibung der verschiedenen Datensätze. Wem das zu theoretisch ist, der gehe gleich zum Abschnitt „Schlussfolgerungen“. Weil der Übersetzer aber interessant findet, wie unterschiedlich Temperatur-Rohdaten bearbeitet werden nebst den daraus resultierenden Unterschieden der als „absolut“ angegebenen Temperaturwerte, sind diese Bewertungen hier mit übersetzt. Anm. d. Übers.]

Der HadSST 4-Datensatz des UKMO

Diese Daten wurden aus einer HadSST NetCDF-Datei gelesen. NetCDF-Dateien sind die Art und Weise, wie die meisten Klimadaten geliefert werden. Ich habe in einem früheren Beitrag erklärt, wie man sie mit R (einem hochwertigen kostenlosen Statistikprogramm) liest. Die Variable, die aus der HadSST-Datei gelesen wurde, war mit „tos“ beschriftet, es ist ein 5-Grad-Gitter aus Breiten- und Längengraden, definiert als „Meerwassertemperatur“. Die Dokumentation sagt, dass es sich um die Ensemble-Mitteltemperatur der Meeresoberfläche aus HadSST v4 handelt. Die angegebene Referenz ist die bereits erwähnte Arbeit von John Kennedy (Kennedy, Rayner, Atkinson, & Killick, 2019). HadSST verwendet Daten aus ICOADS Release 3, ergänzt durch Daten von Treibbojen des Copernicus Marine Environment Monitoring Service (CMEMS). Kennedy erwähnt den Unterschied zwischen seinem Datensatz und ERSST v5, der in Abbildung 6 deutlich zu sehen ist. Die SST des Hadley Centre ist auf eine Tiefe von 20 cm korrigiert.

ERSST v5 der NOAA

In Abbildung 6 stellen wir die jährlichen globalen Mittelwerte der ERSST v5 NetCDF-Variable „sst“ dar, die als „Erweiterte rekonstruierte Meeresoberflächentemperatur“ definiert ist. Sie merken an, dass die tatsächliche Messtiefe von 0,2 bis 10 m variiert, aber alle Messungen sind auf die optimale Bojenmesstiefe von 20 cm korrigiert, genau die gleiche Referenztiefe wie HadSST. Wie HadSST bezieht auch ERSST seine Daten aus ICOADS Release 3 und verwendet Argo-Float- und Driftbojen zwischen 0 und 5 m zur Berechnung der SST. Dies ist sinnvoll, da ERSST mit dem Datensatz der Universität Hamburg und den MIMOC (mixed layer)-Datensätzen der NOAA übereinstimmt, die ebenfalls stark auf Argo-Float-Daten beruhen. Wie oben besprochen, sollten die SST (bei 20 cm) und die Mischschichttemperatur fast immer gut übereinstimmen. Die ERSST-Anomalien, die in Abbildung 7 aufgetragen sind, stammen von der Variable „ssta“. Ich habe ssta auf die HadSST-Referenzperiode von 1961-1990 verschoben, von der ursprünglichen Referenz von 1970-2000. Die grundlegende Referenz zu ERSST v5 ist ein Beitrag von Boyin Huang und Kollegen (Huang, et al., 2017).

Wie Kennedy geht auch Boyin Huang direkt auf die Unterschiede zwischen ERSST und HadSST ein. Huang glaubt, dass die Unterschiede auf die unterschiedlichen Korrekturen an den Rohdaten zurückzuführen sind, die vom Hadley Centre und der NOAA angewendet wurden.

NOAA MIMOC

Das globale Mittel der „konservativen Temperatur“ der NOAA-MIMOC ist in Abbildung 6 als Kasten dargestellt, der auf die ERSST-Linie fällt. Sie wird als ein Punkt im Jahr 2006 eingezeichnet, weil der MIMOC-Datensatz Argo- und Bojendaten über mehr als 12 Jahre verwendet, die auf dieses Jahr zentriert sind. Die globale Durchschnittstemperatur all dieser Daten beträgt 13,87°C von 0 bis 5 Meter Tiefe. Die konservative Temperatur ist nicht dasselbe wie die SST. Die SST wird gemessen, die konservative Temperatur wird so berechnet, dass sie mit dem Wärmeinhalt des Wassers in der Mischschicht übereinstimmt und den Salzgehalt und die Dichte des Wassers berücksichtigt. Wir würden jedoch erwarten, dass die SST sehr nahe an der konservativen Temperatur liegt. Da die konservative Temperatur den Wärmeinhalt der Mischungsschicht genauer charakterisiert, ist sie für Klimastudien nützlicher als die SST. Die primäre Referenz für diesen Datensatz ist die bereits erwähnte Arbeit von Schmidtko (Schmidtko, Johnson, & Lyman).

Der Datensatz der Universität Hamburg

Der Datensatz der Universität Hamburg ist MIMOC insofern ähnlich, als dass es nicht nach Jahren unterteilt ist, sondern alle verfügbaren Daten der letzten 20 bis 40 Jahre zusammenfasst, um einen hochauflösenden Datensatz und eine Reihe von Gitterpunkten für die Ozeantemperatur nach Tiefe zu erstellen. Wie ERSST und MIMOC stützt es sich stark auf Argo- und Bojendaten. Die globale Durchschnittstemperatur der oberen fünf Meter der Ozeane in diesem Datensatz beträgt 13,88°C und unterscheidet sich damit kaum vom MIMOC-Wert. Die verwendete NetCDF-Variable ist „Temperatur“. Sie ist definiert als die „optimal interpolierte Temperatur“. In der Dokumentation steht, dass es sich um die SST handelt, nicht um die „konservative Temperatur“. Der Wert ist jedoch nahezu identisch mit der konservativen Temperatur. Die Hauptreferenz für diesen Datensatz ist ein Ocean Science-Artikel von Viktor Gouretski (Gouretski, 2018).

NOAA ICOADS

Die NOAA ICOADS-Linie in Abbildung 6 wurde vom KNMI Climate Explorer heruntergeladen und mit „sst“ beschriftet. Die Beschreibung lautet: „Sea Surface Temperature Monthly Mean at Surface“. Die Daten von ICOADS Version 3 werden in allen anderen hier beschriebenen Datensätzen der Behörde verwendet, aber die Organisation führt nicht viele Analysen durch. Nach eigenem Bekunden bieten sie ein paar „einfache gerasterte monatliche zusammenfassende Werte“ an. Ihre Linie ist in Abbildung 6 als Referenz dargestellt, aber es ist keine ernsthafte Analyse und sollte wahrscheinlich ignoriert werden. Sie hilft zu zeigen, wie ungenau die Daten sind.

Jamstec ML Temperatur

Das Jamstec MILA GPV-Produkt passt gut zu HadSST, wie in Abbildung 6 zu sehen ist. Diese Linie stammt von der NetCDF-Variablen „MLD_TEMP“. Sie ist die zentrale Temperatur der Mischungsschicht. Die Temperatur ist keine echte „konservative Temperatur“, aber die Art und Weise, wie sie berechnet wird, stellt sicher, dass sie nahe diesem Wert liegt. Die Referenz für dieses Produkt ist ein Artikel im Journal of Oceanography von Shigeki Hosada und Kollegen (Hosada, Ohira, Sato, & Suga, 2010). Jamstec verwendet hauptsächlich Argo-Float- und Bojendaten.

Schlussfolgerungen

Die in Abbildung 6 gezeigte Gesamttemperaturspanne beträgt mehr als 5,5 °C, und dennoch gehen diese Agenturen im Wesentlichen von denselben Daten aus. Dies ist kein Versuch, die SST und die Temperatur der gemischten Schicht vor hundert Jahren zu charakterisieren, sondern ein Versuch, uns die durchschnittliche Oberflächentemperatur des Ozeans heute zu sagen. Um Abbildung 6 in die richtige Perspektive zu rücken: Der gesamte Wärmeinhalt unserer Atmosphäre beträgt ungefähr 1,0×1024 Joule. Der Unterschied zwischen der HadSST-Linie in Abbildung 6 und der ERSST-Linie beträgt unter der Annahme einer durchschnittlichen Mischschichttiefe von 60 Metern (von Jamstec) 3,9×1023 Joule oder fast 39% der gesamten Wärmeenergie in der Atmosphäre.

Ich habe keine Ahnung, ob die Temperaturen von HadSST oder von ERSST korrekt sind. Sie können nicht beide korrekt sein. Ich neige zu den ERSST-Temperaturen, da es schwer ist, einen 18-Grad-Ozean in einer 15-Grad-Welt zu haben, aber warum sind dann die HadSST-Temperaturen so hoch? Die wichtigste Variable, um festzustellen, wie schnell sich die Welt erwärmt oder abkühlt, ist die Aufzeichnung der Ozeantemperatur. Seit etwa 2004 haben wir bessere Daten zur Verfügung, aber offensichtlich kein vereinbartes Verfahren, um sie zu analysieren. Wenn es um die globale Erwärmung (oder vielleicht die globale Abkühlung) geht, lautet die beste Antwort: Wir wissen es nicht.

Angesichts der Tatsache, dass die Ozeane 71 % der Erdoberfläche bedecken und 99 % der Wärmekapazität enthalten, sind die Unterschiede in Abbildung 6 enorm. Diese Diskrepanzen müssen aufgelöst werden, wenn wir jemals einen Klimawandel, ob menschlich oder natürlich, feststellen wollen.

[Hervorhebung vom Übersetzer]

I processed an enormous amount of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/12/13/the-ocean-mixed-layer-sst-and-climate-change/

Übersetzt von Chris Frey EIKE

Anmerkung M.Limburg

Es ist sehr erfreulich, dass nun, 10 Jahre nach meinem Versuch, die unvermeidlichen und fast immer unbekannten systematischen Fehler jeder historischen meteorologischen Messung, in einer Dissertation öffentlich zu machen, deren Ergebnisse eine so umfassend begründete und überzeugende Bestätigung bekommen haben. Dank an Andy May!




Temperatur der Meeresoberfläche

Der Versuch, die Richtung, Geschwindigkeit und Ausmaß des Klimawandels durch Messung und Mittelwertbildung der atmosphärischen Oberflächentemperaturen aufzuzeigen, ist meiner Meinung nach sinnlos. Die Aufzeichnungen, die wir über die atmosphärischen und ozeanischen Oberflächentemperaturen haben, sind zu kurz und viel zu ungenau, um uns nützliche Trends auf einer klimatischen Zeitskala (30 Jahre +) zu liefern. Außerdem handelt es sich bei diesen Aufzeichnungen um sporadische Messungen in einer chaotischen Oberflächenzone, die große Temperaturschwankungen aufweist. In Montana, USA, zum Beispiel, lag die Tiefst- und Höchsttemperatur in letzter Zeit bei -57°C bzw. 47°C. Diese enormen Schwankungen machen es äußerst schwierig, globale Durchschnittsunterschiede von 0,1 °C von Jahr zu Jahr zu messen. Dies ist jedoch die Genauigkeit, die erforderlich ist, um ein Klima richtig zu charakterisieren, das sich nur mit einer Rate von etwa 1,4°C pro Jahrhundert erwärmt, was 0,014°C pro Jahr und 0,14°C/Dekade entspricht.

Die Messungen sind besonders nützlich für die Vorhersage des Wetters, aber ungeeignet für die Messung von Änderungen von weniger als einem halben Grad über klimatische Zeitspannen. Wir müssen für diesen Zweck etwas Stabileres und weniger Chaotisches messen. Dieser und der nächste Beitrag zeigen, dass die Mischschicht im Ozean für diese Aufgabe gut geeignet zu sein scheint.

Meiner Meinung nach müssen wir, um die Richtung und Geschwindigkeit der globalen Erwärmung richtig in den Griff zu bekommen, die Temperaturveränderungen im Ozean betrachten. Besonders die Teile des Ozeans, die in ständigem Kontakt mit der Atmosphäre stehen. Bei sehr langfristigen Klimaveränderungen, d.h. über einen Zeitraum von tausend Jahren, ist der gesamte Ozean betroffen. Aber für Zeiträume von hundert Jahren oder weniger haben wir es hauptsächlich mit den oberen paar hundert Metern des Ozeans zu tun.

Das Temperaturprofil des oberen Ozeans ist sehr komplex. Dies wird durch die schlechte Qualität unserer Messungen der Oberflächentemperatur des Ozeans erschwert, insbesondere vor der Einführung von Argo-Bojen und anderen Bojenmessungen im Ozean wie den Triton-Bojen in den letzten 20 Jahren. Schiffe decken nur einen begrenzten Bereich des Ozeans ab und die Tiefe, Konsistenz und Qualität ihrer Temperaturmessungen sind unsicher. Satellitenmessungen des obersten Teils des Ozeans sind möglich, aber diese Messungen werden durch den so genannten Ozean-Skin-Effekt erschwert.

Die Ozean-Haut

An der Ozean-Luft-Grenzfläche ändern sich die Temperaturen schnell. Das Ausmaß der Änderung und die Dicke der betroffenen obersten Ozeanhaut wird durch die Bewölkung, ob es Tag oder Nacht ist, und die Windgeschwindigkeit bestimmt. Diese „Haut“ ist an ruhigen, wolkenlosen Tagen dicker und in der Nacht und an windigen, bewölkten Tagen dünner. Die Temperatur an der Ozean-Luft-Grenzfläche („SST“) ist das, was von Radiometern und Satelliten gemessen wird. Leider ist die Beziehung zwischen dieser Temperatur und der stabileren Temperatur der gemischten Schicht oder der „Basistemperatur“ unbekannt. Die Beziehung ändert sich schnell und ist kompliziert. Es wurden verschiedene Modelle vorgeschlagen (Horrocks, O’Carroll, Candy, Nightingale, & Harris, 2003), aber keines hat die erforderliche Zuverlässigkeit und Genauigkeit.

Erschwerend kommt hinzu, dass sich direkt an der Oberfläche eine Population von Cyanobakterien befindet, die daran arbeitet, die Temperatur zu verändern und den Salzgehalt des Oberflächenwassers zu senken (Wurl, et al., 2018). Das Problem der Meeresoberflächentemperatur lässt sich am besten mit dem Diagramm in Abbildung 1 veranschaulichen, das von der Group for High Resolution Sea Surface Temperature (GHRSST) stammt. Sie sind bestrebt, die Hautschicht des Ozeans zu verstehen, damit Satellitenmessungen der Meeresoberflächentemperatur angemessen mit gemessenen Ozeantemperaturen kombiniert werden können.

Abbildung 1. Das GHRSST-Diagramm der Temperatur an der Meeresoberfläche. Die Meeresbedingungen, insbesondere die Windgeschwindigkeit und die Tages- oder Nachtzeit, können einen Unterschied von 2,5 °C oder mehr im Temperaturgradienten von der Oberfläche zur Temperatur des Untergrunds (stabiler Teil der Mischschicht) ausmachen. Die Tiefe bis zum oberen Ende des stabilen Teils der Mischschicht kann zwischen Null und 10 Metern variieren. Quelle: GHRSST.

Der Temperaturunterschied zwischen der SST und dem stabilen Teil der Mischschicht kann täglich drei bis sechs Grad betragen (Wick & Castro, 2020). Wie Gary Wick und Sandra Castro erklären:

Der Tageszyklus der Sonneneinstrahlung führt zu einer periodischen Erwärmung der oberflächennahen Schicht des Ozeans. Bei geringen Windgeschwindigkeiten wird die turbulente Durchmischung reduziert und es kann sich tagsüber eine warme Schicht und eine tageszeitliche Thermokline nahe der Meeresoberfläche bilden. In der Nacht wird diese Schicht durch die Durchmischung normalerweise abgetragen. Während die Amplitude der täglichen Erwärmung im Durchschnitt relativ klein ist [0,5 K], kann die Erwärmung an der Oberfläche, die von Satelliten erfasst wird, unter Bedingungen mit sehr niedrigen Windgeschwindigkeiten und ausreichender Sonneneinstrahlung sehr signifikant sein… In-situ-Beobachtungen haben eine Erwärmung von mehr als 5 K in Tiefen von 0,3-0,6 m gezeigt. Satellitenbeobachtungen von mehreren Sensoren haben extreme Erwärmungsereignisse von bis zu 7 K an der Oberfläche beobachtet, und es wurde vermutet, dass Ereignisse von mehr als 5 K nicht selten sind.“ (Wick & Castro, 2020)

Die Temperaturen im Zitat sind in Kelvin (K) angegeben und entsprechen Grad Celsius. Der Hauptpunkt ist, dass außergewöhnlich große Unterschiede in der SST des Ozeans bei ruhigen Bedingungen an klaren (wolkenlosen) Tagen auftreten. Abbildung 1 zeigt, dass die Temperaturerhöhungen das Wasser bis zu einer Tiefe von zehn Metern betreffen können. Aber Unterschiede von mehr als 0,5 °C sind fast immer auf den obersten Meter des Ozeans beschränkt. Wie wir im nächsten Beitrag über die gemischte Schicht sehen werden, werden diese bekannten Hautanomalien in Ozeantemperatur-Datensätzen ignoriert. Sie haben oft eine Messung, die als Nulltiefe gekennzeichnet ist, aber sie wird unter der Oberfläche gemessen, normalerweise in einer Tiefe von 20 cm oder mehr. Die Temperatur der Mischschicht wird oft als die Temperatur der Schicht definiert, die eine Temperatur innerhalb von 0,5°C der Oberflächentemperatur hat (Levitus, 1982). Dies ist nicht genau, gemeint ist die Temperatur des Ozeans direkt unter der Oberfläche, vielleicht 20 bis 100 cm. Außer an klaren, windstillen Tagen wird dies die „Grundtemperatur“ sein. In der Nacht und an bewölkten oder windigen Tagen wird die Temperatur immer die „Fundament“-Temperatur sein.

Die Mischschicht hat aufgrund der turbulenten Vermischung homogene Eigenschaften und die Verwendung einer Temperaturdifferenzgrenze von 0,5 °C ist eine bequeme Definition, die jedoch im Winter in der Nähe der Pole versagt, wo eine komplexere Definition erforderlich ist. Es wurden zahlreiche Methoden vorgeschlagen, zu viele, um sie hier aufzulisten, aber die komplexe Methode, die von James Holte und Lynne Talley (Holte & Talley, 2008) beschrieben wurde, wird derzeit bevorzugt. Ihre Technik wird heute weithin verwendet, um eine „Mischschichttiefe“ zu wählen, d. h. den Boden der Mischschicht. Sie ist notwendig, weil in den Polarregionen im Winter die tiefe Konvektion, angetrieben durch den Wärmeverlust an der Oberfläche, die Wassersäule bis zu 2000 Meter oder noch tiefer durchmischen kann. Wie wir im nächsten Beitrag sehen werden, wird in diesen Bereichen die Wärmeenergie von der Oberfläche in die Tiefsee übertragen.

Es gibt viele Ozeantemperatur-Datensätze, und wir werden die Daten von mehreren von ihnen im nächsten Beitrag diskutieren. Abbildung 2 ist eine Darstellung der globalen durchschnittlichen Dezember-Ozeantemperaturen von der Oberfläche bis zu 140 Metern aus den Datensätzen der Universität Hamburg. Diese Darstellung veranschaulicht die besprochenen Begriffe des Temperaturprofils mit echten globalen Daten.

Abbildung 2. Globales durchschnittliches Dezember-Temperaturprofil von der Oberfläche bis 140 Meter. Diese Grafik zeigt die „Basis“-Temperatur in der Mischschicht. Die Temperatur ist von der Oberfläche bis etwa 20 Meter nahezu konstant und beginnt dann zu sinken. Sobald sie sich um 0,5 °C von der Temperatur knapp unter der Oberfläche unterscheidet, ist die „Mischschichttiefe“ erreicht. Datenquelle: Universität Hamburg.

Die von der Universität Hamburg ausgewiesenen Temperaturen sind Durchschnittstemperaturen über mehr als 12 Jahre und repräsentieren nicht ein bestimmtes Jahr. Die NOAA-MIMOC-Temperaturen, die wir im nächsten Beitrag betrachten werden, sind die gleichen. Abbildung 3 zeigt das durchschnittliche Jahr der Messungen und die Standardabweichung der Jahre.

Abbildung 3. Die in Abbildung 2 verwendeten Daten stammen nicht aus einem einzigen Jahr, sondern sind der Durchschnitt der Daten aus über 12 Jahren. Das zentrale Jahr für jede Tiefe ist blau dargestellt (linke Skala) und die Standardabweichung aller verwendeten Jahre ist orange dargestellt (rechte Skala). Datenquelle: Universität Hamburg.

Sowohl die Universität Hamburg als auch die NOAA räumen ein, dass die den Großteil ihrer Rohdaten ausmachenden Argo-Daten spärlich sind. Es gibt einen Schwimmer pro 3° Breiten- und Längengrad (~84.916 Quadratkilometer bei 40° Nord oder Süd, der alle zehn Tage ein vollständiges Profil an uns sendet. Die Universität und die NOAA haben beschlossen, dass sie, um den Mangel an Daten zu bekämpfen, monatliche Durchschnittswerte aller Daten, die sie finden konnten, zusammenstellen sollten. Wie wir im nächsten Beitrag sehen werden, treten die großen Veränderungen in der Mischschicht je nach Monat und Ort auf, so dass dies durchaus Sinn macht.

Oberhalb der Fundament- oder Mischschicht gibt es weitere Zonen, die in Abbildung 1 gekennzeichnet sind. Diese werden von GHRSST wie folgt definiert. Ich habe den GHRSST-Text der Übersichtlichkeit halber bearbeitet, der Originaltext kann hier eingesehen werden.

Die Grenzflächentemperatur (SSTint)

An der exakten Luft-Meer-Grenzfläche wird eine hypothetische Temperatur, die sogenannte Grenzflächentemperatur (SSTint), definiert, die allerdings keinen praktischen Nutzen hat, da sie mit heutiger Technik nicht gemessen werden kann.

Die Hauttemperatur der Meeresoberfläche (SSTskin)

Die Meeresoberflächentemperatur (SSTskin) ist definiert als die von einem Infrarot-Radiometer gemessene Temperatur, die typischerweise bei Wellenlängen von 3,7 bis 12 µm (aus Gründen der Konsistenz mit den meisten Infrarot-Satellitenmessungen gewählt) gemessen wird und die Temperatur innerhalb der leitfähigen, von Diffusion dominierten Unterschicht in einer Tiefe von ~10-20 Mikrometern darstellt. SSTskin-Messungen unterliegen einem großen potenziellen Tageszyklus, der Auswirkungen der kühlen Hautschicht (besonders nachts bei klarem Himmel und geringer Windgeschwindigkeit) und solche der warmen Schicht während des Tages beinhaltet.

Die Unteroberflächentemperatur der Meeresoberfläche (SSTsub-skin)

Die Subskin-Temperatur (SSTsubskin) stellt die Temperatur an der Basis der leitfähigen laminaren Unterschicht der Meeresoberfläche dar. Für praktische Zwecke kann die SSTsubskin gut an die Messung der Oberflächentemperatur durch ein Mikrowellenradiometer angenähert werden, das im Frequenzbereich von 6-11 GHz arbeitet, aber die Beziehung ist weder direkt noch invariant gegenüber wechselnden physikalischen Bedingungen oder der spezifischen Geometrie der Mikrowellenmessungen.

Die Oberflächentemperatur in der Tiefe (SSTz oder SSTdepth)

Alle Messungen der Wassertemperatur unterhalb der SSTsubskin werden als Tiefentemperaturen (SSTdepth) bezeichnet, die mit einer Vielzahl von Plattformen und Sensoren wie driftenden Bojen, vertikale Profile messende Bojen (wie Argo) oder tiefen Thermistorketten in Tiefen von 10 bis 750 m (wie Triton und Tao) gemessen werden. Diese Temperaturbeobachtungen unterscheiden sich von denen, die mit Fernerkundungstechniken (SSTskin und SSTsubskin) gewonnen werden und müssen durch eine Messtiefe in Metern qualifiziert werden.

Die Basistemperatur (SSTfnd)

Die Basis-SST, SSTfnd, ist die Temperatur, die frei vom Tagesgang der Temperatur ist. Das heißt, die Oberseite des stabilen Teils der Mischschicht. Nur die In-situ-Kontaktthermometrie kann die SSTfnd messen.

Schlussfolgerungen

Zusammenfassend lässt sich sagen, dass die SST und die Lufttemperaturen zu sehr vom Wetter und der tageszeitlichen Variabilität beeinflusst werden, um Klimaveränderungen zuverlässig und präzise zu messen. Die Gesamttemperaturen des Ozeans oder der Tiefsee geben uns einen Hinweis auf lange klimatische Veränderungen von tausend Jahren oder mehr, aber sie sagen uns wenig über Veränderungen im Hundert-Jahre-Zeitraum.

Die ozeanische Mischschicht ist eine Zone, die zwischen einem Millimeter und etwa zehn Metern unterhalb der Meeresoberfläche beginnt. Oberhalb dieser Tiefe werden die Temperaturen Minute für Minute von der Atmosphäre und dem Sonnenlicht beeinflusst. Nachts bewegt sich die Oberseite der Mischschicht näher an die Oberfläche, kann aber durch Windgeschwindigkeit, Niederschlag und Bewölkung beeinflusst werden. Unterhalb des oberen Teils der Mischschicht ist die Temperatur stabiler als in der Atmosphäre und an der Meeresoberfläche. Die Temperatur, der Salzgehalt und die Dichte der Schicht sind aufgrund von Turbulenzen von oben nach unten nahezu konstant. Sie spiegelt die Oberflächentemperaturen wider, ist aber eine Funktion des Durchschnitts der vorangegangenen mehreren Wochen. Die Dicke der gemischten Schicht variiert saisonal von einigen zehn Metern bis zu mehreren hundert Metern. Wir werden die gemischte Schicht im nächsten Beitrag ausführlicher behandeln.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here.

Link: https://andymaypetrophysicist.com/2020/12/09/sea-surface-skin-temperature/

Übersetzt von Chris Frey EIKE

Anmerkung: Der wiederholt angesprochene nächste Beitrag erscheint demnächst ebenfalls hier in deutscher Übersetzung.




Wie „DIE LINKE“ die Tigermücke besonders effektiv verhindert

Tigermücken-Bekämpfung kostet Geld. Deshalb wird es im Stadtrat diskutiert

Beim Lesen der täglichen Medien darf man inzwischen weder bei denen, über die berichtet wird, noch an die Redakteure Ansprüche an so etwas wie Qualität stellen. Und ein geradezu herausragendes Beispiel dafür lieferte (wieder) eine Stadtratssitzung der beschaulichen Kleinstadt Fürth Anfang Dezember.

Wie wohl in ganz Deutschland inzwischen unvermeidbar, wird auch in diesem Stadtrat der Klimawandel als hoch-wichtiges und brisantes Thema behandelt, für das die Stadt Maßnahmen im Klimakampf durchzuführen hat (wofür extra Fachpersonal eingestellt wurde).
Nun schlägt „Corona“ allerdings auch hier zu und das Geld wird knapper. Also gibt es unvermeidbare Verteilungskämpfe und Parteien, welche wissen, wo die wirklichen Prioritäten liegen müssen:
[1] … Die Stadtratsmehrheit hatte den Etat gegen Grüne und Linke durchgesetzt. Via Pressemitteilung beklagte die Öko-Partei nun die „fatale Entscheidung“, den Klimaschutz „auf Eis zu legen“. Denn in der Corona-Krise befinde sich die Welt auch in einer „wesentlich bedrohlicheren“ Klimakrise ….

An solche Aussagen von „Fachpersonal“ hat man sich inzwischen gewöhnt und dagegen ist in Deutschland aufgrund des immer niedriger werdenden Wissensniveaus – welches für die Führungsmannschaft vor allem einer Partei geradezu als Werbemaßnahme dient -, auch nichts mehr zu machen. „Unterirdisch“ kann es jedoch werden, wenn solches Fachpersonal ihr „Wissen“ anwendet und nicht nur die üblichen, pauschalen Anklagen, sondern „Lösungen“ publiziert:
Zeitung Lokalausgabe, Zitierung: [1] Von der Tigermücke zum Tempomessgerät
Zur Überwachung und Bekämpfung der aggressiven, aus den Tropen stammenden Asiatischen Tigermücke, die sich in der Südstadt festgesetzt hat und als potentielle Überträgerin von Krankheiten wie Dengue-Fieber oder Zika gilt, gibt Fürth voraussichtlich 200.000 EUR aus. Ein „irres“ Geld, so Oberbürgermeister … Ob es nichts Billigeres gebe?
Man hätte sich das Geld sparen können, hätte man früher etwas gegen die Erderwärmung getan, sagte xxx (Stadtrat von „Die Linke“; Anm.: Rechtsanwalt) …

Diese Aussage des Stadtrats ist an Unwissenheit (rein persönliche Meinung des Autors, die nicht bewiesen ist) kaum mehr zu überbieten. Dass sie aber in einer Stadtratssitzung gesagt wird und zu keinem Widerspruch führt – der Verkündende wohl eher davon ausgeht, als besonders guter „Klimaproblemkenner“ geachtet zu werden -, zeigt exemplarisch das Unwissen auch der anderen Anwesenden über (Un-)Sinn und vollkommen fehlenden (Klima-)Nutzen ihrer Maßnahmen und deren Kosten im immerwährenden Klimakampf.

Mücken“ und Klima(-Wandel)

Im Beitrag geht es zwar um die Tigermücke. Anhand der vor allem auch in historischen Zeiten besser dokumentierten Malariaverbreitung lässt sich die Problematik aber plausibler und umfassender erklären.

Es ist ein oft publiziertes und fortwährend wiederholtes Märchen, dass „Mückenprobleme“ erst seit dem Klimawandel existieren:
Gesundheitsstadt Berlin 03. Juni 2019: Klimawandel: Malaria Mücken kommen nach Europa
Der Klimawandel sorgt nicht nur für heißere Temperaturen und Unwetter. Er wird auch Mücken nach Europa treiben, die Krankheitserreger wie Malaria übertragen. Ein Modell der Uni Augsburg zeichnet ein düsteres Szenario bis Ende des Jahrhunderts …
Anmerkung: Wohl nicht rein zufällig hat die dafür verantwortliche, agile Forscherin [3] (Geografin) dank solcher (Simulations-)“Erkenntnisse“ an der Universität Augsburg die erste Professur für „regionale Auswirkungen des Klimawandels auf die Gesundheit“ bekommen. Erkennbar lohnt es sich, wenn Simulationen das „richtige“ Ergebnis ausspucken …

Wer im Sommer in Finnland und Schweden bei Dämmerung in der freien Natur ist weiß, dass in diesen Ländern Mücken eine extreme Plage sind, obwohl es dort (nicht nur) im Winter richtig kalt ist.
Deshalb wundert es nicht, dass die Malaria zur mittelalterlichen Kaltzeit auch in Europa bis in den höchsten Norden weit – und tödlich – verbreitet war:
bildungsserver wiki: Malaria in Deutschland und Europa
Bis ins 19. Jahrhundert war Malaria auch in Deutschland und Europa weit verbreitet. Sogar während der sog. „Kleinen Eiszeit“ im 16. und 17. Jahrhundert, der kältesten Periode in Europa seit dem Mittelalter, gab es Malaria-Epidemien in weiten Teilen Europas, so z. B. auch in Skandinavien und Großbritannien. In Deutschland erreichte die Malariaverbreitung ihren Höhepunkt in der ersten Hälfte des 19. Jahrhunderts. Die Vorkommen lagen vor allem im Küstengebiet, aber auch entlang von Rhein und Donau. 1826 z.B. kam es an der Nordsee zu einer Epidemie mit ca. 10 000 Krankheitsfällen und vielen Toten. Außer im Mittelmeerraum war die Malaria in Europa Ende des 19. Jahrhunderts dann weitgehend verschwunden.
Die Verbreitung und deren Abnahme (oder auch Zunahme) hat mit dem Klima(-Wandel) herzlich wenig zu tun:
bildungsserver wiki:
Die Gründe für die weitgehende Ausrottung der Malaria in Europa lagen nicht in klimatischen Änderungen, die durch die allmähliche Erwärmung eher das Gegenteil hätten bewirken sollen. Vielmehr wurden die Lebensbedingungen der Anopheles-Mücken durch menschliche Maßnahmen zunehmend eingeschränkt. Eine entscheidende Rolle spielten die Trockenlegung von Feuchtgebieten, die Begradigung von Flüssen und der Ausbau von Kanalisationssystemen, durch die Mückenbrutplätze erheblich reduziert wurden. Außerdem lebten die Menschen durch Migration in die Städte oder durch verbesserte Wohnbedingungen auf dem Land zunehmend weniger in enger Gemeinschaft mit Nutztieren, die vielen Mücken als Wirt dienten. Hinzu kam ab Mitte des 20. Jahrhunderts die Vernichtung der Anophelesmücken durch das Insektenbekämpfungsmittel DDT. Von 1900 bis 2002 wurden auf diese Weise die Risikogebiete von 53 % der globalen Landoberfläche auf 27 % verringert.

Wie das folgende Bild zeigt, lebt die Mücke recht unabhängig von der Temperatur einfach dort, wo ihr die Lebensgrundlage (ausreichend Feuchte) passt. Und das waren damals praktisch alle Flusstäler. Das Rheintal war bis zur Begradigung des Rheins und den Trockenlegungen geradezu „tödlich berühmt“ dafür:

Bild 1 Malaria in Mitteleuropa während des 19. Jahrhunderts. Quelle: Biologiezentrum Linz/Austria, Walther H. WERNSDORFER: Malaria in Mitteleuropa

Ähnlich umfangreich war die Malaria in Finnland bis in die 1960er Jahre verbreitet:

Bild 2 [2] Figure 2 Left map. Distribution of cumulative indigenous malaria cases Finland in 1749–1954. Dots represent 10 × 10 km2 units. Right map. The size of population in the municipalities in 1875 is presented according to the relative size of dots. The distribution of malaria comprised nearly all the inhabited parts of Finland.

Deren Ausrottung erkennbar gegen den Temperaturtrend stattfand:

Bild 3 [2] Figure 4 June – July temperature in 1829 – 1960 from Helsinki (Finland) and the annual malaria frequency trends in Finland in 1750 – 1960.

Sofern die Malaria also wieder nach Europa kommen sollte, hat es mit Sicherhit nichts mit dem Klimawandel zu tun, auch wenn in Augsburg (sicher für viele Forschungsmittel) nur danach geforscht simuliert wird:
[3] Extreme Wetterereignisse wie Hitzewellen, oder Luftschadstoffe und Luftqualität und die Rückkehr der Malaria nach Europa – das sind Forschungsthemen der Geografin Prof. Dr. Elke Hertig, die als Expertin für regionale Auswirkungen des Klimawandels auf die Gesundheit auf eine Heisenberg-Professur der Medizinischen Fakultät der Universität Augsburg berufen wurde. Diese Professur für Regionalen Klimawandel und Gesundheit – Hertig tritt sie zum 1. September 2019 an – spielt eine zentrale Rolle für den Aufbau des Forschungsschwerpunktes Environmental Health Sciences der Augsburger Universitätsmedizin.

Doch nun zur Tigermücke, welche im beschaulichen Städtchen Fürth eine neue „Heimat“ gefunden hat.

Die Tigermücke interessiert sich ebenfalls wenig fürs Klima. Wo sie (durch den Menschen) hingebracht wird, passt sie sich einfach an

Dass die Verbreitung der Asiatischen Tigermücke vom Menschen verursacht ist, kann man leicht nachlesen. Nur ist es nicht der (angeblich) vom Menschen verursachte Klimawandel, sondern ganz einfach deren Transport:

Bild 4 Auszug Schulungs-Foliensatz [5]

Das fällt dieser Mückenart leicht, denn sie ist extrem anpassungsfähig. Zudem „liebt“ sie geradezu städtische Umgebung:
[5] … nach Kriterien der ISSG (Invasive Species Specialist Group, www.issg.org) gilt Ae. albopictus als eine der 100 invasivsten Arten der Welt • Container-Brüter • starke Anpassungsfähigkeit − Nutzung einer großen Bandbreite an (artifiziellen) Brutbehältern − Diapause in Stämmen aus gemäßigten Breiten − trockenresistente Eier
Ausbreitung hauptsächlich über − den Gebrauchtreifenhandel − den Import von Glücksbambus − den Kraftfahrtverkehr

Biogents »Asiatische Tigermücke: Die Asiatische Tigermücke (Stegomyia albopicta, syn. Aedes albopictus) ist eine ursprünglich in den süd- und südostasiatischen Tropen und Subtropen beheimatete Stechmückenart. In den letzten 30 Jahren konnte sich die Asiatischen Tigermücken weltweit verbreiten und sind auch im Mittelmeergebiet heimisch geworden. In Nordamerika haben sie sich auch an das Leben in kälteren Klimazonen angepasst, ihr Vorkommen erstreckt sich dort inzwischen bis an die Großen Seen. Hauptursache für die Verbreitung sind die weltweiten Transporte von Pflanzen und gebrauchten Reifen, mit denen die Mücke als blinder Passagier mitreist.

Bild 5 Verbreitung der Asiatischen Tigermücke. Quelle: Biogents »Asiatische Tigermücke (Aedes albopictus)

 

Hätte man früher etwas gegen die Erderwärmung getan … „Diese Aussage des Stadtrates entlarvt sich schon nach der vorhergehenden, kurzen Übersicht über Mückenprobleme und den dafür nicht entfernt verantwortlichen Temperatur(Erhöhungs)Einfluss als eine ausnehmend dämliche Aussage.
Trotzdem soll orientierend die Möglichkeit der Stadt Fürth betrachtet werden, durch „Temperaturverringerung“ einen irgendwie gearteten Einfluss auszuüben.

Dazu ist abzuschätzen, welchen Einfluss die Stadt Fürth auf die Temperatur haben kann:
Deutschland emittierte im Boomjahr 2019 ca. 805 Mio. Tonnen CO2-Äquivalent. Bis zum Jahr 2100 wären das 64,4 Gt.
Diese 64,4 Gt erhöhen den CO2-Wert in der Atmosphäre bis zum Jahr 2100 um 8,25 ppm und erhöhen die Globaltemperatur im Jahr 2100 somit um 0,044 Grad.
Nun hat das CO2 in der Atmosphäre eine Halbwertszeit je nach publizierendem Institut zwischen 30 (Solomon et al, 2007) … 5000 Jahren (PIK). Nimmt man als Kompromisswert die vom IPCC genannten 120 Jahre an, dann reduziert sich diese längerfristige Erhöhung nochmals um ganz, ganz grob 20 %, also auf 0,035 Grad (bei 30 Jahren wären es erheblich weniger).
Folgerung: Würde ganz Deutschland spontan jegliche CO2-Emission einstellen, würde sich die Welttemperatur bis zum Jahr 2100 um vielleicht 0,035 °C (richtig: Kelvin) verringern. Ob die dadurch erzwungene Kälte die Tigermücke verhindern würde?

Nimmt man vereinfacht an, das beschauliche Städtchen Fürth hat eine der Einwohnerzahl linear anteilige Emission, dann betrüge deren globale Temperatur-Einflussmöglichkeit bis zum Jahr 2100 „wirksame“ 0,000055 °C, sofern es seine CO2-Emission sofort auf Null reduziert.
Der Stadtrat behauptet, das kleine Städtchen Fürth, sofern dort schon früher mit CO2-Reduktion begonnen worden wäre, hätte so viel Temperaturverringerung „erzwingen“ können, dass die Tigermücke in deren Südstadt wegen der erzwungenen Kälte nicht leben könnte. Nehme man an, Fürth hätte vielleicht schon vor 20 Jahren seine CO2-Emission auf Null reduziert, dann wäre es dort aktuell vielleicht um sagenhafte 0,000014 Grad kälter. Kein Thermometer könnte dies messen. Aber die Tigermücke …
Einfachste Dreisatzrechnungen mit dem Forcing legen den gesagten Schachsinn dieses Stadtrats schonungslos offen.

Wärmeinseleffekt

Während die CO2-Emission entgegen der landläufig immer neu publizierten „Belege“ außer in Simulationen fast keinen wirklichen Einfluss auf das Klima hat, hat ihn der von menschlicher Besiedlung verursachte Wärmeinseleffekt lokal umso mehr.
Die EU „kämpft“ inzwischen ohne Rücksicht auf Sinn und Kosten mittels CO2-Reduzierung, um die Welttemperatur bis zum Jahr 2100 nicht noch mehr als ca. +0,4 Grad auf 1,5 Grad Erhöhung ansteigen zu lassen.

Bild 6 Globale Temperaturanomalie. Originalbild vom Autor ergänzt. Quelle. DWD

Dabei haben die urbanisierten Gegenden weit höhere Temperaturanstiege bereits heute und nehmen damit viele Hundert Jahre (angeblich tödlichen) Klimawandel längst „vorweg“.

Bild 7 [6] Quantifizierte Wärmeinseleffekte von Großstädten in NRW. Bild vom Autor ergänzt

Würde die Tigermücke auf Temperatur wirklich reagieren, hätte einzig eine drastische Verringerung des Wärmeinseleffektes eine Chance, Einfluss auf die Population zu haben.
Diese Erkenntnis ist ideologisch aber nicht „korrekt“. Also lieber vollkommen sinnlos CO2 vermeiden.

Die Fachpersonen der Stadt schweigen …

Wenn der Oberbürgermeister im Stadtrat persönlich solch schlimmer Fehlleistung beschuldigt wird, nimmt man an, dass er Wert darauf legt, die Sachlage richtigzustellen. In der Stadtratssitzung waren alle Beteiligten vom „Klima“-Vortrag so beeindruckt – oder überrumpelt – dass niemand etwas dazu zu sagen wusste (zumindest hat die Zeitung nichts darüber berichtet).

Nun ist die Stadt zum Klimawandel sehr aktiv. Zwar hat sie (noch) keinen Klimaalarm ausgerufen, doch will sie Klimaschutzstadt werden.
Weil das viel Arbeit bedeutet und zu deren Erledigung ausgewähltes Fachpersonal erfordert, wurden dafür extra zwei Klimaschutzmanager*innen eingestellt (bezahlt zu 90 % der Bund). Den Zeitungsberichten nach sind diese beim schützen und lenken des Klimas überaus aktiv. So „rennen“ diese selbstverständlich jedem Kilogramm CO2 hinterher, dessen sie irgendwie habhaft werden können, um es ohne Rücksicht auf Aufwand und Kosten zu verhindern – und den Erfolg zu protokollieren und zu publizieren. Schließlich sitzen ihnen neben den „üblichen“ Parteien im Stadtrat auch die zunehmend aggressiveren Parents for Future und die Freitagshüpfer ständig im Nacken.

Und der Oberbürgermeister will ebenfalls Erfolge sehen. Sein sehnlichster Wunsch lautet: „ … doch glaubt er Fürth in einer nicht allzu fernen Zukunft CO2-frei … “.

Was lag also näher, als die Klimaschutzmanager*ìnnen als ausgewiesene Klimafachpersonen zu befragen und zu bitten, die Ehre des Oberbürgermeisters wieder herzustellen. Gesagt, getan:

An
Referat III – Umwelt, Klimaschutz, Recht und Ordnung
Thema
Anfrage zu einer Klimaschutzmaßnahme
Anlass/Thema
In der letzten Stadtratssitzung hat der Stadtrat Herr Ulrich Schönweiß laut Information der FN unserem Bürgermeister vorgeworfen, dass die Tigermücke in der Fürther Südstadt wohl nicht gekommen wäre, wenn die Stadt Fürth bereits früher etwas gegen die Erderwärmung getan hätte (Anlage).
Nachfrage
Im FN-Protokoll steht nichts, dass dieser Vorwurf zu einem Protest oder Gegenargumentation Anwesender geführt hätte. Anscheinend haben alle Anwesenden diese Aussage als Fakt akzeptiert.
Mich verblüfft sie allerdings sehr. Ich gehe sogar so weit, sie für falsch und deshalb unsinnig zu halten.
Nun bin ich allerdings zwar ein Interessierter, aber kein Fachmann für Klimawandelfragen und schon gar nicht für die Tigermücken-Verbreitung. Deshalb könnte meine Bewertung der Aussage einer Fehleinschätzung unterliegen.
Allerdings halte ich das Thema für wichtig, denn die Klimaschutzmaßnahmen der künftigen Klimaschutzstadt Fürth sollen ja effektiv sein. Und sicher hat auch die Stadt Fürth ein Interesse daran, zu wissen, ob die Anschuldigung des Stadtrats Schönweiß berechtigt ist.
Deshalb die Nachfrage an das Klimawandel- und –Maßnahmen Fachteam der Stadt Fürth:
Hätte eine Reduktion des Weltklimas das Auftreten und die Verbreitung der Tigermücke in der Fürther Südstadt verhindern können
– Wenn ja: Um wie viel hätte man das Weltklima dazu reduzieren müssen
– Wenn ja: Mit welchen Anteil an globaler Temperaturverringerung hätte die Stadt Fürth daran „helfen“ können
– Wenn ja: Kann die künftige CO2-Reduktion der Stadt Fürth die Population in der Südstadt und deren Verbreitung noch beeinflussen
Vielen Dank für eine Beantwortung

Bisher haben die Fachpersonen noch nicht geantwortet, weshalb es in diesem Artikel nur möglich war, die Begründung für die Bewertung des Autors darzulegen.
Sicher liegt die Verzögerung der Antwort durch das städtische Fachreferat nur daran, dass dort besonders sorgfältig gearbeitet wird.

Es könnte allerdings auch sein, dass den Fachpersonen bei einer Bearbeitung (wieder) offensichtlich wird, wie vollkommen schwachsinnig die CO2-Maßnahmen der Stadt wirklich sind, zumindest die Behauptung, damit das Klima zu beeinflussen.

Und wer stellt schon gern seinen (guten) Job selbst in Frage? Obwohl diese Gefahr zumindest im Merkeldeutschland und von den Laien gelenkten EU nicht im Ansatz besteht. Denn unsere unfehlbare Merkel arbeitet wohl mit eiserner Konsequenz auf einen renommierten Rentner-Posten in einem internationalen Gremium hin. Und den bekommt man nur, wenn man deren Lied konsequent mitsingt, auch wenn die Bürger ihren „Gesang“ immer teurer bezahlen:
Handelsblatt 12.12.2020: UN-Generalsekretär: Guterres fordert Ausrufung des „Klimanotfalls“ in allen Staaten
orf.at: Die deutsche Bundeskanzlerin Angela Merkel sagte 500 Millionen Euro zu, um ärmere Länder beim Klimaschutz zu unterstützen. „Alle Staaten müssen notwendige Klimaschutzinvestitionen finanzieren können“ …
Anmerkung: Die weit höheren, zukünftigen Zahlungen in den Welt-Klimaschutzfond und nun die ebenfalls weit höheren zur Unterstützung von EU-Ländern bei der „Energietransformation“ kommen noch dazu.

Nachdem es der Politik gelungen ist, dank dem größten Wissenschaftsbetrug der Neuzeit (rein persönliche Überzeugung des Autors zum schlimmen AGW-Klimawandel) Steuern in bisher ungeahnten Mengen aus der Atmosphäre zu generieren, die sich praktisch ausschließlich durch von Klimafolgen-„Forschungs“-Instituten erstellten Simulationsprogramme, „gefüttert“ mit geeigneter Parametrierung „begründen“, wird es noch viele Jahrzehnte so weitergehen, da eine ganze Generation von Staatsbeamten, Klimafolgen-„Forschungs“-Instituten und NGOs überproportional davon profitiert.

Vereinzelte Stimmen an Klarstellung werden daran nichts mehr ändern:
WELT 13.12.2020: AUFRUF ZUM „KLIMANOTSTAND Der UN-Chef verrät die Welt
Staatschefs sollten einen „Klimanotstand“ ausrufen, fordert der Generalsekretär der Vereinten Nationen, António Guterres. Sein Appell an die Weltgemeinschaft übergeht Probleme von Milliarden Menschen. Von Klimanotstand kann keine Rede sein … Schon auf der UN-Klimakonferenz im Dezember 2019 in Madrid hatte António Guterres den Delegierten zugerufen, die Folgen des Klimawandels wären „bereits spürbar in der Form häufiger Extremwetterkatastrophen“. Auch in seiner neuen Erklärung beschwört er eine Zunahme von „apokalyptischen Feuern, Hochwassern, Dürren und Stürmen“, was Daten aber nicht zeigen. Im Gegenteil: Wetterextreme sind trotz der globalen Erwärmung weniger gefährlich geworden …
Die Nordbayerischen Nachrichten informieren ihre Leser selbstverständlich ebenfalls: Fast täglich wird in irgend einem Redaktionskommentar an (angeblich) bereits eingetretene Zerstörungen durch den Klimawandel erinnert. Als Statements von Fachpersonen darf man lesen, was die örtlichen Vertreter von Extinction Rebellion, Parents for Future, sowie der Deutschlandvertreter von Greenpeace von der beschlossenen EU-CO2-Reduktion halten …

Quellen

[1] Nordbayerische Nachrichten, Lokalausgabe vom 05. Dezember 2020: Von der Tigermücke zum Tempomessgerät
[2] BioMed Central: Malaria Journal, Lena Hulden and Larry Hulden, 2009: The decline of malaria in Finland – the impact of the vector and social variables

[3] Universität Augsburg: UPD 118/19 – 19.08.2019

[4] EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit

[5] Umweltbundsamt, Schulungs-Foliensatz: Für Mensch & Umwelt Fortbildungsveranstaltung für den Öffentlichen Gesundheitsdienst 2016 Die Asiatische Tigermücke in Deutschland: Gesundheitliche Bedeutung und Handlungsbedarf

[6] Klimawandel und Klimafolgen in Nordrhein-Westfalen Ergebnisse aus den Monitoringprogrammen 2016, LANUV-Fachbericht 74