Zahlen – verzwickte, verzwickte Zahlen: Teil 2: Man darf (kann) Temperaturwerte nicht mitteln

Kip Hansen

[Alle Hervorhebungen in diesem Beitrag im Original! A. d. Übers.]

Beginnen wir mit dieser einfachen Aussage – sie ist wahr, aber mit einigen Vorbehalten gegenüber dem gesunden Menschenverstand verbunden.

In diesem Aufsatz geht es um einen wissenschaftlichen Punkt: Man kann keine durchschnittliche Temperatur messen! Diese Tatsache kann sich auf Ihr Verständnis einiger unterstützender Punkte der Klimawissenschaft auswirken.

Nehmen wir an, Sie betreiben eine Website für Unternehmen, die im August eine Tagung in Topeka, Kansas, abhalten wollen, und Sie möchten die Teilnehmer darüber informieren, welches Wetter sie in Bezug auf die Temperatur erwarten können, damit sie geeignete Kleidung für die Reise einpacken können. Ein Diagramm wie unten ist sehr gut geeignet. Sie zeigt den Durchschnitt der historischen Höchst- und Tiefsttemperaturen für jeden Tag des Monats und stellt diese als Spanne und nicht nur als Zahl dar. Sie gibt eine vernünftige Antwort auf die Unternehmensfrage: „Wie ist das Wetter im August in Topeka?“ Die Antwort: Heiße Tage und angenehm warme Nächte. Also, tagsüber Reden und Präsentationen im klimatisierten Auditorium und abends das Tiki-Bar-Luau am Hotelpool, das ist definitiv angesagt!

In diesem Fall haben sie nicht wirklich versucht, die „Durchschnittstemperaturen“ zu ermitteln – sie haben einfach die Zahlen über die Temperaturen gemittelt, um einen erwarteten Bereich historischer Höchst- und Tiefstwerte zu finden – sie glauben nicht, dass es sich dabei um eine reale Temperatur handelt, die gemessen werden könnte – sie räumen ein, dass es sich um einen eher vagen, aber nützlichen Bereich erwartbarer täglicher Höchst- und Tiefstwerte handelt.

Dieser akzeptable und vernünftige Ansatz ist etwas ganz anderes, als die Höchsttemperaturen von San Diego, Los Angeles, Mohave und Palm Springs zu nehmen, sie zu addieren, durch vier zu teilen und zu verkünden, dass man den Temperaturdurchschnitt der südwestlichen kalifornischen Wüste ermittelt hat. Sie mögen ein absolut korrektes – auf viele Dezimalstellen genaues – mathematisches Mittel der verwendeten Zahlen haben, aber Sie werden nichts wie eine numerische Temperatur oder ein physikalisch sinnvolles Ergebnis erhalten haben. Welchen numerischen Mittelwert Sie auch immer gefunden haben, er wird die physikalische Realität der „Temperatur“ nirgendwo repräsentieren, schon gar nicht in der Region, die Sie interessiert.

„Aber, aber, aber, aber“ ….. kein Aber!

Man kann die Temperatur nicht mitteln!

Warum nicht? Die Temperatur ist doch nur eine weitere Zahl, oder nicht?

Die Temperatur ist nicht nur eine Zahl – die Temperatur ist die Zahl der – die Zählung oder Messung einer der verschiedenen Temperatureinheiten.

Temperatur, Maß für Hitze oder Kälte, ausgedrückt in einer beliebigen Skala, die die Richtung angibt, in die die WärmeEnergie spontan fließt, d. h. von einem heißeren Körper (mit einer höheren Temperatur) zu einem kälteren Körper (mit einer niedrigeren Temperatur). Die Temperatur ist nicht das Äquivalent der Energie eines thermodynamischen Systems. [Quelle]

Wir können also sagen, dass Objekte mit höheren Temperaturen, unabhängig davon, welche Skala man verwendet (°F, °C, K), „heißer“ sind und Objekte mit niedrigeren Temperaturen (unter Verwendung derselben Skala) „weniger heiß“ oder „kälter“ sind (…), und wir können davon ausgehen, dass die Wärmeenergie vom „Heißeren“ zum „Kälteren“ fließt.

Die Multiplikation von Temperaturen als Zahlen ist möglich, führt aber zu unsinnigen Ergebnissen, zum Teil, weil die Temperaturen in willkürlichen Einheiten unterschiedlicher Größe angegeben werden, vor allem aber, weil die Temperaturen nicht die Wärmeenergie des gemessenen Objekts, sondern die relative „Hitze“ und „Kälte“ darstellen. „Doppelt so heiß“ in Fahrenheit, sagen wir doppelt so heiß wie 32°F (Gefriertemperatur von Wasser) ist 64°F – offensichtlich wärmer/heißer, aber nur unsinnigerweise „doppelt so heiß“. In Celsius-Graden müssten wir 1°C sagen (wir können die Null nicht verdoppeln), und wir hätten 2°C oder 35,6°F (ganz anders als die obigen 64°F). Ja, das liegt daran, dass die Größen der Einheiten selbst unterschiedlich sind. Wenn wir jedoch wissen wollen, um wie viel „Wärme“ es sich handelt, sagen uns weder Grad Fahrenheit noch Grad Celsius etwas … Temperatur ist kein Maß für den Wärmeinhalt oder die Wärmeenergie.

Ein Kubikmeter Luft bei normalisiertem Luftdruck auf Meereshöhe (etwa 1.013,25 hPa) und 60 % Luftfeuchtigkeit bei einer gemessenen Temperatur von 21°C enthält weit weniger Wärmeenergie als ein Kubikmeter Meerwasser bei gleicher Temperatur und Höhe. Ein ein Kubikmeter großer Block aus rostfreiem Stahl mit einer Temperatur von 21°C enthält sogar noch mehr Wärmeenergie. Die relative Hitze oder Kälte eines Körpers kann durch seine Temperatur ausgedrückt werden, aber die Menge an Wärmeenergie in diesem Körper wird nicht durch die Angabe seiner Temperatur ausgedrückt.

Wie wird Wärme in der Wissenschaft ausgedrückt – quantifiziert – ?: Die Einheiten der Wärmeenergie sind Kalorien, Joule und BTU (Quelle). Wir sehen, dass keine der Wärmeeinheiten eine Temperatureinheit (°F, °C, K) ist.) (Anmerkung: Wenn Thermodynamik einfach wäre, hätte ich diesen Aufsatz nicht schreiben müssen).

Die Temperatur ist eine Eigenschaft der Materie – und die Temperatur ist insbesondere eine Intensive Eigenschaft.

Umfangreiche Eigenschaften können addiert werden – Volumen: Die Addition von 1 Kubikmeter Mutterboden zu einem neuen Kubikmeter Mutterboden ergibt zwei Kubikmeter Mutterboden und füllt das doppelte Volumen des Hochbeetgartens in Ihrem Garten. Länge: Wenn man eine Meile Fahrbahn zu einer Meile bestehender Fahrbahn hinzufügt, erhält man zwei Meilen Fahrbahn.

Bei intensiven Eigenschaften funktioniert dies jedoch nicht. Die Härte ist eine Intensive Eigenschaft. Man kann die numerische Mohs-Härte von Apatit, die einen Wert von 5 hat, nicht mit der numerischen Mohs-Härte von Diamant, die einen Wert von 10 hat, addieren und erhält überhaupt keine sinnvolle Antwort – sicherlich nicht 15 und auch nicht „5 plus 10 geteilt durch 2 gleich 7,5“.

Farbe ist eine intensive Eigenschaft. Farbe hat zwei Maße: Wellenlänge/Frequenz und Intensität. Die meisten von uns können die Farbe einer Materie leicht erkennen – unsere Augen teilen unserem Gehirn die allgemeine Wellenlänge des Lichts mit, das von einem Objekt reflektiert oder ausgestrahlt wird, was wir in einen Farbnamen übersetzen. Wissenschaftlich gesehen kann die Wellenlänge (oder gemischte Wellenlängen) des reflektierten oder ausgestrahlten Lichts als Frequenzen (in Terahertz – Terahertz, 1012 Hz ) und Wellenlängen (in Nanometern) gemessen werden. Farben lassen sich nicht als Zahlen addieren. Bei farbigem Licht ergibt die gleichmäßige Addition der drei Grundfarben „weißes“ Licht. Bei Pigmenten ergibt die Addition der drei Grundfarben „Schwarz“, und andere Kombinationen, wie Magenta und Gelb, führen zu überraschenden Ergebnissen.

Auch die Temperatur, eine intensive Eigenschaft, kann nicht hinzugefügt werden.

„Intensive Variablen hingegen sind unabhängig von der Systemgröße und stellen eine Eigenschaft des Systems dar: Temperatur, Druck, chemisches Potenzial usw. In diesem Fall führt die Kombination zweier Systeme nicht zu einer intensiven Gesamtgröße, die der Summe ihrer Komponenten entspricht. Zwei identische Teilsysteme haben zum Beispiel nicht die doppelte Gesamttemperatur oder den doppelten Druck ihrer Komponenten. Eine Summe über intensive Größen hat keine physikalische Bedeutung. Die Division sinnloser Summen durch die Anzahl der Komponenten kann dieses Ergebnis nicht umkehren. Unter besonderen Umständen kann die Mittelwertbildung eine Annäherung an die Gleichgewichtstemperatur nach der Vermischung bewirken, doch ist dies für die Analyse eines nicht im Gleichgewicht befindlichen Falles wie des Erdklimas irrelevant.[ Quelle: Does a Global Temperature Exist? von Christopher Essex, Ross McKitrick und Bjarne Andresen (.pdf ) ]

Das ist eine wunderbare, aber dichte Erklärung. Schauen wir uns die wichtigsten Punkte einzeln an:

1. Die Temperatur, eine intensive Eigenschaft, ist unabhängig von der Systemgröße und stellt eine Qualität des Systems dar.

2. Die Kombination von zwei Systemen (z. B. die Temperaturen von zwei verschiedenen Kubikmetern Atmosphäre, die zwei Stevenson Screens oder zwei MMTS-Einheiten umgeben) ergibt keine intensive Gesamtgröße, die der Summe ihrer Komponenten entspricht.

3. Eine Summe über intensive Variablen hat keine physikalische Bedeutung – die Addition der Zahlenwerte zweier intensiver Variablen, wie der Temperatur, hat keine physikalische Bedeutung, sie ist unsinnig.

4. Das Dividieren von bedeutungslosen Summen durch die Anzahl der Komponenten – mit anderen Worten, die Mittelwertbildung oder die Ermittlung des Mittelwerts – kann dieses Ergebnis nicht umkehren, der Durchschnitt oder Mittelwert ist immer noch bedeutungslos.

5. Lufttemperaturen (2 Meter über der Oberfläche) sind alle punktuellen Temperaturmessungen innerhalb einer Luftmasse, die sich nicht in allen Maßstäben hinsichtlich Temperatur, Druck, Feuchtigkeit oder Wärmeinhalt mit ihrer Umgebung im Gleichgewicht befindet.

Wir können sehen, dass selbst auf sehr kleinem Maßstab, d. h. auf den wenigen Metern, die den MMTS-Sensor an der Wetterstation in Glenns Ferry, Idaho, umgeben, das Lufttemperatursystem weit davon entfernt ist, sich im Gleichgewicht zu befinden – Luft über einem heißen Transformator, gefrorenes kahles Gras, Schneeflecken und Gestrüpp, die alle Wärmeenergie von der Sonne absorbieren und einen unterschiedlichen Wärmeinhalt aufweisen. Alle diese kleineren Teilsysteme geben aktiv Wärme ab oder nehmen Wärmeenergie aus den ungleichen Systemen um sie herum auf. Praktisch gesehen würde man, wenn man neben dem Sensor stünde, wissen, dass es dort „kalt“ ist, da die Luft am Sensor weit unter dem Gefrierpunkt liegt – aber im Notfall könnte man sich an den Transformator kuscheln und sich durch seine Wärme wärmer fühlen. Es ist jedoch wissenschaftlich nicht möglich, die Lufttemperaturen selbst innerhalb des zwei Meter großen Luftwürfels um den Sensor herum zu „mitteln“.

Man kann die Temperatur nicht mitteln.

Kommentar des Autors:

Ich mache mir keine Illusionen darüber, dass dieser Aufsatz von allen, die hier lesen, akzeptiert werden wird. Er ist jedoch wissenschaftlich und physikalisch korrekt und könnte viele fest verankerte Überzeugungen erschüttern.

Ich werde einen Folgeartikel, Teil 3, schreiben, in dem es um die Ausreden geht, mit denen CliSci behauptet, sie könnten gültige Durchschnittstemperaturen ermitteln – einschließlich der lahmen Ausreden: „Wir bilden keine Mittelwerte, sondern Anomalien“; „Wir finden nicht nur Mittelwerte, sondern gewichtete Mittelwerte“; „Wir bilden keine Mittelwerte, sondern Krig“; „Wir erfinden keine Daten, sondern verwenden die Zahlen der nächstgelegenen verfügbaren Stationen, solange sie innerhalb von 1.200 Kilometern liegen“ [750 Meilen]. (Anmerkung: Das ist die ungefähre Entfernung von Philadelphia nach Chicago oder von London nach Marseille, die, wie wir alle wissen, kein gemeinsames Klima haben, geschweige denn Lufttemperaturen); und viele mehr. In allen Fällen werden die Temperaturen in unangemessener Weise gemittelt, was zu sinnlosen Zahlen führt.

Man kann jedoch einen Mittelwert bilden und mit dem Wärmeinhalt arbeiten, der eine umfassende Eigenschaft der Materie ist. Es ist der Wärmeinhalt des „gekoppelten nichtlinearen chaotischen Systems“, das das Erdklima darstellt, mit dem sich die Klimawissenschaft beschäftigt, wenn sie darauf besteht, dass steigende atmosphärische CO2-Konzentrationen mehr Wärme im Erdsystem einschließen. Aber CliSci misst den Wärmeinhalt des Systems nicht, sondern besteht darauf, die bedeutungslosen Zahlen zu ersetzen, die verschiedene Gruppen als globale durchschnittliche Oberflächentemperatur bezeichnen.

Sie können Ihre Meinung gerne in den Kommentaren kundtun – ich werde den Punkt nicht bestreiten – er ist einfach zu grundlegend und wahr, um sich darüber zu streiten. Wenn Sie spezifische Fragen stellen, werde ich versuchen, diese zu klären. Wenn Sie sich an mich wenden, beginnen Sie Ihren Kommentar mit etwas wie „Kip, ich frage mich …“.

Link: https://wattsupwiththat.com/2022/08/09/numbers-tricky-tricky-numbers-part-2/

Übersetzt von Christian Freuer für das EIKE

 




Ein Balance-Akt

Willis Eschenbach

Ich bin ein visueller Typ. Ich verstehe Zahlen, aber nicht in Tabellen. Ich stelle sie in Diagrammen und Karten dar, damit ich verstehe, was vor sich geht. Ich habe noch einmal über die gesamte absorbierte Strahlung an der Erdoberfläche nachgedacht. Die gesamte von der Erdoberfläche absorbierte Strahlung ist eine Mischung aus langwelliger (thermischer) und kurzwelliger (solarer) Strahlung. In meinem vorigen Beitrag „Putting It Into Reverse“, [in deutscher Übersetzung hier] habe ich die Korrelation dieser absorbierten Strahlung mit der Temperatur untersucht.

Da ich ein visueller Typ bin, habe ich eine globale Karte erstellt, die zeigt, wo diese gesamte Strahlung an der Oberfläche absorbiert wird. Doch bevor ich dieses Ergebnis zeige, möchte ich kurz auf die abwärts gerichtete kurzwellige (solare) und abwärts gerichtete langwellige (thermische) Strahlung eingehen. (Beachten Sie, dass „absteigende Strahlung“ die Strahlung ist, die auf die Erdoberfläche gerichtet ist, und „aufsteigende Strahlung“ die, die in den Weltraum gerichtet ist).

Die Sonnenstrahlung ist an der Oberfläche der Atmosphäre zunächst relativ konstant. Sie beträgt im globalen Durchschnitt rund um die Uhr 340 Watt pro Quadratmeter (W/m²). Sie schwankt nur um ± 0,1 W/m² während des Sonnenfleckenzyklus‘.

Außerdem wird zu jeder Zeit und an jedem Ort ein mehr oder weniger großer Teil der einfallenden Sonnenstrahlung von Wolken und Aerosolen reflektiert. Die reflektierte Menge variiert je nach Datum, Jahreszeit, Temperatur, Ort, Höhe und lokalem Wetter.

Von der nach der Reflexion an diesem Ort verbleibenden Sonnenstrahlung wird ein mehr oder weniger großer Teil in der Atmosphäre absorbiert, hauptsächlich durch Wolken, Wasserdampf und Aerosole (Rauch, Dunst, vulkanische Aerosole, Mineralstaub). Auch hier variiert die absorbierte Menge je nach Datum, Jahreszeit, Temperatur, Ort, Aerosolart und lokalem Wetter.

Wenn schließlich die Sonnenstrahlen die Oberfläche erreichen, wird ein mehr oder weniger großer Teil der Strahlung von der Oberfläche selbst in den Weltraum zurückgeworfen. Auch hier variiert die reflektierte Menge je nach Datum, Jahreszeit, Wasserzustand (flüssig vs. Eis vs. Schnee), Windstärke, Bodenbedeckung, Ort, Höhe und lokalem Wetter.

Kurz gesagt, die Menge der vom Boden absorbierten Sonnenstrahlen schwankt in Raum und Zeit auf allen Skalen enorm.

Die abwärts gerichtete Wärmestrahlung hingegen wird von verschiedenen Dingen in der Atmosphäre über uns ausgesandt – von Treibhausgasen [?] wie Wasserdampf und CO2, von Aerosolen und von Wolken.

Die großen Schwankungen in der abwärts gerichteten Strahlung sind auf die unterschiedlichen Mengen an Wolken, Wasserdampf und Aerosolen zurückzuführen. CO2 ist ein relativ gut durchmischtes Gas, während Wasserdampf in kurzer Entfernung von nahezu Null bis zu Mengen schwanken kann, die groß genug sind, um zu kondensieren. Die Menge der von Wasserdampf, Treibhausgasen, Aerosolen und Wolken abgegebenen Wärmestrahlung variiert je nach Datum, Jahreszeit, Windstärke, Standort und lokalem Wetter.

Und wie bei der Sonnenstrahlung sind auch hier die Wolken die große Variable. Wolken sind in Bezug auf die Wärmestrahlung ein nahezu perfekter Schwarzer Körper. Wenn in einer klaren Winternacht eine Wolke vorbeizieht, kann man die Wärme sofort spüren. Und wie oben erwähnt, variiert die von den Wolken abgegebene Wärmestrahlung je nach Datum, Jahreszeit, Temperatur, Ort und lokalem Wetter.

Kurz gesagt, genau wie bei der Sonneneinstrahlung variiert die vom Boden absorbierte Wärmestrahlung in Raum und Zeit auf allen Ebenen enorm.

In Abbildung 1 ist die Gesamtmenge der von der Erdoberfläche absorbierten Strahlung (kurzwellig + langwellig) dargestellt:

Abbildung 1. Eine Karte von 1° Breitengrad mal 1° Längengrad der Gesamtmenge der von der Erdoberfläche absorbierten Strahlung.

Ich muss zugeben, dass ich mir diese Grafik anschaute, als ich sie zum ersten Mal erstellte, mich am Kopf kratzte und sagte: „Wie seltsam!“. Ich liebe Überraschungen in der Wissenschaft, und dies war eine davon.

Folgendes fand ich merkwürdig: Die südliche Hemisphäre besteht größtenteils aus Wasser, mit einem Block aus eisbedecktem Gestein unten. Das ist ein großer Unterschied zur nördlichen Hemisphäre, die viel mehr Land und Wasser anstelle von eisigem Gestein oben hat.

Aus Abbildung 1 geht hervor, dass der Ozean pro Quadratmeter etwa 20 % mehr abwärts gerichtete Strahlung absorbiert als das Land. Man sollte also meinen, dass die südliche Hemisphäre mit ihrem wesentlich größeren Anteil an Ozeanen wesentlich mehr Energie absorbieren müsste als die nördliche.

Das ist aber nicht der Fall. Tatsächlich sind die beiden Hemisphären auf ein Zehntel W/m² genau gleich … deshalb habe ich mich am Kopf gekratzt und gesagt: „Wie seltsam“.

Natürlich wollte ich wissen, ob dies nur ein Zufall ist, oder ob diese Gleichheit der Hemisphären ein dauerhaftes Merkmal des Klimasystems ist. Also habe ich mir die Veränderungen im Laufe der Zeit angesehen. Hier sind die jährlichen Durchschnittswerte für den Zeitraum der CERES-Satellitendaten:

Abbildung 2. Jahresdurchschnittswerte, gesamte absorbierte Strahlung, kurzwellige und langwellige Strahlung.

Es wird immer kurioser. Jahr für Jahr ist die absorbierte Gesamtenergie des Nordens und des Südens fast identisch – in der Hälfte der Jahre lag die Differenz zwischen beiden Hemisphären innerhalb eines Zehntelprozentes (~ ein halbes Watt pro Quadratmeter).

Die lang- und kurzwelligen Komponenten sind ebenso interessant. Jedes Jahr wird auf der Nordhalbkugel etwas mehr langwellige als kurzwellige Strahlung absorbiert. Bei der kurzwelligen Strahlung verhält es sich jedoch umgekehrt. Möglicherweise wird auf der Südhalbkugel wegen der größeren Meeresfläche mehr Sonnenenergie absorbiert als langwellige. Wenn man die lang- und die kurzwellige Strahlung addiert, ist die gesamte von den beiden Hemisphären absorbierte Strahlung fast identisch.

Ich habe eingangs gesagt, dass sowohl die Sonnen- als auch die Wärmestrahlung von einer Vielzahl von Faktoren abhängt, allen voran von den Wolken, und dass sie sich in Raum und Zeit ständig ändern. Wir haben also a priori keinen Grund anzunehmen, dass die beiden Hemisphären an der Oberfläche die gleiche Strahlung absorbieren würden, und wir haben allen Grund anzunehmen, dass dies nicht der Fall ist.

Ich meine, es gibt Vulkane, Überschwemmungen, Dürren, Waldbrände und eine ganze Reihe von Dingen, die sich auf die abwärts gerichtete lang- und kurzwellige Strahlung auswirken … und trotzdem erhält jede Hemisphäre Jahr für Jahr die gleiche Menge an Strahlung wie die andere.

Lässt man diese Merkwürdigkeit einmal beiseite, so lässt sich das Klima gewinnbringend als eine riesige Wärmekraftmaschine analysieren. Es verwandelt die eintreffende Sonnenenergie in die endlose physikalische Arbeit, die Ozeane und die Atmosphäre gegen Turbulenzen und Reibung in Bewegung zu setzen. Diese ozeanischen und atmosphärischen Bewegungen tragen die Wärme aus den Tropen polwärts, wo sie in den Weltraum abgestrahlt wird.

Diese unerwartete Stabilität der von der Oberfläche absorbierten Gesamtenergie über die Zeit zeigt deutlich, dass es sich um eine Wärmekraftmaschine mit einem Regler handelt. Und es gibt nicht nur einen Begrenzer. Der Regler funktioniert zum Teil durch die Steuerung der Drosselklappe der Klima-Wärme-Maschine.

Eine „Drosselklappe“ ist ein Mechanismus, der die Energiemenge regelt, die in eine Wärmekraftmaschine eintritt. In Ihrem Auto wird die Drosselklappe durch das Gaspedal gesteuert. Die Wolken übernehmen diese Funktion für das Klima. Sie regeln die Energiemenge, die in das System eintritt, indem sie einen Teil der einfallenden Sonnenenergie zurück ins All leiten. Und zwar nicht nur eine kleine Menge. Hunderte von Watt pro Quadratmeter. Hier ist ein Beispiel, die Aufzeichnung eines Tages von einer verankerten TAO-Boje am Äquator auf 110° West (östlicher Pazifik):

Abbildung 3. Absteigende Sonnenenergie nach Tageszeit, 30. Dezember 1998.

Man kann sehen, wie die Wolken die Menge der absteigenden Sonnenenergie innerhalb von etwa einer Stunde um mehrere hundert Watt pro Quadratmeter verändern.

Und diese Drosselung der einfallenden Sonnenenergie muss ein wesentlicher Grund dafür sein, dass die Menge an Sonnenenergie, die von jeder Hemisphäre einzeln und von beiden Hemisphären zusammen absorbiert wird, Jahr für Jahr stabil bleibt.

Meine Hypothese ist, dass eine Hierarchie von aufkommenden Klimaphänomenen, hauptsächlich in den tropischen Ozeanen, aber auch anderswo, die eintreffende Energie reguliert. Wie in Abbildung 3 oben zu sehen ist, beginnt ein typischer tropischer Tag klar.

[Einschub des Übersetzers: Im Folgenden beschreibt Eschenbach aus seiner Sicht den typischen Verlaufs eines Tages in den Tropen. Ihm zufolge ist es morgens wolkenlos, vormittags bilden sich erste Quellwolken, nachmittags gibt es dann Gewitter. Dieser Ablauf ist aus heutiger Sicht meteorologisch nicht haltbar, wie z. B. dieses Satellitenbild des tropischen Atlantik zeigt:

Abbildung: Wolken und Wetter im tropischen Atlantik vom 27. August 2022, 9 UTC (11 Uhr MESZ). Die Wolken sind willkürlich verteilt und folgen nicht der Uhrzeit. (Nebenbei: Es sieht so aus, als stünde da der erste große Hurrikan der Saison in den Startlöchern).

Das Anliegen des Autors, die Rolle der Bewölkung zu beschreiben, wird dadurch aber nicht geschmälert!

Ende Einschub]

Alle diese Übergänge erhöhen den Anteil des Sonnenlichts, der entweder in den Weltraum zurückreflektiert oder absorbiert wird, bevor er die Oberfläche erreicht. Und der Zeitpunkt des Auftretens, die Anzahl und die Stärke dieser Phänomene werden alle durch die Temperaturschwelle geregelt.

Das Ergebnis ist, dass sich bei Temperaturanstieg Wolken bilden und die Gesamtenergie, die von der Oberfläche absorbiert wird, verringern. Das folgende Diagramm zeigt eine Streuung zwischen der Temperatur und dem Netto-Wolkenabstrahlungseffekt (CRE) der Oberfläche, aufgeschlüsselt nach Gitterzellen. Der Netto-Wolkenabstrahleffekt (CRE) an der Oberfläche ist die durchschnittliche Änderung der gesamten abwärts gerichteten Oberflächenstrahlung, die sich aus der Anwesenheit von Wolken ergibt:

Abbildung 7. Streudiagramm, Gitternetzzelle für Gitternetzzelle Temperatur gegen Gesamt-Wolkenstrahlungseffekt (CRE). Die Gitterzellengröße beträgt 1° Breitengrad mal 1° Längengrad. Insgesamt sind 64.800 Gitterzellen dargestellt.

Wie man sieht, wirken die Wolken bei hohen Temperaturen stark auf die Verringerung der Energie, die die Oberfläche erreicht. In vielen Gitterzellen verhindern die Wolken, dass mehr als 50 W/m² an Energie an der Oberfläche ankommen.

Das ist jedenfalls meine Erklärung dafür, warum trotz der enormen zeitlichen und räumlichen Schwankungen von Wolken, Wasserdampf und Aerosolen auf beiden Hemisphären jedes Jahr etwa die gleiche Menge an Gesamtstrahlung absorbiert wird. Von Temperaturschwellen abhängige Klimaphänomene sorgen dafür, dass die mögliche absorbierte Energie begrenzt wird.

Ich bin gerne bereit, alternative Theorien für die ungewöhnliche Stabilität der absorbierten Strahlung an der Oberfläche zu hören. Bitte sagen Sie nicht „thermische Trägheit“, es sei denn, Sie können erklären, wie die „thermische Trägheit“ die Menge der herabströmenden Sonnenenergie kontrolliert.

Link: https://wattsupwiththat.com/2022/08/25/a-balancing-act/

Übersetzt und bearbeitet von Christian Freuer für das EIKE

 




Europas Stromkrise überholt die Gaskrise

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Diese neueste Analyse von Timera deckt sich mit meinem gestrigen Beitrag über den zerrütteten Strommarkt:

Europas Stromkrise überholt die Gaskrise

Europa steht nun vor einer parallelen Gas- und Stromkrise. Dass die steigenden Gaskosten die Strompreise in die Höhe treiben, ist hinlänglich bekannt. Weniger beachtet wird jedoch die sich rasch verschärfende Stromkrise, die einen erneuten Anstieg der Gaspreise bewirkt.

Die geopolitischen Aspekte der russischen Lieferdynamik beherrschen derzeit die weltweiten Schlagzeilen. Der derzeitige Konflikt hat das Ausmaß der Abhängigkeit Europas von billigen Kohlenwasserstoffen aus einem feindlichen Nachbarland deutlich gemacht. Die Kürzung der russischen Lieferungen an Europa war der Hauptgrund für den Anstieg der Gaspreise in Europa im ersten Halbjahr 2022.

Die parallele Energiekrise in Europa hat sich im Laufe des Sommers verschärft. Sie wird durch Probleme bei der Verfügbarkeit von Kernkraftwerken, erschöpfte Wasserkraftwerke und eine rückläufige Wärmeerzeugung (sowohl aufgrund von Problemen beim Zugang zu Brennstoffen als auch aufgrund von Kraftwerksschließungen) verursacht. Die Strompreise sind in ganz Europa auf ein Rekordniveau gestiegen und liegen nun deutlich über dem Anstieg der Gaspreise.

Der TTF-Gaspreis für Lieferungen im Jahr 2023 schloss letzte Woche bei über 237 €/MWh (70 $/mmbtu) und ist damit seit Anfang Juli um 120 % gestiegen!  Die Strompreise sind im gleichen Zeitraum noch viel stärker gestiegen. Uns gehen die Adjektive aus, um das Tempo dieses Preisanstiegs zu beschreiben.

Die akute Verknappung auf dem europäischen Strommarkt war ein wichtiger Faktor, der die Gaspreise in den letzten sechs Wochen nach oben getrieben hat. Europa braucht mehr Stromerzeugung, um die Lichter am Leuchten zu halten, und die einzige verbleibende Option ist Gas.

Im heutigen Artikel befassen wir uns mit der zirkulären Preisdynamik, die eine Aufwärtsspirale der Nachfragevernichtung bei den europäischen Gas- und Strompreisen in Gang setzt.

Anstieg der Forward-Gas-Kurve

Wir veröffentlichen selten dieselbe Grafik in aufeinander folgenden Artikeln. Um jedoch das Ausmaß des Anstiegs der Gaspreise während des Sommers zu verdeutlichen, handelt es sich bei Grafik 1 um eine Aktualisierung der Grafik, die wir im Juli gezeigt haben.

Abbildung 1: Der Anstieg der TTF-Terminpreise seit Anfang Juli

Der vordere Teil der TTF-Kurve findet in den Medien große Beachtung. Die Preise für die Lieferung am 22. September sind seit der Veröffentlichung dieses Diagramms um etwa 35 % gestiegen (grüne Linie gegenüber dunkelblauer Linie).

Von weitaus größerer Bedeutung ist die Tatsache, dass der Preis für die Lieferung von Gas im Kalenderjahr 2023 seit Anfang Juli um 120 % gestiegen ist. Der bereits extrem hohe Preis für die Lieferung von Gas im nächsten Jahr hat sich in den letzten 6 Wochen mehr als verdoppelt. Das Gleiche gilt für das Kalenderjahr 2024 (ebenfalls mehr als verdoppelt).

Dies sind seismische Verschiebungen in der Energiekostenbasis der europäischen Wirtschaft. Sie deuten auf eine bevorstehende Zerstörung der industriellen Nachfrage auf breiter Basis und eine erhebliche Zunahme der Wahrscheinlichkeit einer administrativen Gas-Rationierung hin.

Europas wachsende Stromkrise

Der wichtigste Faktor für den Anstieg der europäischen Strompreise in der ersten Hälfte des Jahres 2022 war der starke Anstieg der Gaspreise. Gas- und Dampfturbinenkraftwerke (GuD) dominieren bei der Festlegung der Grenzstrompreise auf den europäischen Strommärkten. Infolgedessen schlagen sich die Gaspreiserhöhungen direkt in höheren Strompreisen nieder.

Eine weitere europäische Stromkrise hat sich bis zum Sommer verschärft. Die treibenden Kräfte hinter dieser weiteren Krise sind:

1. Sehr niedrige Verfügbarkeit der französischen Kernenergie (EDF hat vor kurzem seine Produktionsprognose für 2023 auf 300-330 TWh gesenkt und sieht sich nun mit Kühlungsproblemen konfrontiert, die die ohnehin schwache Verfügbarkeit für 2022 beeinträchtigen)

2. Historisch niedrige Wasserspeicherstände von Skandinavien bis zur Iberischen Halbinsel (aufgrund der weit verbreiteten Trockenheit)

3. Schließung von Wärmekraftwerken in ganz Westeuropa (überalterte Kohle-, Kernkraft- und Gaskraftwerke)

4. Logistik der Brennstoffversorgung durch eine Kombination aus sehr niedrigem Rheinwasserstand (z. B. mit Auswirkungen auf die Lieferung von Kohle per Binnenschiff an deutsche Kraftwerke) und logistischen Problemen aufgrund des Russlandkonflikts

5. Zeiträume mit geringer Wind- und Solarleistung, in denen die oben genannten Faktoren zu einem Defizit bei der Reststromerzeugung führen.

Die Kombination dieser Faktoren rückt die Stromkrise ins Zentrum der Aufmerksamkeit.

Stromkrise treibt jetzt die Gaskrise an

Europa hat in den nächsten drei Jahren zu wenig Gas. Da es in diesem Zeitraum keine nennenswerte Reaktion auf der Angebotsseite gibt (sofern die russischen Gasflüsse nicht wieder ansteigen), gibt es drei Möglichkeiten zur Reduzierung der Nachfrage, um den Markt auszugleichen:

1. Industrielle Nachfrage (die aufgrund der höheren Preise bis 2022 bereits um ~15 % gesunken ist)

2. Nachfrage des Stromsektors

3. Nachfrage von Privathaushalten und Gewerbebetrieben (der Sektor, den die Regierungen im Falle einer Rationierung am ehesten zu schützen versuchen werden).

Normalerweise würden sehr hohe Gaspreise einen Anreiz für eine geringere Nachfrage des Stromsektors bieten. Aber in Zukunft fehlen Europa jetzt auch Elektronen und Moleküle. Und die marginale Quelle für zusätzliche Elektronen kommt aus der Verbrennung von Molekülen.

Mit anderen Worten: Um die Lichter am Leuchten zu halten, hat Europa keine andere Wahl, als mehr Gas zu verbrennen, abgesehen von Eingriffen zur Senkung der Stromnachfrage, die ebenfalls bevorstehen könnten.

Ein Barometer für die Auswirkungen der Strom- und Gaskrise

Das Marktpreisbarometer, das die Schwere der Krise zwischen Strom und Gas am besten widerspiegelt, ist der Clean Spark Spread (CSS).  Dabei handelt es sich um die Spanne zwischen den Strompreisen und den variablen Erzeugungskosten von GuD-Kraftwerken (d. h. den GuD-Erzeugungsmargen).  Abbildung 2 zeigt, wie stark der französische CSS seit Anfang 2022 explodiert ist (vor allem in den letzten Wochen):

Abbildung 2: Französischer Forward-Baseload-CSS im Januar 22 gegenüber August 22 Quelle: Timera Energy, ICE

Wenn der CSS steigt, bedeutet dies, dass die Strompreiserhöhungen die Weitergabe der Kosten durch steigende Gaspreise übersteigen. Dies ist in diesem Sommer zuhauf geschehen. Am akutesten ist es auf dem französischen Markt, aber auch auf den meisten anderen europäischen Märkten steigt der CSS auf ein Rekordniveau. Abbildung 3 zeigt den CSS in Frankreich im Vergleich zu zwei anderen Schlüsselmärkten: Großbritannien und Deutschland:

Abbildung 3: Forward Baseload CSS in Frankreich, Großbritannien und Deutschland (18. August 2022)

Die Forward-CSS-Werte für das Vereinigte Königreich und Deutschland mögen im Vergleich zu den französischen Werten gering erscheinen. Lassen Sie sich nicht täuschen… auch diese sind auf Rekordniveau. So bewegen sich die deutschen Baseload-CSS typischerweise im negativen Bereich bis in den niedrigen einstelligen Bereich, während sie für den Winter 2023 derzeit bei über 80 €/MWh liegen.

CSS-Übertragung und die Liquiditätsherausforderung

Forward CSS ist ein wichtiger Übertragungsmechanismus, der die TTF-Gaskurve durch steigende Strompreise nach oben zieht. Wenn die Forward-CSS steigt, erhöht sich der Anreiz für die Gaserzeuger, ihre Erzeugung auf Termin abzusichern. Dies beinhaltet den Verkauf von Strom auf Termin und den Kauf von Gas (und Kohlenstoff).

Mit anderen Worten: Eine völlig rationale Absicherung der Erzeugung treibt die Kosten für Termingas als Reaktion auf höhere Strompreise (und CSS) in die Höhe.

Die Entwicklung der Gas- und Strompreise wird derzeit durch eine sehr geringe Marktliquidität verschärft. Dies ist eine Funktion von:

1. Margen- und Sicherheitsprobleme, die die Fähigkeit der Marktteilnehmer zum Terminhandel einschränken

2. Risikokapazitätsprobleme (z.B. VaR/Limit), die das Engagement in Termingeschäften begrenzen.

In einem Markt, in dem die Gebote in die Höhe schießen, gibt es nur sehr wenig Angebotsliquidität, um den Preisanstieg zu dämpfen. Diese Bedingungen werden auch weiterhin zu extremer Preisvolatilität führen. Die Marktbewegungen gehen nicht nur in eine Richtung. So würde beispielsweise eine Zunahme des russischen Angebots wahrscheinlich zu einem Rückgang der [Preise auf den] Terminmärkten führen.

Eine wichtige Information, nach der der Markt sucht, ist eine gewisse Klarheit über die Struktur der politischen Intervention, z.B. in Form von Rationierung oder Versteigerung von Industriemengen. Diese Informationen sind eine wichtige Grundlage für die Quantifizierung des Volumens und der Preise für die zur Marktbereinigung erforderliche Nachfragevernichtung.

Ein erheblicher Teil der derzeitigen Terminpreise für Strom und Gas wird durch Risikoprämien bestimmt, die diese Unsicherheit widerspiegeln. Die Märkte sind daran gewöhnt, die Preise für Elektronen und Moleküle auf der Grundlage der Flexibilität auf der Angebotsseite zu bestimmen, nicht auf der Nachfrageseite durch Zerstörung und Eingriffe.

Extreme Preise schaffen extreme Anreize für alle Energieverbraucher, die Nachfrage zu senken. Wie auch immer die Rationierung aussehen mag, hoffen wir, dass sie die Preissignale des Marktes aufgreift und nicht versucht, sie zu dämpfen oder aufzuheben.

Aus Obigem ergibt sich eine Reihe von Schlussfolgerungen:

1)Der Mangel an Kapazitäten zur Stromerzeugung treibt die Nachfrage nach Gas und damit die Gaspreise in die Höhe, was natürlich wiederum die Strompreise in die Höhe treibt.

2) Die hohen Gaspreise werden wohl mindestens die nächsten drei Jahre anhalten.

Link: https://wattsupwiththat.com/2022/08/23/europes-power-crisis-overtaking-gas-crisis/

Übersetzt von Christian Freuer für das EIKE

 




Schätzungen der Unsicherheit bei Routine-Datensätzen der Temperatur – Teil 1

Geoff Sherrington

In der modernen Klimaforschung werden in der Regel drei Leitprinzipien der Unsicherheit nicht angemessen berücksichtigt.

1. Die Abschätzung der Unsicherheit ist wesentlich für das Verständnis.

„Es besteht allgemeiner Konsens darüber, dass die Nützlichkeit von Messergebnissen und damit ein Großteil der Informationen, die wir als Institution bereitstellen, zu einem großen Teil von der Qualität der sie begleitenden Unsicherheitsaussagen bestimmt wird.“

Siehe hier: NISTTechnicalNote1297s.pdf

2. Die Unsicherheitsabschätzung hat zwei Hauptbestandteile.

„Die Unsicherheit eines Messergebnisses setzt sich im Allgemeinen aus mehreren Komponenten zusammen, die je nach der Art und Weise, wie ihr numerischer Wert geschätzt wird, in zwei Kategorien eingeteilt werden können:

A. Diejenigen, die durch statistische Methoden bewertet werden,

B. diejenigen, die durch andere Mittel bewertet werden.“

Siehe hier!

3. Bei der Unsicherheitsabschätzung müssen unterschiedliche Ansichten berücksichtigt werden.

„Im Jahr 2009 hat die Obama-Regierung sechs Grundsätze der wissenschaftlichen Integrität festgelegt.“ (einschließlich dieser beiden):

Dissens. Die Wissenschaft profitiert von Meinungsverschiedenheiten innerhalb der wissenschaftlichen Gemeinschaft, um Ideen und Denkweisen zu schärfen. Die Fähigkeit von Wissenschaftlern, legitime Meinungsverschiedenheiten, die die Wissenschaft verbessern, frei zu äußern, sollte nicht eingeschränkt werden.

Transparenz beim Austausch von Wissenschaft. Transparenz untermauert die solide Generierung von Wissen und fördert die Rechenschaftspflicht gegenüber der amerikanischen Öffentlichkeit. Bundeswissenschaftler sollten die Möglichkeit haben, frei über ihre nicht klassifizierte Forschung zu sprechen, wenn sie dies wünschen, auch gegenüber der Presse.“

Siehe hier!

In diesem Artikel wird untersucht, inwieweit das australische Bureau of Meteorology (BOM) diese Anforderungen in Bezug auf die geschätzte Unsicherheit bei den täglichen Routinetemperaturen erfüllt.

Der erste Teil befasst sich mehr mit den sozialen Aspekten wie Transparenz. Der zweite Teil befasst sich mit Mathematik und Statistik.

In diesem Artikel werden australische Praktiken und Beispiele verwendet, die hauptsächlich die BOM betreffen. Wichtig ist, dass die Schlussfolgerungen weltweit gelten, denn es gibt viel zu reparieren.

Der bekannteste praktische Leitfaden zum Thema Unsicherheit stammt vom französischen Bureau International des Poids at Mesures (BIPM) mit seinem Leitfaden zur Angabe der Messunsicherheit (GUM; auch hier).

Vor einigen Jahren stellte ich im E-Mail-Verkehr mit dem BOM die folgende Frage:

„Wenn jemand die Differenz zwischen zwei Tagestemperaturen in Grad Celsius wissen möchte, der eine sichere Aussage darüber zulässt, dass die beiden Temperaturen statistisch gesehen unterschiedlich sind, um wie viel würden die beiden Werte voneinander abweichen?“

Das BOM hat in mehreren Anläufen versucht, diese Frage zu beantworten. Sie haben mir erlaubt, aus ihrem Schriftverkehr zu zitieren, unter der Bedingung, dass ich das vollständige Zitat anführe, was ich hier tue.

Am 31. März 2022 hat die BOM den letzten Versuch unternommen, die Frage zu beantworten. Hier ist eine Tabelle mit einem Teil des Textes:

(Zitatanfang) „Die Unsicherheiten mit einem 95%igen Konfidenzintervall für jede Messtechnik und Datennutzung sind unten aufgeführt. Zu den Quellen, die zu dieser Unsicherheit beitragen, gehören unter anderem Feld- und Kontrollinstrumente, Rückverfolgbarkeit der Kalibrierung, Messelektronik oder Beobachterfehler, Vergleichsmethoden, Bildschirmgröße und Alterung“.

Ich möchte betonen, dass zur Beantwortung Ihrer spezifischen Frage „Wenn jemand die Differenz zwischen zwei Tagestemperaturen in Grad Celsius wissen möchte, der eine sichere Aussage darüber zulässt, dass sich die beiden Temperaturen statistisch gesehen um wie viel unterscheiden, wäre die Unsicherheit der ‚typischen Messung‘ für die entsprechende Messtechnik der am besten geeignete Wert. Dieser Wert ist für eine breitere Anwendung zur Bewertung langfristiger Klimatrends nicht geeignet, da typische Messungen anfälliger für Mess-, Zufalls- und Kalibrierungsfehler sind als verifizierte Langzeitdatensätze.“ (Zitat Ende)

Diese Konfidenzintervalle beziehen sich im Wesentlichen auf einen Teil der beiden Teile, die eine vollständige Schätzung des Vertrauens ausmachen. Es handelt sich meist um Teil A, der aus statistischen Methoden abgeleitet wird. Sie sind unvollständig und für den Routinegebrauch ungeeignet, wenn Teil B, der mit anderen Mitteln bewertet wird, nicht stärker berücksichtigt wird.

Es macht einen erheblichen Unterschied bei der Interpretation von Temperaturdaten, insbesondere bei Zeitreihen, ob die Unsicherheit ±0,51 °C oder ±0,09 °C beträgt, um extreme Schätzungen aus der BOM-Tabelle zu verwenden. Es ist wichtig zu verstehen, dass die Unsicherheit einer einzelnen Beobachtung viel kleiner wird, wenn mehrere Beobachtungen auf irgendeine Weise kombiniert werden. Ist diese Kombination ein gültiger wissenschaftlicher Vorgang?

Bei routinemäßigen Temperaturmessungen (dem Testgegenstand dieses Artikels) könnte Typ B alle diese Effekte umfassen, die durch die Homogenisierung von Zeitreihen von Temperaturen bereinigt werden, ist aber nicht darauf beschränkt. In diesem Artikel verwenden wir die BOM-Anpassungsverfahren zur Erstellung des Australian Climate Observations Reference Network – Surface Air Temperature (ACORN-SAT).

ACORN-SAT beginnt mit „rohen“ Temperaturdaten als Input. Diese werden dann visuell und/oder statistisch auf Brüche in einem erwarteten (gleichmäßigen) Muster untersucht. Manchmal wird ein Muster an einer Station mit der Leistung anderer, bis zu 1.200 km entfernter Stationen verglichen. Die Temperaturen werden einzeln oder in Blöcken oder Mustern angepasst, um ein glatteres Ergebnis zu erzielen, das besser mit dem anderer Stationen übereinstimmt, vielleicht angenehmer für das Auge ist, aber oft nur unzureichend durch Metadaten unterstützt wird, die tatsächliche Änderungen in der Vergangenheit dokumentieren. Manchmal wird persönlich entschieden, wann und in welchem Umfang eine Anpassung vorgenommen wird, d. h. es handelt sich um Vermutungen.

Die BIPM-Leitlinien enthalten keine Hinweise darauf, wie Unsicherheitsgrenzen für „Vermutungen“ zu erstellen sind – aus guten wissenschaftlichen Gründen (hier und hier)

Einige andere relevante Faktoren, die sich auf die Rohdaten der Stücklisten auswirken, sind:

1. Die Daten begannen mit der Fahrenheit-Skala und wechselten dann zur Celsius-Skala.

2. Es gab Jahre, in denen eine Thermometerbeobachtung in ganzen Gradzahlen ohne Nachkommastellen angegeben wurde. („Rundungseffekte“).

3. Fast jede der etwa 112 ACORN-SAT-Stationen wurde irgendwann an einen anderen Standort verlegt.

4. In der Nähe einiger Stationen wurden neue Gebäude und Bodenbeläge wie Asphalt errichtet, was ihre Messungen beeinträchtigen kann. („Urban Heat Island“-Effekte, UHI).

5. Die Thermometer wurden von Flüssigkeits-auf-Glas auf Platinwiderstand umgestellt.

6. Das Volumen der Bildschirme hat sich im Laufe der Jahrzehnte verändert und ist im Allgemeinen kleiner geworden.

7. Es hat sich gezeigt, dass die Schirme durch die Reinigung und die Art der Außenbeschichtung beeinflusst werden.

8. Die Erfassung von Metadaten zu den Stationen, die Auswirkungen auf die Messungen haben können, war anfangs spärlich und ist immer noch unzureichend.

9. An einigen Stationen wurden an Sonntagen, dem Sabbat, keine manuellen Beobachtungen durchgeführt.

10. Und so weiter.

Mitte 2017 trafen sich Beamte des BOM und Neuseelands und erstellten per E-Mail einen Bericht, der sich mit den eben aufgeführten Variablen befasste, sich aber auf die Leistung der in letzter Zeit dominierenden automatischen Wetterstation (AWS) mit überwiegend PRT-Sensoren konzentrierte.

Ein Teil der E-Mail-Korrespondenz innerhalb des BOM und Neuseelands über diese Überprüfung wurde durch einen Antrag auf Informationsfreiheit veröffentlicht. Relevantes FOI-Material finden Sie hier.

Hier sind einige Auszüge aus diesen E-Mails. (Einige Namen wurden unkenntlich gemacht. Hervorhebungen von mir [Autor]):

„Während keine der in der Klimadatenbank gespeicherten Temperaturmessungen eine explizite Messunsicherheit aufweist, deutet die Rückverfolgbarkeitskette zurück zu den nationalen Temperaturnormalen und die Prozesse, die sowohl im Regionalen Instrumentenzentrum (der derzeitige Name des Metrologielabors im Präsidium) als auch im Feldprüfungsprozess verwendet werden, darauf hin, dass die wahrscheinliche 95%ige Unsicherheit einer einzelnen Temperaturmessung in der Größenordnung von 0,5⁰C liegt. Dies wird aus einer Kombination von Feldtoleranz und Prüfprozessunsicherheiten über einen Temperaturbereich von -10 bis +55⁰C geschätzt.

(Wir) sollten uns mit der Diskrepanz zwischen der aktuellen 0,4⁰C-Unsicherheit der BOM und dem angestrebten 0,1⁰C-Ziel der WMO befassen.

Unter Bezugnahme auf die obige Tabelle bietet die PRT-Spalte eine ähnliche Unsicherheit von +/-0,51⁰C für ‚Isolierte Einzelmessung – Keine nahe gelegene Station oder unterstützende Beweise‘; auch +/-0,37⁰C für „Typische Messung – Station mit 5+ oder 10+ Jahren Betrieb“; auch ±0,11⁰C für „Langzeitmessung – Station mit 30+ Jahren aggregierter Aufzeichnungen.“

Man weiß nicht, warum es ein weiteres Angebot für AWS von ±0,09 °C für „Aufzeichnungen mit 100+ Jahren aggregierter Aufzeichnung“ gibt. Hugh Callendar entwickelte das erste kommerziell erfolgreiche Platin-FTD [Platin-Temperatur-Messfühler] im Jahr 1885, aber seine Verwendung in automatischen Wetterstationen scheint etwa zur Zeit des Internationalen Geophysikalischen Jahres 1957-8 begonnen zu haben. Vielleicht gibt es keine Beispiele für 100+ Jahre.

Ich erinnere daran, dass ich das BOM etwa fünf Jahre vor Mitte 2022 um Schätzungen der Unsicherheit gebeten hatte, die bis Mitte 2022 nicht beantwortet wurden. Dies muss vor dem Hintergrund des Wissens betrachtet werden, das in diesem E-Mail-Austausch von 2017 offenbart wurde: „Die wahrscheinliche 95%ige Unsicherheit einer einzelnen Temperaturmessung liegt in der Größenordnung von 0,5⁰C.“ Es ist davon auszugehen, dass diese Schätzung vor mir verborgen wurde. Einer der BOM-Mitarbeiter, der meine jüngsten E-Mails beantwortet hat, war anwesend und unter den E-Mail-Schreibern des Austauschs von 2017 genannt.

Warum hat die BOM diese Schätzung nicht erwähnt? Sie wurden durch meine Hauptfrage aufgefordert, eine Antwort zu geben, aber sie taten es nicht.

Dies bringt uns zum Anfang dieses Artikels und seinen drei Grundprinzipien, von denen eines lautet: „Transparenz bei der Weitergabe von Wissen. Transparenz untermauert die solide Generierung von Wissen und fördert die Rechenschaftspflicht gegenüber der amerikanischen Öffentlichkeit. Bundeswissenschaftler sollten, wenn sie es wünschen, frei über ihre nicht klassifizierte Forschung sprechen können, auch gegenüber Vertretern der Presse“.

Was für Amerika gilt, gilt auch für Australien.

Zufällig habe ich im Laufe der Jahre einige frühere Schriften von Beamten des BOM aufbewahrt. Hier sind einige.

Erinnern Sie sich daran, dass Dr. David Jones vom BOM im Rahmen von Climategate am 7. September 2007 eine E-Mail an Kollegen schrieb:

Zum Glück sind unsere Skeptiker in Australien wissenschaftlich eher inkompetent. Für uns ist es auch einfacher, weil wir die Politik verfolgen, jedem Beschwerdeführer jede einzelne Stationsbeobachtung vorzulegen, wenn er unsere Daten in Frage stellt (das bringt ihn in der Regel zur Verzweiflung), und die australischen Daten sind ohnehin in ziemlich guter Ordnung.

David Jones war am 16. Juni 2009 noch nicht in entschuldigender Stimmung, als er mir per E-Mail seine Antwort auf eine technische Frage schickte:

Geoff, dein Name taucht häufig in Leserbriefen und Blogs auf, und du schreibst immer wieder E-Mails an Leute im BoM, die die gleichen Fragen stellen. Ich bin mit Briefen wie diesem gut vertraut. Sie haben auch eine lange Erfolgsbilanz bei der Veröffentlichung privater Korrespondenz in öffentlichen Blogs. Ich lasse mich nicht ködern.

Außerdem gibt es eine E-Mail, an der BOM Media und Big Boss Andrew Johnson und andere beteiligt sind, in der AWS Review, 24. August 2017, 9:58 Uhr:

„Ich gehe davon aus, dass wir darauf antworten werden: Das Präsidium äußert sich nicht zu Forschungsergebnissen Dritter..“

Das Thema wird mit dieser E-Mail des BOM aus dem Jahr 2017 fortgesetzt, in der ich mit Daten behaupte, dass die Hitzewellen in Australien nicht länger, heißer oder häufiger werden.

Das Präsidium ist nicht in der Lage, unveröffentlichte wissenschaftliche Hypothesen oder Studien zu kommentieren, und wir ermutigen Sie, Ihre Arbeit in einer geeigneten Zeitschrift zu veröffentlichen. Durch die von Fachleuten geprüfte Literatur können Sie Ihre Kritik an bestehenden Methoden aufgreifen und in einem Format und Forum veröffentlichen, das für andere Wissenschaftler zugänglich ist. Mit freundlichen Grüßen, Klimaüberwachung und -vorhersage.

Diese Haltung des BOM könnte von ganz oben kommen. Ein geschwärzter Name in der E-Mail-Sitzung von 2017 verriet:

„Ich bin im Wesentlichen ‚extern‘ als emeritierter Forscher, war aber Leiter des Bereichs Infrastruktur/Beschaffung/Ingenieurwesen/Wissenschaftsmessung, als ich im März 2016 im letzten Jahr aus dem Bureau ausschied.“

Bei dieser Person könnte es sich um den ehemaligen BOM-Direktor Dr. Rob Vertessy gehandelt haben oder auch nicht. Die Zeitungen berichteten 2017 über Rücktrittserklärungen von ihm. Sie senden eine Botschaft:

„Vertessys Behörde war ständigen Angriffen von Leugnern der Klimawissenschaft ausgesetzt, die – oft über die Nachrichten- und Meinungsseiten des Australian – behaupteten, dass das Wetteramt seine Klimaaufzeichnungen absichtlich manipuliere, um die jüngste Erwärmung schlimmer erscheinen zu lassen, als sie tatsächlich war.

Aus meiner Sicht sind solche Leute, die die nationale Wetterbehörde beeinflussen, unproduktiv und sogar gefährlich“, sagte Vertessy. „Jede Minute, die eine Führungskraft des BoM mit diesem Unsinn verbringt, ist eine verlorene Minute für das Risikomanagement und den Schutz der Gemeinschaft. Es ist ein echtes Problem.“

Siehe hier.

Man beachte die üblichen Medien-Spin-Methoden in diesem Presseartikel. Die BOM hat ein Problem erkannt, es auf ihre Weise formuliert und ihre Emotionen zum Ausdruck gebracht, ohne die Anschuldigungen zu bestreiten.

An dieser Stelle dieses Artikels möchte ich einige Worte von anderen Autoren anführen, um das Ausmaß der sich abzeichnenden Probleme zu verdeutlichen.

„Eine Krise der Irreproduzierbarkeit befällt ein breites Spektrum wissenschaftlicher und sozialwissenschaftlicher Disziplinen, von der öffentlichen Gesundheit bis zur Sozialpsychologie. Viel zu häufig sind Wissenschaftler nicht in der Lage, Behauptungen zu wiederholen, die in veröffentlichten Forschungsarbeiten aufgestellt wurden.1 Viele unsachgemäße wissenschaftliche Praktiken tragen zu dieser Krise bei, darunter eine schlecht angewandte statistische Methodik, Verzerrungen in der Datenberichterstattung, die Anpassung der Hypothesen an die Daten und ein endemisches Gruppendenken. Viel zu viele Wissenschaftler wenden unsachgemäße wissenschaftliche Praktiken an, bis hin zu offenem Betrug.“

National Association of Scholars NAS (USA)

Shifting Sands. Unsolide Wissenschaft und unsichere Regulierung

Bericht Nr. 1: Die Wissenschaft der Regierung auf dem Prüfstand: P-Value Plotting, P-Hacking, und PM2.5 Regulierung

In diesem Bericht wird auf Seite 36 eine Ansicht über den zentralen Grenzwertsatz gegeben:

Die Glockenkurve und der P-Wert: Der mathematische Hintergrund

Alle „klassischen“ statistischen Methoden beruhen auf dem zentralen Grenzwertsatz, der 1810 von Pierre-Simon Laplace bewiesen wurde.

„Das Theorem besagt, dass, wenn eine Reihe von Zufallsversuchen durchgeführt wird und die Ergebnisse der Versuche unabhängig und identisch verteilt sind, sich die resultierende normalisierte Verteilung der tatsächlichen Ergebnisse im Vergleich zum Durchschnitt einer idealisierten glockenförmigen Kurve annähert, wenn die Anzahl der Versuche unbegrenzt zunimmt.

Anfang des 20. Jahrhunderts, als die industrielle Landschaft von den Methoden der Massenproduktion beherrscht wurde, fand das Theorem Anwendung in den Verfahren der industriellen Qualitätskontrolle. Insbesondere entstand der p-Test natürlich im Zusammenhang mit der Frage, wie wahrscheinlich es ist, dass ein hergestelltes Teil so stark von den Spezifikationen abweicht, dass es nicht gut genug passt, um in der endgültigen Montage von Teilen verwendet zu werden.“ Der p-Test und ähnliche Statistiken wurden zu Standardkomponenten der industriellen Qualitätskontrolle.

Es ist bemerkenswert, dass sich die Anwendung des zentralen Grenzwertsatzes im ersten Jahrhundert, nachdem er von Laplace bewiesen worden war, auf tatsächliche physikalische Messungen unbelebter Objekte beschränkte. Zwar gab es philosophische Gründe, die Annahme unabhängiger und identisch verteilter Fehler in Frage zu stellen (d. h. wir können nie mit Sicherheit wissen, dass zwei Zufallsvariablen identisch verteilt sind), doch schien die Annahme plausibel genug, wenn es um Längen-, Temperatur- oder Luftdruckmessungen ging.

Später im zwanzigsten Jahrhundert begann man, den zentralen Grenzwertsatz auf menschliche Daten anzuwenden, um ihre Forschungsgebiete „wissenschaftlicher“ erscheinen zu lassen, obwohl niemand glauben kann, dass zwei Menschen – die Dinge, die jetzt gemessen werden – wirklich unabhängig und identisch sind. Die gesamte statistische Grundlage der „beobachtenden Sozialwissenschaft“ steht auf wackligen Beinen, weil sie von der Wahrheit eines Theorems ausgeht, dessen Anwendbarkeit auf die Beobachtungen, die Sozialwissenschaftler machen, nicht bewiesen werden kann.

Dr. David Jones schickte mir am 9. Juni 2009 eine E-Mail mit diesem Satz:

„Ihre Analogie zwischen einem Unterschied von 0,1 °C und einem Trend von 0,1 °C/Dekade ergibt ebenfalls keinen Sinn – das Gesetz der großen Zahlen oder der zentrale Grenzwertsatz besagt, dass zufällige Fehler einen winzigen Einfluss auf die aggregierten Werte haben.“

Geoff Sherrington, Scientist, Melbourne, Australia

Link: https://wattsupwiththat.com/2022/08/24/uncertainty-estimates-for-routine-temperature-data-sets/

Übersetzt von Christian Freuer für das EIKE

 




Verdrängt: Wie Ukraine-Krieg und Energiekrise anderen Themen die Schau stehlen

Stefan Kämpfe

Aus den Augen, aus dem Sinn – es ist schon erstaunlich, wie die aktuellen Krisen als Auslöscher für doch angeblich so brisante Themen wirken. Die folgende Zusammenstellung erhebt keinen Anspruch auf Vollzähligkeit; und Vorsicht – auch Ironie ist dabei!

Das Insekten– und Bienensterben

Dieses bei grünen Ideologen und links-grünen Journalisten so beliebte Thema war Ende der 2010er Jahre der große Aufreger, aber irgendwie haben diese ekelhaften und lästigen Krabbeltiere ihren eigenen, medialen Untergang locker überlebt – gerade im 2022er Sommer wimmelte es nur so vor Mücken, Wespen, Bienen, Fliegen, Ameisen und anderen Insekten. Wieder mal zeigt sich: Viel Lärm um Nichts und viel Beschäftigungstherapie für überbezahlte und nutzlose Wissenschaftler oder Journalisten – diese fiesen Insekten machen einfach nicht die Mücke!

Die Finanzkrise

Im Gegensatz zum Insektensterben ist sie real und verschärft sich gerade in Südeuropa wegen der Zinserhöhungen massiv – aber wenn schon die Inflation uns alle ruiniert, ist es doch unerheblich, ob ein paar Staatshaushalte zusammenbrechen – zumal mit der Ukraine nun noch ein besonders maroder, korrupter Staat zur ach so illustren EU hinzukommt.

Der Brexit

Der Austritt Großbritanniens aus der Europäischen Union wurde von der Lügen- und Hetzpresse und den überbezahlten EU-Politikern zum größten Super-GAU seit Tschernobyl aufgeblasen. Die gesamte Wirtschaft sollte massiv darunter leiden, ebenso der Reise- und Warenverkehr. Keiner schien wohl bemerkt zu haben, dass Großbritannien auch schon vorher immer „halb draußen“ war – beim Euro, der wohl größten Fehlgeburt Europas, hatte man klugerweise gar nicht erst mitgemacht. Heuer zeigt sich: Die Wirtschaft läuft trotzdem und die Menschen reisen ein und aus – doch diese guten Nachrichten passen offenbar nicht in unsere Zeit. Weil Corona, Energie- und Ukraine-Krise nun mal ein besseres Panik-Potential abwerfen, muss der Brexit auf bessere Zeiten warten, um es wieder in die oberen Negativ-Schlagzeilen zu schaffen.

Die kleineren „Schurkenstaaten“

Immer für Horror-Meldungen und Negativ-Schlagzeilen gut, haben es selbst Nordkorea, Afghanistan, der Iran, das nach wie vor vom Krieg gebeutelte Syrien oder Brasilien (erst seit Bolsonaro) schwer, negative Aufmerksamkeit zu erregen. Bloß China ist zu groß, um es dauerhaft missachten zu können, und weil es mittlerweile zu den wichtigsten Handelspartnern Deutschlands zählt, hütet man sich trotz gelegentlicher, leiser Kritik davor, es zu sehr zu verärgern – man benötigt es dringend als Lieferant billiger Solarpaneele oder Seltener Erden für die vergurkte Deutsche Energiewende. In Afghanistan und Syrien zeigt sich das krachende Scheitern der westlichen Gutmenschen-Politik – die Lage dort wurde verschlimmbessert, und die angeblich so freie westliche Welt schweigt betreten. Nur auf Bolsonaro darf man hemmungslos eindreschen – doch Vorsicht: Auch Brasilien verfügt über viele Metalle und Seltene Erden, ohne die keine Energiewende funktioniert. Selbstredend, dass Grüne BUND, NABU, WWF und die ganzen anderen, aufgeblasenen und überfinanzierten Umweltkonzerne Beifall klatschen werden, wenn Regenwald zur Gewinnung Seltener Erden gerodet werden muss. Ist ja für eine gute Sache – in Deutschland wird doch auch Wald für Windkraftanlagen geopfert – da müssen die Interessen der brasilianischen Ureinwohner eben zurückstehen, bis das Weltklima gerettet ist.

Fridays For Future (FFF) und andere Weltenretter

Keine Sorge, bislang haben Artensterben, Klimakollaps und andere Umweltschäden noch keinem FFF-Aktivisten das Leben gekostet. Aber irgendwie ist man seit Monaten aus den oberen Schlagzeilen gefallen – Beschwerden sind an die Machthaber Russlands und der Ukraine zu richten! Man möchte natürlich trotzdem weiter sofort den Ausschalter an jedem Kohlekraftwerk drücken – zu dumm nur, dass man momentan damit wenig Beifall fände. „Die wollen nur spielen und sind ja so niedlich!“ dachten anfangs viele gutgläubige Bürger. Doch mittlerweile geht angesichts der Inflation und der horrenden Energiepreise die nackte Existenzangst um – da kommen Forderungen nach einem vorzeitigen „Kohle-Aus“ nicht gut an. Und so muss die Weltenrettung wohl warten – bis zum Tage des heiligen Sankt Nimmerlein.

Der Feinstaub

Spätestens seit dem 24. Februar (was war da gleich noch mal?) scheint auch der böse Feinstaub, vorher von der Deutschen Umwelthilfe (DUH) erbarmungslos gejagt, auf Nimmerwiedersehen entfleucht zu sein. Ist ja auch egal, denn unser wenig lebenswertes Leben wurde durch ihn schlimmstenfalls um einige Tage verkürzt, und auch schon vorher interessierte es niemanden, dass wir dank völlig übertriebener Umweltauflagen die wohl beste Luftqualität seit Napoleons Zeiten haben – damals wirbelte seine Kavallerie viel Staub auf. Aber aus solch guten Nachrichten kann man weder politisches Kapital schlagen noch seine Auflage oder Einschaltquote steigern.

Big Brother und die Datensicherheit

In den 2000er und 2010er Jahren angesichts der Enthüllungen von Edward Snowden ein wichtiges Thema, scheint nun auch der Schutz unserer Privatsphäre in den Weiten des Internets verloren zu sein. Aber da sind wir alle auch selbst schuld – wer mit Karte statt in bar zahlt, Online-Banking und Einkäufe im Internet tätigt, häufig das Smart-Phone und die (a)sozialen Internet-Dienste nutzt, der gibt für diese Bequemlichkeiten halt freiwillig seine Daten preis. Erich Mielke, der oberste Schnüffler der verblichenen DDR, hätte sich darüber wenig gefreut – sein Arbeitsplatz wäre gefährdet gewesen! Aber auch Politik und Wirtschaft des angeblich so freien Westens tun natürlich alles, um den Bürger auszuspionieren, um ihn dann wie eine Weihnachtsgans auszunehmen. „Zahlen Sie wegen der Infektionsgefahr bitte mit Karte!“ – so tönte es während der Pandemie in vielen Supermärkten, und auch unsere ach so netten, immer teurer werdenden Krankenkassen und Banken wissen natürlich viel mehr über uns, als wir über sie. Doch angesichts der Horror-Inflation war Datensicherheit ein Thema von Gestern, und beim flächendeckenden Blackout interessiert es auch keinen mehr, ob jemand nun pünktlich seine Energierechnung zahlte oder nicht.

Wann ist Corona fällig?

Nach den düsteren Prophezeiungen des Herrn Drosten und unseres aktuellen Krankheits- und Panikministers Lauterbach sollten ja alle Ungeimpften längst gestorben und die „Pandemie“ schlimmer denn je sein. Aber Totgesagte leben wieder mal länger, und schon betritt mit den „gefährlichen“ Affenpocken ein neuer Aufreger die Bühne. Auch das gute, alte Corona-Virus hat wohl nun seine Halbwertszeit des Schreckens überschritten und muss die Pole Position an der heiß umkämpften Nachrichtenfront mehr und mehr räumen – zumal Mexikanischer Würfelhusten, Fuß- und Angstschweiß auch ernsthafte Konkurrenten sind.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher