Autoindustrie wird in eine Todesspirale gezwungen

Ronald Stein

Null Emissionen UM JEDEN PREIS scheint die Richtung zu sein, die von den Regierungen und den Umwelt-, Sozial- und Governance-Bewegungen auf der ganzen Welt vorgegeben wird, um sich von fossilen Brennstoffen zu trennen.

Die wenigen gesunden und wohlhabenden Länder wie die Vereinigten Staaten von Amerika, Deutschland, das Vereinigte Königreich und Australien, die 6 Prozent der Weltbevölkerung repräsentieren (505 Millionen im Vergleich zu 7,8 Milliarden), die soziale Veränderungen anordnen, um Null-Emissionen zu erreichen, könnten eine Todesspirale für die Automobilindustrie in Gang setzen .

Einfach ausgedrückt: In diesen gesunden und wohlhabenden Ländern könnte jeder Mensch, jedes Tier oder alles, was einen schädlichen Anstieg der Emissionen verursacht, von der Erdoberfläche verschwinden oder sogar aussterben, und die globalen Emissionen werden in den kommenden Jahren und Jahrzehnten aufgrund des Bevölkerungs- und Wirtschaftswachstums in China, Indien, Indonesien, Japan, Vietnam und Afrika dennoch explodieren.

Wir werden uns jedes einzelne „Puzzleteil“ des EV ansehen, das die Formel für eine Todesspirale in der Automobilindustrie sein könnte:

1. Äußerst begrenzte Lieferkette für Lithium zur Herstellung von EV-Batterien der aktuellen Technologie

2. Mangel an einer ausreichenden Anzahl von Käufern außerhalb des elitären Profils der bestehenden EV-Besitzer

3. Knappheit und Inflation bei allen Materialien für die Herstellung von Fahrzeugen.

4. Aufgrund der Brandgefahr von EV-Batterien sind die Transportmöglichkeiten von EVs ausländischer Hersteller in die USA fragwürdig.

5. Bedenken, ob erneuerbare Energien in der Lage sind, EV-Batterien zu laden.

6. Die fehlende ethische, moralische und soziale Verantwortung der Regierungen, die die Ausbeutung von Menschen mit gelber, brauner und schwarzer Hautfarbe fördern, die in ärmeren Entwicklungsländern exotische Mineralien und Metalle abbauen, um die grüne Bewegung in den reichen Ländern zu unterstützen.

Wo sind die Batterien?

Während der Wettlauf um die Produktion von Lithium in den Vereinigten Staaten weitergeht, ist die Lieferkette für den Hauptbestandteil von EV-Batterien, Lithium, international bereits gefährdet. Die folgenden internationalen dunklen Wolken über der Lithium-Lieferkette könnten der Auftakt zu einer amerikanischen Ablehnung des Tagebaus in den am stärksten umweltregulierten und kontrollierten Gemeinden der Welt sein:

● Der chilenische Oberste Gerichtshof hat den Abbau von Lithium im Salar de Atacama, Chile, gestoppt – ein riesiges Gebiet, in dem 55 Prozent der weltweit bekannten Lithiumvorkommen liegen.

● Initiativen auf der ganzen Welt, Minen und Erzverarbeitungsanlagen zu eröffnen, haben einen öffentlichen Aufschrei ausgelöst, da Umweltschützer und die örtliche Bevölkerung um die Auswirkungen auf die Natur und die Lebensgrundlagen der Menschen fürchten.

● Der Ausschuss für Risikobewertung der Europäischen Chemikalienagentur (ECHA) will drei Lithiumverbindungen als gefährlich für die menschliche Gesundheit kennzeichnen

Wo sind die Käufer?

Das derzeitige Profil der oligarchischen Elite, die hochgebildet und hochbezahlt ist und mehrere Autos besitzt, mit geringen Anforderungen an die Kilometerleistung des Zweitwagens, unterscheidet sich dramatisch von dem der meisten Autobesitzer, die nur ein Auto besitzen, nicht hochgebildet und nicht hochbezahlt sind. Wenn man den Umstieg auf Elektroautos vorschreibt und Sparmaßnahmen erzwingt, könnte es zu einer Rebellion derjenigen kommen, die auf Transportmittel angewiesen sind.

Wo findet der Transport von den ausländischen Herstellern zu den Autohändlern statt?

Im Jahr 2019 wurden in China, Japan, Indien, Deutschland und Südkorea mehr als 50 Millionen Fahrzeuge hergestellt, verglichen mit den 11 Millionen, die in den USA produziert wurden.

Diese im Ausland hergestellten Autos nach Amerika zu bringen, könnte ein unüberwindbares Versicherungsproblem darstellen. Die Felicity Ace, ein 650 Fuß langes Frachtschiff, das Luxusautos im Wert von Hunderten von Millionen Dollar geladen hatte, sank im März 2022. Die Bergungsmannschaft, die an dem brennenden Schiff arbeitete, sagte, dass die Batterien der Elektrofahrzeuge einer der Gründe dafür waren, dass das Schiff nach mehreren Tagen immer noch in Flammen stand. Der geschätzte Marktwert der Felicity Ace betrug 24,5 Millionen Dollar, während der Gesamtwert der 3965 Fahrzeuge über 500 Millionen Dollar betrug.

Wer übernimmt angesichts möglicher Brände von Elektroauto-Batterien in Fahrzeugen die Verantwortung für die Versicherung des sicheren Transports von den ausländischen Herstellern zu den amerikanischen Häfen, die Frachtschiffe oder die Hersteller?

Wo sind die Rohstoffe für die Fahrzeuge?

Die meisten Menschen wissen nicht, dass Rohöl nutzlos ist, wenn es nicht zu etwas Brauchbarem verarbeitet werden kann. Alle Materialien für Elektroautos – Elektronik, Kunststoffe, Glas, Leder, Reifen usw. – werden aus Erdölderivaten hergestellt, die aus Rohöl gewonnen werden.

Die heutigen Umwelt-, Sozial- und Governance-Richtlinien (ESG) sind der letzte Schrei, um sich von allen fossilen Brennstoffen zu trennen. ESG funktioniert, wird aber zu Knappheit und Inflation führen, da die Nachfrage der Gesellschaft nach Erdölprodukten das Angebot der immer weniger werdenden Hersteller übersteigt.

Im Januar 2020 gab es weltweit fast 700 Erdölraffinerien, aber aufgrund der ständigen Überregulierung, der Verzögerungen bei der Erteilung von Genehmigungen und der Überalterung der Anlagen werden in den nächsten fünf Jahren voraussichtlich 20 % von ihnen geschlossen werden. Das sind satte 140 Hersteller, die schließen werden. Knappheit und Inflation auf Dauer könnten die neue Norm sein, da die Nachfrage der Gesellschaft nach den aus Erdöl hergestellten Produkten das Angebot der immer weniger werdenden Hersteller ständig übersteigt.

Wo ist der Strom?

Die Begeisterung der Regierung für emissionsfreien Strom zugunsten von intermittierendem Strom aus Wind und Sonnenschein führt zur Abschaffung von Kohle- und Erdgaskraftwerken, die kontinuierlich und unterbrechungsfrei Strom erzeugt haben.

Wir haben alle von den Bedenken hinsichtlich der „Netzstabilität“ gelesen, um die Batterien der Elektrofahrzeuge aufladen zu können. Nun, das Vereinigte Königreich hat der Welt vielleicht eine Vorwarnung gegeben, warum die Strompreise auf Dauer steigen könnten:

● Im Vereinigten Königreich hat die Sorge um die Netzstabilität mit immer weniger unterbrechungsfreien Stromerzeugungsanlagen zu Vorschriften geführt, die im Juni 2022 in Kraft traten und die Ladezeiten einschränken.

● Im Vereinigten Königreich schalten sich neue Ladegeräte zu Hause und am Arbeitsplatz jetzt in Spitzenzeiten automatisch ab, um mögliche Stromausfälle zu vermeiden. Neue Ladegeräte im Vereinigten Königreich sind so voreingestellt, dass sie während der 9-stündigen Spitzenlast, von 8 bis 11 Uhr (3 Stunden) und von 16 bis 22 Uhr (6 Stunden) nicht funktionieren.

● Darüber hinaus müssen alle zu Hause installierten Ladegeräte für Elektrofahrzeuge im Vereinigten Königreich separat gemessen werden und diese Informationen an ein intelligentes Datenkommunikationsnetz senden. Diese britische Gesetzgebung ermöglicht es, dass der Strom, der zum Aufladen von E-Fahrzeugen verwendet wird, zu einem höheren Satz als Haushaltsstrom berechnet und besteuert werden kann. Es liegt auf der Hand, dass die Nutzer von E-Fahrzeugen die Kosten für den Ausbau und die Instandhaltung des Stromnetzes werden tragen müssen.

Wo bleibt die ethische, moralische und soziale Verantwortung für die Lithiumvorräte, um den Anforderungen der EV’s gerecht zu werden?

Das für den Pulitzer-Preis nominierte BuchClean Energy Exploitations – Helping Citizens Understand the Environmental and Humanity Abuses That Support Clean Energy“ (etwa: Ausbeutung der sauberen Energie – Hilfe für die Bürger, die Umwelt- und Menschenrechtsverletzungen zu verstehen, die die saubere Energie unterstützen) leistet hervorragende Arbeit bei der Erörterung der mangelnden Transparenz der Umweltzerstörung und der Gräueltaten an der Menschheit, die in Entwicklungsländern beim Abbau dieser exotischen Mineralien und Metalle zur Unterstützung der „grünen“ Bewegung geschehen.

Die Subventionen für den Kauf von Elektrofahrzeugen sind finanzielle Anreize für die weitere Ausbeutung von Menschen gelber, brauner und schwarzer Hautfarbe in den Entwicklungsländern. Sind diese Subventionen ethisch, moralisch und sozial verantwortlich gegenüber den Ausgebeuteten?

Zusammenfassend lässt sich sagen, dass die Leidenschaft der wenigen wohlhabenden Länder, Null-Emissionen um jeden Preis zu erreichen, mit großen Problemen in der Lieferkette von Lithium und allen Karosserieteilen, der Erschwinglichkeit, der Sicherheit vor spontanen Bränden, der Verfügbarkeit und Erschwinglichkeit von Elektrizität aus Brisen und Sonnenschein und den ethischen Herausforderungen konfrontiert ist, die die Ausbeutung von Menschen in ärmeren Ländern mit sich bringt, nur damit die Eliten ein EV fahren können, das von den wenigen hergestellt wird, die die staatlich verordnete Todesspirale überleben.

This article originally appeared at Heartland

Autor: Ronald Stein is an engineer, senior policy advisor on energy literacy for CFACT, and co-author of the Pulitzer Prize nominated book “Clean Energy Exploitations.”

Link: https://www.cfact.org/2022/09/10/automobile-industry-mandated-toward-a-death-spiral/

Übersetzt von Christian Freuer für das EIKE

 




Was würde die globale Dekarbonisierung wirklich kosten? – Teil 1

Robert Lyman, Dr. Jay Lehr

Als diejenigen, die häufig über klimapolitische Themen schreiben, werden wir oft gefragt: „Was wird die Dekarbonisierung kosten?“. Der Begriff „Dekarbonisierung“ bezieht sich auf die effektive Beseitigung von Treibhausgas-Emissionen, die in der Regel in Form von Kohlendioxid-Äquivalenten gemessen werden, um die angeblich vom Menschen verursachte globale Erwärmung zu stoppen. In der Praxis bedeutet dies die Beendigung der Nutzung von Kohlenwasserstoffen (Erdöl, Erdgas und Kohle) und der durch sie bereitgestellten Energie-Dienstleistungen. Gemäß der auf der COP25-Konferenz der Vereinten Nationen in Paris im Jahr 2015 erzielten Vereinbarung soll die Dekarbonisierung bis 2050 erreicht werden.

Wenn wir weniger als 200 Jahre zurückblicken, hatten wir eine dekarbonisierte Gesellschaft ohne Kohlekraftwerke, ohne Erdgaskraftwerke, und die Beverly Hillbillies hatten noch kein Öl entdeckt. Es ist leicht zu erkennen, wie die Zivilisation von den mehr als 250 hochmodernen, für die Verarbeitung von Kohlenwasserstoffen lizenzierten Raffinerietechnologien profitiert hat, die von den mehr als 700 Raffinerien weltweit eingesetzt werden, die den Bedarf der acht Milliarden Menschen auf der Erde mit mehr als 6000 Produkten decken, die aus den Ölderivaten hergestellt werden, die in den Raffinerien aus Rohöl gewonnen werden. Keines dieser Produkte war der Gesellschaft vor 1900 zugänglich.

Das sind alles sehr alberne Überlegungen. Eine bessere Frage wäre, wie viel Leben auf der Erde auf dem Weg zur Abschaffung der fossilen Brennstoffe verloren gehen würde. Sicherlich könnten alle medizinischen Einrichtungen ohne Hunderte von wichtigen Produkten, die aus Erdöl gewonnen werden, nicht funktionieren. Wie lange wären die Menschen bereit, sich mit dem Leben abzufinden, das ihre Vorfahren Mitte des 19. Jahrhunderts zurückgelassen haben – man denke an das Jahr 1850.

Jeder würde anfangen, sich das Leben in den ärmsten Gegenden vorzustellen, in denen es keinen Strom und kein fließendes, sauberes Wasser gibt. Wie gesagt, die Diskussion ist albern, aber als intellektuelle Übung werden wir sie in den nächsten Wochen in einer Reihe von Artikeln hier auf CFACT.org weiterführen, der Heimat für einige der interessantesten wissenschaftlichen Entwicklungen.

Die kurze Antwort auf die Eingangsfrage lautet natürlich: „Niemand weiß es.“ Und vernünftigen Menschen ist es egal, denn sie wissen, dass dies ein Hirngespinst der nicht allzu klugen liberalen, progressiven, sozialistischen und kommunistischen Gemeinschaften ist. Dieser Mangel an Wissen, „niemand weiß es“, ist eine ziemlich erstaunliche Aussage, denn 196 Regierungen der Welt haben sich grundsätzlich darauf geeinigt, dass sie ein Ziel verfolgen werden, dessen Kosten völlig unbekannt sind. Denken Sie daran, dass ihr primäres Ziel nie etwas mit dem Klima oder der Temperatur zu tun hatte, sondern vielmehr ein Weg war, den Kapitalismus zu zerstören und die kommunistische Welt zu schaffen, die vor über einem Jahrhundert in der bolschewistischen Revolution in Russland vorhergesehen wurde.

Es gab keine technischen Studien, keine Machbarkeitsanalysen, keine Nutzen-Kosten-Analysen, auf die man sich beziehen könnte. Dies hat jedoch mehrere westliche Länder nicht davon abgehalten, das Ziel mit religiöser Inbrunst zu verfolgen. Das sollte ein Hinweis auf die Unmöglichkeit sein, denn Religion und Politik oder Wirtschaft passen nicht zusammen. Um in dieser fiktiven Welt auch nur eine Teilantwort zu finden, werden wir sie als intellektuelle Übung aus verschiedenen Perspektiven untersuchen.

Wie viel haben die Länder der Welt bisher für Maßnahmen ausgegeben, die darauf abzielen, die Emissionen durch eine Verringerung des Energieverbrauchs, die Förderung der Substitution durch emissionsarme oder -freie Brennstoffe oder die Förderung der Forschung und Entwicklung neuer emissionsfreier Energiequellen zu verringern? Wie hoch waren die Kosten für die Verbraucher? Diese Fragen sind relativ leicht zu beantworten.

Ein Leben ohne Öl ist NICHT SO EINFACH, WIE SIE vielleicht denken, denn erneuerbare Energien sind nur intermittierende Elektrizität aus Wind und Sonnenschein, da WEDER Windturbinen noch Sonnenkollektoren etwas für die Gesellschaft herstellen können. Wenn man uns vorschreibt, ohne die aus Erdöl hergestellten Produkte zu leben, werden wir zu einem Lebensstil zurückkehren müssen, der an die Zeit der Pferdefuhrwerke um 1800 erinnert, und das könnte die größte Bedrohung für die acht Milliarden Einwohner der Zivilisation sein.

Wie hoch die voraussichtlichen Kosten künftiger Maßnahmen bis zum Jahr 2050 sein werden, ist etwas schwieriger, aber immer noch ein amüsanter Versuch einer Berechnung. Ein einfacher Weg, diese hoffnungslose Anstrengung der Dekarbonisierung anzugehen, ist der Versuch, die Kosten für die Beseitigung jeder Tonne Kohlendioxid-Emissionen zu berechnen.

Wir hoffen, dass unsere Bemühungen hier und in den nächsten zwei Wochen eine unterhaltsame Lektüre sind, die nur mit einem optimistischen Ausblick enden kann.

Was vollständige Dekarbonisierung bedeutet.

Das Wichtigste zuerst. Schauen wir mal, was eine vollständige Dekarbonisierung – der vollständige Verzicht auf die Nutzung von Erdöl, Erdgas und Kohle – für das Leben in den Ländern der Welt, besser noch für das Leben auf der Erde bedeuten würde.

Die Geschichte bietet die Antworten. Vor 1800 gab es auf der Erde, in unserem Land und auf der ganzen Welt keine aktiven Kohlenstoffderivate außer unseren Körpern, Tieren und Pflanzen, die alle von Mutter Natur aus Kohlenstoff hergestellt wurden. Im Wesentlichen wurde nichts zur Verbesserung des Lebens verwendet, außer dass pflanzliche Nahrung auf der ganzen Welt wachsen konnte und dann durch die menschliche Landwirtschaft massiv vermehrt wurde.

Die Erfindung der Dampfmaschine ermöglichte die Nutzung von Kohle zum Antrieb von Industrieanlagen, Zügen und Schiffen. Die Entdeckung großer Ölfelder und der Möglichkeiten, daraus Öl zu gewinnen, im späten 19. Jahrhundert, gefolgt von der Erfindung des Verbrennungsmotors zum Antrieb von Autos und Lastwagen zu Beginn des 20. Jahrhunderts revolutionierte die Art und Weise, wie Menschen und Güter bewegt wurden. Die Erfindung der Elektrizität und der Möglichkeiten, Strom zu transportieren und für Beleuchtung und Heizung zu nutzen, ermöglichte die Anwendung von Energie für Hunderte von neuen Zwecken, ein Prozess, der bis heute andauert. Energie erleichterte die Arbeit und ermöglichte einen massiven Anstieg der Wirtschaftstätigkeit (Investitionen, Beschäftigung und Handel), der den Lebensstandard verbesserte und die Wahlmöglichkeiten der Menschen in Bezug auf Beschäftigung und Zeitgestaltung erweiterte.

Heute stammen etwa 84 % der weltweit verbrauchten Energie aus fossilen Brennstoffen [1], der Rest aus einer Vielzahl von Quellen, von denen die wichtigsten die Kernenergie, die Wasserkraft und die traditionelle Biomasse (Holz und getrockneter Tierdung) sind. Neue erneuerbare Energien wie Wind- und Sonnenenergie machen etwa zwei Prozent aus.

Erdöl und Erdgas sind auch äußerst wichtige Rohstoffquellen (d.h. Baumaterialien) für Erdöl und petrochemische Produkte. Ohne sie hätten wir keinen Zugang zu Hunderten von Produkten, die für die meisten Menschen entweder unverzichtbar oder sehr wertvoll für das moderne Leben sind. Die Beispiele sind schier endlos, aber lassen Sie uns einige nennen, die junge Menschen in den reicheren Ländern vermissen würden, wenn es sie nicht mehr gäbe: Fernseher, Mobiltelefone, Computer, die meisten Kleidungsstücke und Schuhe, Kühlschränke, Klimaanlagen, Handcremes und Kosmetika, Antiseptika, Deodorants, Geldbörsen, Strumpfhosen, Brillen, Gepäck und Kreditkarten. Es gäbe keine Kunststoffprodukte, die eine Vielzahl von Dingen wie Wasserleitungen oder Eiswürfelbehälter versorgen. Das Leben, wie wir es kennen, wäre viel weniger abwechslungsreich.

Weder Windturbinen noch Solarzellen können etwas für die Gesellschaft herstellen.

Was würde ein Ende des Ölverbrauchs bedeuten? Nun, der größte Energieverbraucher ist der Verkehrssektor, in dem etwa 97 % des Verbrauchs auf mit Öl betriebene Fahrzeuge und andere Verkehrsmittel entfallen.

Ohne fossile Brennstoffe wäre die Air Force One [das Flugzeug des US-Präsidenten, A. d. Übers.] ebenso wie alle Teile des Militärs am Boden.

Man hofft gerne, dass sich Elektroautos durchsetzen werden, aber bisher machen sie nur 3 % der Neuwagenverkäufe aus, und das trotz staatlicher Subventionen von bis zu 7500 Dollar pro Fahrzeug. Wären wir wirklich in der Lage, alle Leichtfahrzeuge mit Verbrennungsmotor ohne Rücksicht auf die Kosten abzuschaffen? Wären die Menschen froh, wenn sie jederzeit und bei jedem Wetter zu Fuß, mit dem Fahrrad oder (wenn man Glück hat) mit dem Bus überall hinkämen? Die am schnellsten wachsende Quelle von Verkehrsemissionen sind Nutzfahrzeuge. Elektrisch betriebene Lkw sind gerade erst am Horizont zu erkennen. Wie würden wir Produkte transportieren, wenn wir die Lkw abschaffen würden? Der emissionsintensivste Verkehrsträger ist der Luftverkehr. Es sind einfach keine Technologien verfügbar oder absehbar, mit denen Flugzeuge oder Schiffe ohne Erdölprodukte mit Treibstoff versorgt werden könnten (es sei denn, die Schifffahrt würde wieder zur Nutzung von Segeln zurückkehren). Der Langstreckentransport von Gütern und Personen wäre stark eingeschränkt, mit entsprechenden Auswirkungen auf den Welthandel und den Tourismus.

Alle Teile von Fahrzeugen, Windturbinen und Sonnenkollektoren werden mit Erdölderivaten hergestellt, die aus Rohöl gewonnen werden. Die Abschaffung des Erdöls würde Fahrzeuge, Windturbinen und Sonnenkollektoren überflüssig machen.

Alles, was wir in Teil 1 dieser dreiteiligen Serie über die Idiotie der Dekarbonisierung der Welt gesagt haben, wäre für die Unwissenden unter uns intuitiv offensichtlich. Ignorieren sie es, wissen sie, dass es eine Übung in Sinnlosigkeit und Dummheit ist? Wie ist dieses Projekt eigentlich zum Mainstream geworden? Wir werden dies nächste Woche hier auf CFACT.org untersuchen.

Note: Robert Lyman is an economist who served in the Canadian government for 38 years

Note: Ron Stein contributed to this article.

[1] British Petroleum Statistical Review of World Energy 2021

Autoren: Robert Lyman is an economist with 37 years of service to the Canadian government.

CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/08/15/what-would-global-decarbonization-actually-cost/

Übersetzt von Christian Freuer für das EIKE




Schätzungen der Unsicherheit bei Routine-Datensätzen der Temperatur – Teil 2

Geoff Sherrington

Teil 1 begann mit drei Feststellungen:

„Es besteht allgemeiner Konsens darüber, dass die Nützlichkeit von Messergebnissen und damit ein Großteil der Informationen, die wir als Institution bereitstellen, zu einem großen Teil von der Qualität der sie begleitenden Unsicherheitsaussagen bestimmt wird.“

„Die Unsicherheit eines Messergebnisses setzt sich im Allgemeinen aus mehreren Komponenten zusammen, die je nach der Art und Weise, wie ihr numerischer Wert geschätzt wird, in zwei Kategorien eingeteilt werden können:

A. Diejenigen, die durch statistische Methoden bewertet werden,

B. diejenigen, die durch andere Mittel bewertet werden.“

Dissens. Die Wissenschaft profitiert von Meinungsverschiedenheiten innerhalb der wissenschaftlichen Gemeinschaft, um Ideen und Denkweisen zu schärfen. Die Fähigkeit von Wissenschaftlern, legitime Meinungsverschiedenheiten, die die Wissenschaft verbessern, frei zu äußern, sollte nicht eingeschränkt werden.

Transparenz beim Austausch von Wissenschaft. Transparenz untermauert die solide Generierung von Wissen und fördert die Rechenschaftspflicht gegenüber der amerikanischen Öffentlichkeit. Bundeswissenschaftler sollten die Möglichkeit haben, frei über ihre nicht klassifizierte Forschung zu sprechen, wenn sie dies wünschen, auch gegenüber der Presse.“

Sie führten zu einer Frage, die das australische Bureau of Meteorology BOM seit einigen Jahren schrittweise beantwortet.

„Wenn jemand den Abstand zwischen zwei Tagestemperaturen in Grad Celsius wissen möchte, der eine sichere Aussage darüber zulässt, dass die beiden Temperaturen statistisch gesehen unterschiedlich sind, um wie viel würden die beiden Werte voneinander abweichen?“

Der zweite Teil befasst sich nun mit den eher mathematischen Themen der ersten beiden Aussagen.

Kurz gesagt, wie groß ist die Unsicherheit, die mit solchen täglichen Routinemessungen der Temperatur verbunden ist? (Ab hier hat sich der Anwendungsbereich von einer einzigen Beobachtung an einer einzigen Station auf mehrere Jahre von Beobachtungen an vielen Stationen weltweit ausgeweitet).

Wir beginnen dort, wo Teil eins aufgehört hat.

Dr. David Jones schickte mir am 9. Juni 2009 eine E-Mail mit diesem Satz:

„Ihre Analogie zwischen einem Unterschied von 0,1°C und einem Trend von 0,1°C/Dekade ergibt ebenfalls keinen Sinn – das Gesetz der großen Zahlen oder der zentrale Grenzwertsatz besagt, dass zufällige Fehler einen winzigen Effekt auf die aggregierten Werte haben.“

Das Gesetz der großen Zahlen. LOLN, und der zentrale Grenzwertsatz. CLT, werden häufig verwendet, um Schätzungen kleiner Messunsicherheiten zu rechtfertigen. Eine allgemeine Zusammenfassung könnte wie folgt lauten: „Die Unsicherheit einer einzelnen Messung könnte bei +/-0,5⁰C liegen, aber wenn wir viele Messungen vornehmen und den Mittelwert bilden, kann die Unsicherheit kleiner werden.“

Diese Überlegungen müssen sich auf die Tabelle der Unsicherheits-Abschätzungen in der Stückliste beziehen, die im ersten Teil und weiter unten gezeigt wird.

Wenn die Unsicherheit eines einzelnen Messwerts tatsächlich +/-0,5⁰C beträgt, welcher Mechanismus ist dann am Werk, um die Unsicherheit mehrerer Beobachtungen auf niedrigere Zahlen wie +/-0,19⁰C zu reduzieren? Man muss sich fast vollständig auf die CLT verlassen. Wenn ja, ist dieses Vertrauen gerechtfertigt?

Die australischen BOM-Autoren haben einen 38-seitigen Bericht verfasst, in dem sie einige ihrer einschlägigen Verfahren beschreiben. Er trägt den Namen „ITR 716 Temperature Measurement Uncertainty – Version 1.4_E“ (Ausgabe vom 30. März 2022). Er dürfte in der öffentlichen Literatur noch nicht leicht zugänglich sein.

Die ausführlichen Tabellen in diesem Bericht müssen verstanden werden, bevor man fortfährt.

Auszug:

Informationsquellen bzgl. der Unsicherheit

Der Prozess der Identifizierung von Unsicherheitsquellen für oberflächennahe atmosphärische Temperaturmessungen wurde in Übereinstimmung mit dem International Vocabulary of Metrology [JCGM 200:2008] durchgeführt. Bei dieser Analyse des Messverfahrens wurden sieben Hauptursachen und zahlreiche beitragende Quellen ermittelt. Diese sind in Tabelle 3 unten beschrieben. Diese Quellen der Unsicherheit korrelieren mit den Kategorien, die im Unsicherheitsbudget in Anhang D verwendet werden.

Tabelle 3: Gewöhnliche trockene Thermometer und Lufttemperatur-PRT-Sonden, die zur Messunsicherheit beitragen. Definitionen in Übereinstimmung mit dem Internationalen Vokabular für Metrologie [JCGM 200:2008]

Schätzungen der Unsicherheit

Die Gesamt-Unsicherheit des gewöhnlichen Quecksilber-Glas-Trockenthermometers und der PRT-Sonde zur Messung der atmosphärischen Temperatur ist in Tabelle 4 angegeben. Diese Tabelle ist eine Zusammenfassung des vollständigen Messunsicherheitsbudgets in Anhang D.

Tabelle 4: Zusammenfassende Tabelle der Unsicherheiten und Freiheitsgrade (DoF) [JCGM 100:2008] für gewöhnliche Trockenthermometer und elektronische Lufttemperatursonden, auch PRT-Sonden genannt:

Eine detaillierte Bewertung der Schätzung der geringsten Unsicherheit für das gewöhnliche Trockenthermometer und die Lufttemperatursonden ist in Anhang D enthalten. Darin werden die oben in Tabelle 3 genannten Unsicherheitsfaktoren detailliert aufgeführt.

Ende Auszug

Es gibt einige bekannte Unsicherheitsquellen, die in diesen Stücklistentabellen nicht oder nur unzureichend berücksichtigt werden. Eine der größten Quellen wird durch eine Veränderung des Standorts des Schirms ausgelöst. Es hat sich im Laufe der Zeit gezeigt, dass das Sieb empfindlich auf Störungen wie Standortwechsel reagiert. Die BOM hat, wie viele andere Betreiber von Temperaturaufzeichnungen, Homogenisierungsübungen durchgeführt, die der Öffentlichkeit nacheinander als „High Quality“-Datensatz, der eingestellt wurde, und dann als ACORN-SAT Versionen 1, 2, 2.1 und 2.2 bekannt wurden.

Die Homogenisierungsverfahren werden in mehreren Berichten beschrieben, unter Anderem hier.

Das Ausmaß der Veränderungen aufgrund von Standortverlagerungen ist groß im Vergleich zu den Veränderungen aufgrund der in der obigen Tabelle aufgeführten Effekte. Sie sind auch weit verbreitet. Nur wenige der etwa 112 offiziellen ACORN-SAT-Stationen wurden nicht um diesen Effekt bereinigt.

Diese Tabelle zeigt einige tägliche Anpassungen für Alice Springs Tmin, mit Unterschieden zwischen Rohdaten und ACORN-SAT Version 2.2, alle in ⁰C. Die Daten sind entnommen von hier.

Diese Unterschiede tragen zu den gesuchten Unsicherheitsschätzungen bei. Es gibt verschiedene Möglichkeiten, dies zu tun, aber BOM scheint sie nicht in die Gesamtunsicherheit einzubeziehen. Es handelt sich nicht um gemessene Unterschiede, also sind sie nicht Teil der Messunsicherheit. Es handelt sich um Schätzungen von Fachleuten, aber dennoch müssen sie einen Platz in der Gesamtunsicherheit finden.

Wir bezweifeln, dass alle oder auch nur genügend Quellen der Unsicherheit berücksichtigt wurden. Wenn die Unsicherheit so gering wäre wie angegeben, warum wäre dann eine Anpassung erforderlich, um Datensätze wie ACORN-SAT zu erstellen? Dies wurde in diesem Schreiben an die BOM angesprochen:

(Gesendet an Arla Duncan BOM Montag, 2. Mai 2022 5:42 PM)

Vielen Dank für Ihr Schreiben und die Kopie des BOM Instrument Test Report 716, „Near Surface Air Temperature Measurement Uncertainty V1.4_E.“ in Ihrer E-Mail vom 1. April 2022.

Diese Antwort ist im Sinne einer weiteren Klärung meiner vor einigen Jahren gestellten Frage:

„Wenn jemand den Abstand zwischen zwei Tagestemperaturen in Grad C wissen möchte, der eine sichere Aussage darüber zulässt, dass die beiden Temperaturen statistisch gesehen unterschiedlich sind, um wie viel würden die beiden Werte voneinander abweichen?“

Ihre Antwort hat mich in die Mitte der Tabelle in Ihrem Brief geführt, die nahelegt, dass historische Tagestemperaturen, die für viele typisch sind, Unsicherheiten in der Größenordnung von ±0,23 °C oder ±0,18 °C haben.

Ich habe die folgende Übung durchgeführt. Es wurde eine Station ausgewählt, hier der Flughafen Alice Springs BOM 15590 wegen seiner Bedeutung für große Regionen in Zentralaustralien. Ich wählte ein Jahr, 1953, mehr oder weniger zufällig. Für die Granularität habe ich tägliche Daten gewählt. Die Temperaturminima wurden untersucht. Es gibt frühere „Raw“-Daten von CDO sowie die bisherigen ACORN-SAT-Versionen mit den Nummern 1, 2, 2.1 und 2.2; außerdem gibt es den älteren High Quality BOM-Datensatz. Mit einer täglichen Subtraktion habe ich ihre Abweichung von RAW grafisch dargestellt. Hier sind die Ergebnisse:

Man könnte argumentieren, dass ich ein bestimmtes Beispiel ausgewählt habe, um einen bestimmten Effekt zu zeigen, aber das ist nicht der Fall. Bei vielen Stationen könnte man eine ähnliche tägliche Temperaturspanne nachweisen.

Dieser vertikale Temperaturbereich kann zu jedem beliebigen Zeitpunkt bis zu 4 Grad Celsius betragen. Grob gesagt entspricht das einer Unsicherheit von +/- 2 Grad Celsius oder mehr. Diese Zahl ist um eine Größenordnung größer als Ihre oben genannten Unsicherheitsschätzungen.

In ähnlicher Weise habe ich einen anderen Standort gewählt, diesmal Bourke NSW, #48245, ein AWS-Standort, Jahr 1999:

Dieses Beispiel zeigt auch eine große tägliche Schwankungsbreite der Temperaturen, hier etwa 2 Grad Celsius.

In der Praxis kann man fragen: „Was war der heißeste Tag, der 1993 in Bourke gemessen worden war?

Die Antworten lauten:

43,2 ± 0,13 ⁰C aus den Datensätzen High Quality und RAW

44,4 ± 0,13 ⁰C aus den ACORN-SAT Versionen 2.1 und 2.2

oder 44,7 ± 0,13 ⁰C aus ACORN-SAT Version 1

Die Ergebnisse hängen von dem gewählten Datensatz ab und verwenden die von der BOM geschätzte Genauigkeit für ein Flüssigkeits-Glasthermometer und einen Datensatz von 100 Jahren Dauer aus dem BOM Instrument Test Report 716, der in der Tabelle in Ihrer E-Mail zitiert wurde.

Dieses Beispiel stellt eine messtechnische Absurdität dar.

Die Schätzungen der Unsicherheit scheinen nicht übereinzustimmen. Ich habe mich dafür entschieden, frühere Versionen von ACORN-SAT und den alten High Quality-Datensatz zu verwenden, weil beide von Experten erstellt wurden, die versuchten, die Unsicherheit zu verringern.

Wie würde BOM diesen Unterschied in den Unsicherheitsschätzungen beheben?
(Ende des Schreibens an das BOM)

Das BOM antwortete am 12. Juli 2022 mit folgendem Auszug:

„In Beantwortung Ihrer spezifischen Fragen bezüglich der Temperaturmessunsicherheit, scheint es, dass diese aus einer falschen Anwendung des ITR 716 Near Surface Air Temperature Measurement Uncertainty V1.4_E auf Ihre Analyse resultieren. Bei den Messunsicherheiten in ITR 716 handelt es sich um einen Messfehler, der mit den Rohtemperaturdaten verbunden ist. Im Gegensatz dazu ist Ihre Analyse ein Vergleich zwischen Zeitreihen von Rohtemperaturdaten und den verschiedenen Versionen von ACORN-SAT-Daten an bestimmten Standorten in bestimmten Jahren. Unabhängig von der gewählten Station und dem Jahr resultiert Ihre Analyse aus Unterschieden in der Methodik zwischen den verschiedenen ACORN-SAT-Datensätzen und kann daher nicht mit den veröffentlichten Messfehlern in ITR 716 verglichen werden. Wir empfehlen Ihnen, die Ergebnisse einer weiteren Analyse bei einer wissenschaftlichen Zeitschrift zur Begutachtung einzureichen.“

BOM scheint nicht zu akzeptieren, dass die Auswirkungen von Standortverlagerungen als Teil der Unsicherheitsabschätzungen berücksichtigt werden sollten. Vielleicht sollten sie das aber. Zu Beginn des australischen Sommers gibt es beispielsweise häufig Nachrichten, in denen behauptet wird, dass an einem bestimmten Tag an einem bestimmten Ort eine neue Rekordtemperatur erreicht wurde. Das ist keine leichte Aufgabe. Siehe dieses Material für den „heißesten Tag aller Zeiten in Australien“:

Der Punkt ist, dass das BOM die Verwendung des ACORN-SAT-Datensatzes als offizielle Aufzeichnung fördert, während es Anfragen oft auch auf die Rohdaten auf einer seiner Websites verweist. Das bedeutet, dass eine moderne Temperatur wie die heutige, die von einer automatischen Wetterstation mit einem Platin-Widerstandsthermometer gemessen wird, mit einer frühen Temperatur nach 1910 (dem Beginn von ACORN-SAT) verglichen werden kann, die von einem Flüssigkeits-Glasthermometer auf einem Bildschirm mit anderen Abmessungen gemessen wurde, der von seinem ursprünglichen Standort verschoben und durch Homogenisierung angepasst wurde.

Auf diese Weise kann ein Vergleich zwischen der Rohtemperatur (heute) und der historischen Temperatur (früher homogenisiert und verschoben) angestellt werden.

Sicherlich ist dieses Verfahren nur gültig, wenn die Auswirkungen von Standortverlagerungen in die Unsicherheit einbezogen werden.

Wir kehren nun zum Thema des zentralen Grenzwertsatzes und des Gesetzes der großen Zahlen (LOLN) zurück.

Der zentrale Grenzwertsatz ist teilweise im BIPM GUM beschrieben, hier eine .jpg-Datei, um Gleichungen zu erhalten:

Diese Worte sind entscheidend – „selbst wenn die Verteilungen von Xi nicht normal sind, kann die Verteilung von Y aufgrund des zentralen Grenzwertsatzes oft durch eine Normalverteilung angenähert werden“. Sie könnten die wichtigste Grundlage für die statistische Rechtfertigung von Unsicherheits-Reduzierungen sein. Wie ist die tatsächliche Verteilung einer Gruppe von Temperaturen aus einer Zeitreihe?

Diese 4 Histogramme wurden ausgewählt, um herauszufinden, ob sich zwei Jahre vor der Umstellung der Wetterstation von Alice Springs von Quecksilber in Glas auf Platin-Widerstands-Thermometrie im Vergleich zu zwei Jahren nach der Umstellung des Messgeräts eine Veränderung abzeichnet. Das obere Paar (Tmax und Tmin) ist vor der Umstellung am 1. November 1996, das untere Paar ist nach der Umstellung. Sowohl die X- als auch die Y-Achse sind vergleichbar skaliert.

Im groben Erscheinungsbild nähert sich nur eines dieser Histogramme visuell einer Normalverteilung an.

Die wichtigste Frage, die sich stellt, ist: „Disqualifiziert dies die Verwendung der CLT in der Art und Weise, wie BOM sie zu verwenden scheint?“

Mit Hilfe der bekannten Mathematik lassen sich diese Diagramme leicht in Teilmengen von Normalverteilungen (oder in deren Nähe) zerlegen. Aber das ist eine akademische Übung, die nur dann nützlich ist, wenn die Ursache für jede Untergruppe identifiziert und quantifiziert wird. Dieser mit einer Unterverteilung verbundene Quantifizierungsschritt ist nicht dasselbe wie die in den obigen Stücklistentabellen aufgeführten Kategorien von Quellenfehlern. Ich vermute, dass es nicht richtig ist, davon auszugehen, dass ihre Unterverteilungen mit den aus den Histogrammen abgeleiteten Unterverteilungen übereinstimmen werden.

Mit anderen Worten, es kann nicht ohne weiteres davon ausgegangen werden, dass die CLT verwendet werden kann, es sei denn, es werden Messungen der dominanten Faktoren vorgenommen, die zur Unsicherheit beitragen.

In meinem Versuch, den zweiten Teil abzuschließen und zusammenzufassen, komme ich zu den folgenden Hauptschlussfolgerungen:

1. Es bestehen Zweifel, ob die zentrale Grenzwerttheorie auf Temperaturen der beschriebenen Art anwendbar ist.

2. Der BIPM-Leitfaden zur Unsicherheit ist möglicherweise in der Praxis nicht hinreichend anwendbar. Er scheint eher für kontrollierte Umgebungen wie nationale Normungsinstitute geschrieben zu sein, wo versucht wird, Fremdvariablen zu minimieren und/oder zu messen. Sie scheint an ihre Grenzen zu stoßen, wenn die Unwägbarkeiten der natürlichen Umgebung auf sie einwirken. Es ist jedoch nützlich, um zu erkennen, ob die Autoren von Unsicherheitsschätzungen die beste Praxis anwenden. Aus dem GUM:

Der Begriff „Unsicherheit“

Das Konzept der Unsicherheit wird in Abschnitt 3 und Anhang D näher erläutert.

Das Wort „Unsicherheit“ bedeutet Zweifel, und somit bedeutet „Messunsicherheit“ im weitesten Sinne Zweifel an der Gültigkeit des Ergebnisses einer Messung. Da es keine unterschiedlichen Begriffe für dieses allgemeine Konzept der Unsicherheit und die spezifischen Größen, die quantitative Maße für dieses Konzept liefern, wie z. B. die Standardabweichung, gibt, ist es notwendig, das Wort „Unsicherheit“ in diesen beiden unterschiedlichen Bedeutungen zu verwenden.

In diesem Leitfaden bezieht sich das Wort „Unsicherheit“ ohne Adjektive sowohl auf das allgemeine Konzept der Unsicherheit als auch auf eine oder alle quantitativen Messgrößen dieses Konzepts.

Es gibt Gründe für die Annahme einer Gesamtunsicherheit von mindestens +/- 0,5 Grad C für alle historischen Temperaturmessungen, wenn sie zum Vergleich untereinander herangezogen werden. Daraus folgt nicht unmittelbar, dass diese Unsicherheit auch für andere gängige Verwendungszwecke, z. B. für Temperatur-/Zeitreihen, gelten sollte.

Dieser Artikel ist lang genug. Ich plane nun einen dritten Teil, in dem ich hauptsächlich traditionelle statistische Schätzungen der Unsicherheit mit neueren Methoden wie dem „Bootstrapping“ vergleichen werde, die für diese Aufgabe gut geeignet sein könnten.

Link: https://wattsupwiththat.com/2022/09/06/uncertainty-estimates-for-routine-temperature-data-sets-part-two/

Übersetzt von Christian Freuer für das EIKE

 




Sommernachlese 2022 in Deutschland – Reminiszenz an einen großen Sonnensommer

Rekorde und beinahe-Rekorde im Supersommer 2022 – Viele Flauten – Eher verhaltene Herbstaussichten

Stefan Kämpfe

Auch wenn es im September anfangs noch etwas Wärme-Nachschlag gab, so ist der meteorologische Supersommer 2022 nun doch längst Geschichte. Weil erst jetzt alle Daten vorliegen, soll dieser bemerkenswerte Sommer, welcher uns einen Allzeit-Sonnenscheinrekord bescherte, doch noch einmal etwas näher beleuchtet werden.

Neuer Sonnenschein-, aber kein neuer Temperaturrekord

Nun ist es amtlich: Mit gut 817 Sonnenstunden war dieser Sommer 2022 der sonnigste seit dem Aufzeichnungsbeginn im Jahre 1951. Der alte Rekordhalter, 2003 mit 793 Stunden, wurde auf Rang zwei verwiesen.

Abbildung 1: Die drei sonnigsten Sommer im Deutschen Flächenmittel waren 2022, 2003 und 2018.

Doch nicht überall in Deutschland schaffte es der Sonnensommer 2022 auf Platz eins: In Potsdam waren seit 1951 die Sommer 2018, 2019, 1983 und 2003 sonniger, und weil dort die Aufzeichnungen bis 1893 zurückreichen, fielen auch noch die Sommer 1947, 1911 und 1950 sonniger aus. Bei der Sommermitteltemperatur reichte es im Deutschland-Mittel für 2022 aber nur zum „undankbaren“ vierten Platz – ein mögliches Zeichen der Ausreizung der sommerlichen Erwärmung in Mitteleuropa.

Abbildung 2: Im Ranking der Durchschnittstemperaturen bleibt dem Sommer 2022 nur der vierte Platz – die Blechmedaille.

Nur langsam steigende Minimum-Temperaturen dämpften die sommerliche Erwärmung

Schauen wir uns die Entwicklung der mittleren Minimum-Temperaturen im Vergleich zu den sommerlichen Durchschnittstemperaturen seit 1988 einmal genauer an. Während die Sommermittelwerte in diesen 35 Jahren um bemerkenswerte reichlich 1,7 Kelvin (°C) stiegen – freilich nicht WI-bereinigt, erwärmten sich die mittleren Minima nicht einmal halb so stark; für diese gibt es aber kein DWD-Flächenmittel; Näheres zu deren Ermittlung hier. Um beide Trends vergleichbar zu machen, weisen die Ordinaten (senkrechte Achsen) jeweils die gleichen Spannweiten auf.

Abbildungen 3a und 3b: Die seit 1988 eingetretene sommerliche Erwärmung fand hauptsächlich tagsüber statt (wachsende Besonnung!). Deshalb stiegen die Sommermittelwerte (Abb. 3a, oben) mehr als doppelt so stark wie die mittleren Minima (unten). Der Sommer 1993 war so kühl, dass er bei dieser Skalierung in Abb. 3a „herausfiel“.

Auch 2022 setzte sich diese Diskrepanz verstärkt fort: Bei den Sommermitteln Platz vier, aber bei den mittleren Minima reichte es für 2022 nur zum achten Platz gemeinsam mit 2015; die Sommer 2003, 2002, 2018, 2019, 1992, 1994 und 2021 wiesen höhere mittlere Minima auf. Ein vergleichender Blick auf die Streudiagramme zeigt: Die Mittelwerte werden deutlich stärker von der Sonnenscheindauer beeinflusst, als die mittleren Minima.

Abbildungen 4a und 4b: Während die Variabilität der Sommermittelwerte (°C) im Betrachtungszeitraum um mehr als zwei Drittel von der Sonnenscheindauer beeinflusst wurde (oben, 4a), waren es bei den mittleren Minima nur 34% und damit ein reichliches Drittel. Zwar wird der Boden von der Sommersonne derart stark aufgeheizt, dass auch die Minima nach Sonnentagen (meist) höher liegen, aber die nächtliche Ausstrahlung egalisiert diesen Effekt teilweise

Trotz der Trockenheit: Kein neuer Dürre-Rekord im Sommer 2022

In diesem Sommer waren die angeblich immer schlimmeren Waldbrände und die absterbenden Wälder in den Mainstream-Medien wieder mal das große Thema. Bei Ersteren hat man offenbar die größte Brandkatastrophe der Nachkriegszeit (Lüneburger Heide, August 1975, mehr als 13.000 Hektar waren damals betroffen) bewusst vergessen, und Bewirtschaftungsfehler wie das fehlende Beräumen von Totholz, begünstigten auch diesmal die Brände, welche fast immer durch Unachtsamkeit oder Brandstiftung ausgelöst wurden. Und dass Fichten- oder Kiefernwälder in weiten Teilen Deutschlands nicht standortgerecht sind, hätte man auch spätestens seit 1947 wissen müssen, als es schon einmal eine Borkenkäfer-Kalamität sowie massive Dürreschäden gab. Aber was ist mit den angeblich immer schlimmeren sommerlichen Dürren? Einen besorgniserregenden, signifikanten Langfristtrend gibt es nicht – unsere Sommer wurden nur unwesentlich trockener. Der Sommer 2022 schaffte es nicht einmal unter die vier niederschlagsärmsten seit 1881.

Abbildung 5: Nur leichte, aber nicht signifikante Niederschlagsabnahme im Sommer seit 1881. Einige besonders trockene und nasse Sommer sind gekennzeichnet; der sehr trockene 2022er Sommer schaffte es mit 143mm nicht unter die vier niederschlagsärmsten.

Flaute-Sommer 2022

Zwar zeichnete sich dieser Sommer durch weniger Unbestimmte (XX)-Wetterlagen als seine Vorgänger aus. Was eine XX-Lage ist, wie man sie erkennt, und was sie bewirkt, kann man hier nachlesen. Aber dennoch verlief er, besonders im Juni und vor allem im August, sehr windschwach. Die Daten, geschätzt mit den DWD-Monatsmitteln der Windstärke in Beaufort von 25 norddeutschen Stationen, liegen seit 1992 vor. Danach war der 2022er Sommer der viertschwächste, der August schaffte gar Platz zwei nach 1997.

Abbildungen 6a und 6b: Entwicklung der Windstärke, gemittelt aus 25 norddeutschen Stationen seit 1992 im Sommer (oben, 6a) und im August (unten). Der Juni 2022 (nicht gezeigt) wies das drittniedrigste Windmittel auf. Man erkennt seit den frühen 1990er Jahren eine merkliche Abschwächung der Windstärke, was merkliche negative Auswirkungen auf die Windstromproduktion hat.

Luftdruckmittelwert in Potsdam: Fünfthöchstes Sommermittel

Zum Abschluss unserer Rekord-Schau werfen wir noch einen Blick auf den Luftdruck, welcher in Potsdam seit 1893 gemessen wird. Nur in den Sommern 1983, 2013, 1967 und 1976 war dieser noch etwas höher, als im Sommer 2022. Viele Hochdruckwetterlagen ließen das Barometer deutlich steigen; möglicherweise war das Luftdruckmittel in Nordwestdeutschland sogar noch etwas höher, doch liegen dem Autor hierfür keine langjährigen Daten vor. Betrachtet man die langfristige Sommertendenz, so zeigt sich ein leichter Anstieg – höherer Luftdruck ist also in den heurigen Sommern häufiger, als im frühen und mittleren 20. Jahrhundert.

Abbildungen 7a und 7b: Luftdruckverlauf (Tagesmittel) im Sommer 2022 (oben, 7a) und Sommermittel 1893 bis 2022 (unten, mit Lineartrend, violett). Man erkennt die für unsere Breiten völlig normalen Luftdruckschwankungen, aber auch, dass die meisten Tagesmittel im Sommer 2022 über dem Langjährigen Mittel (rote Linie) lagen. Höchst- und Tiefstwert traten diesmal im August auf. In der unteren Abbildung sind einige Jahre mit herausragend hohem und tiefem Sommermittel gekennzeichnet; man erkennt außerdem eine leichte Tendenz zu langfristig höheren Luftdruckwerten.

Nicht immer gehen trocken-heiße Sommer mit hohen Luftdruckwerten und feucht-kühle mit niedrigen einher; tendenziell aber schon.

Die Rekordjagd geht vielleicht noch weiter: Fallen dieses Jahr der Sonnenschein- und der Jahresmittel-Temperaturrekord?

Nach dem sonnigsten März und dem sonnigsten Sommer aller Zeiten stellt sich die spannende Frage, wie das Jahr 2022 insgesamt abschneiden wird. Die magische Grenze von mehr als 2.000 Jahressonnenstunden im DWD-Flächenmittel wurde bislang nur 2018 (2.015 Stunden) und 2003 (2.014 Stunden) überschritten, und Vieles spricht momentan für ein Fortbestehen dieser Rekorde, zumal die Septembersonne diesmal etwas schwächelt. Aber ganz aussichtslos ist das Rennen noch nicht. Ähnliches gilt auch für die Jahresmitteltemperatur, bei welcher 10,5°C aus den Jahren 2018 und 2019 überboten werden müssten. Nur ein sehr, sehr sonnig-warmer Herbst könnte also das laufende Jahr noch auf den Spitzenrang hieven, doch danach sieht es momentan eher nicht aus. In der zweiten Septemberdekade erinnert die Witterung schon an den Oktober. Ein riesiges Tief über Skandinavien sorgt ab dem 14. September dann einige Tage für windig-kaltes Schauerwetter.

Abbildung 8: Vorhersagekarte des GFS-Modells vom 11. für den 18. September 2022. Ein riesiges Tief über Nordosteuropa und ein Hoch westlich der Britischen Inseln lenken feucht-kalte Nordluft (mP, vielleicht kurzzeitig auch mA) nach Deutschland. Bildquelle: wetterzentrale.de

Diese dramatische Wetterumstellung erfolgte durch zwei Hurrikane, die aber nicht Richtung Karibik/USA, sondern zum Ostatlantik zogen. Sie schwächten das blockierende Ostatlantik-Hoch, welchem wir das anhaltende Sommerwetter verdankten, und öffneten den Weg für die nach Skandinavien ziehende Tiefs. Erstmals seit 2013, als es übrigens schon Anfang September eine grob ähnliche Wetterumstellung gab, entwickelten sich die ersten Hurrikane der Saison derart spät; doch ob daraus wieder etwas bessere Chancen für einen Kaltwinter resultieren, bleibt vorerst unklar. Etwa nach dem 20. September deutet sich der Altweibersommer vage an, ob er kommt und wie intensiv er ausfallen wird, steht noch nicht fest. So oder so – es bleibt weiter spannend in der Wetterküche!

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

 




Net Zero ist die wirkliche Klima-Katastrophe

Duggan Flanakin

Vielleicht MUSS Wladimir Putin doch den Friedensnobelpreis bekommen.

Sicherlich ist Putins blutiger Einmarsch in der Ukraine ein Affront gegen die Menschlichkeit, da er gezielt Zivilisten angreift. Russland hat sogar medizinische und humanitäre Hilfskonvois beschossen und nutzt ein Atomkraftwerk als Schutzschild für seine Militäroperationen.

Aber Putins Invasion rettet Europa – und andere Nationen – vielleicht vor ihrer blinden Hingabe an die „Klimakatastrophen“-Bewegung und den weltweiten Vorstoß zu „Netto-Null bis 2050“. Schon bevor Putins Krieg die europäischen Energielieferungen unterbrach und die Energiekosten in die Höhe trieb, litten die Europäer unter der sinnlosen „grünen“ Energiepolitik, die im Namen der „Rettung des Planeten“ durchgesetzt wurde.

Der radikale Net-Zero-Plan, der von den Vereinten Nationen ausgearbeitet und von Organisationen wie dem Weltwirtschaftsforum unterstützt wird, würde die Nationen dazu zwingen, auf fossile Brennstoffe, Kernenergie und sogar Wasserkraftwerke zu verzichten und stattdessen so genannte „grüne Energie“ zu nutzen, die gar nicht so grün ist und keine zuverlässige, erschwingliche Energie erzeugt und überträgt.

Die Hauptarchitekten, der UN-Vorsitzende Antonio Guterres und die UN-Klimachefin Christiana Figueres, haben einen Plan ausgearbeitet, der den nationalen Regierungen absolute diktatorische Macht verleiht, um im Auftrag der UN die fossilen Brennstoffe, die Viehzucht und andere Industrien zu zerschlagen.

Ihre kollektivistischen Pläne sollen auf der Behauptung beruhen, dass ein relativ geringer Anstieg der Kohlendioxid-Konzentration in der Atmosphäre (laut unkontrollierten Science-Fiction-Autoren) die Freiheitsstatue unter Wasser setzen, den Meeresspiegel steigen lassen und damit Milliarden von Menschen töten oder vertreiben sowie lange Zeit landwirtschaftlich genutztes Land verbrennen würde.

Der normale Mensch müsse auf pflanzliches „Fleisch“ umsteigen und sogar Meeresfrüchte meiden, nur noch Elektrofahrzeuge fahren und seinen Lebensstil einschränken (mit Ausnahme der Eliten, deren Lebensstil üppig bleiben würde). Weniger bekannt sind die Pläne für eine intermittierende, stark regulierte Stromversorgung, die zuerst an diejenigen mit hoher „sozialer Kreditwürdigkeit“ verteilt wird.

Während die „unverbesserliche, bedauernswerte“ Arbeiterklasse, deren Leben bereits durch diese grandiosen elitären Pläne gestört wird, diesen päpstlichen Vorhersagen misstraut hat, ist es der unaufhörlichen Propagandamaschinerie der staatlichen Schulen, der staatlichen Medien und sogar der sozialen Medien gelungen, den öffentlichen Widerstand abzuschwächen – bis vor kurzem.

Putins Krieg und die Energieknappheit, die unverschämten Preiserhöhungen und die Panik haben viele europäische Bevölkerungen radikalisiert (man denke nur an die niederländische Bauernrevolte und die Proteste gegen die hohen Energiepreise), so dass viele Länder ihre Pläne für den Ausstieg aus der Nutzung fossiler Brennstoffe zurückziehen und sich bemühen, noch vor dem Winter billigere, zuverlässigere und besser verfügbare Energiequellen zu finden.

In Bidens Vereinigten Staaten hingegen haben die Staats- und Regierungschefs gerade für Hunderte von Milliarden an neuen Subventionen für grüne Energie (weil diese Technologien teuer und unerwünscht sind) und für künstlich höhere Preise für herkömmliche Brennstoffe gestimmt und außerdem Verbrennungsmotoren und Gasgeräte verboten. Doch diese wirtschaftsfeindlichen Vorschriften könnten bald zur Disposition stehen.

Anzeichen dafür, dass die wissenschaftliche Gemeinschaft ihre Liebesaffäre mit der Klimakatastrophenpolitik bald beenden könnte, finden sich ausgerechnet in wissenschaftlichen Kommentaren zur brandneuen Summary for Policymakers des AR6 des IPCC. Der NASA-Klimaberater Gavin Schmidt zum Beispiel hat die IPCC-Modelle als unrealistisch und nicht durch Daten gestützt kritisiert.

Vor einem Jahr sagte Schmidt dem Magazin Science: „Im letzten Jahr ist klar geworden, dass wir diese Aufnahme nicht vermeiden können … Am Ende stehen Zahlen, selbst für die nahe Zukunft, die wahnsinnig beängstigend – und falsch – sind“. Die neuen Szenarien des IPCC-Berichts, die einen Temperaturanstieg von bis zu 5°C von 1850 bis 2100 vorhersagen, sind beispielsweise unvereinbar mit der derzeit beobachteten Erwärmung von 0,15°C pro Jahrzehnt, was einen weiteren Anstieg von 1,2°C bis 2100 bedeutet. Net Zero (Begrenzung des globalen Temperaturanstiegs auf 1,5 °C bis 2050) ist also auch ohne die drakonischen Umweltauflagen wahrscheinlich.

Vielleicht wird die von Putin verschärfte Energie- und damit verbundene Agrarkrise (da fossile Brennstoffe und Gülle die Grundlage für Düngemittel sind, die zusammen mit höheren Kohlendioxidwerten die Ernteerträge steigern) Europa und den Westen aufrütteln, damit sie erkennen, dass die einzige wirkliche Klimakatastrophe die Politik der Kohlenstoff-Hysteriker ist, die die ganze Welt in einen wirtschaftlichen Zusammenbruch und unnötige Kämpfe um begrenzte Ressourcen zu stürzen droht.

Vielleicht ist die Welt jetzt bereit, auf die mehr als 1.100 Wissenschaftler und Experten zu hören, die unter der Leitung des norwegischen Nobelpreisträgers Ivar Giaever die neue Erklärung von Climate Intelligence (CLINTEL) unterzeichnet haben, dass es „keinen Klimanotstand gibt“. Die unabhängige internationale Stiftung behauptet, dass „die Klimawissenschaft zu einer Diskussion verkommen ist, die auf Überzeugungen und nicht auf solider, selbstkritischer Wissenschaft basiert.“

In dem soeben veröffentlichten CLINTEL-Dokument heißt es, dass sowohl natürliche als auch vom Menschen verursachte Faktoren für den Klimawandel verantwortlich sind, und dass eigentlich jeder weiß, dass das Erdklima seit Bestehen des Planeten schwankt – mit natürlichen Kalt- und Warmzeiten.

Die vom IPCC favorisierten Klimamodelle haben nicht nur die Wirkung von Treibhausgasen (wie Kohlendioxid [CO2]) übertrieben, sie haben auch die Tatsache ignoriert, dass die Anreicherung der Atmosphäre mit CO2 viele Vorteile hat. Tatsache ist, dass CO2 für alles Leben auf der Erde unerlässlich ist und dass zusätzliches CO2 in der Atmosphäre das Wachstum der globalen Pflanzenbiomasse fördert und die Ernteerträge weltweit erhöht.

Außerdem, so die Wissenschaftler und Experten, gibt es keine statistischen Beweise dafür, dass die Erwärmung der globalen Temperaturen Wirbelstürme, Überschwemmungen, Dürren und ähnliche Naturkatastrophen verstärkt hat oder dass sie häufiger auftreten. Es gibt jedoch zahlreiche Belege dafür, dass CO2-Minderungsmaßnahmen ebenso schädlich wie kostspielig sind.

Die CLINTEL-Unterzeichner kamen daher zu dem Schluss, dass es keinen Grund für Panik und Alarm oder für eine Politik gibt, die den Menschen schadet, indem sie die Knappheit und die Kosten von Gütern und Dienstleistungen erhöht. Dort, wo Klimaveränderungen negative Auswirkungen haben, so das Gremium, lassen sich lokale Probleme viel besser durch Anpassung – und nicht durch Eindämmung – angehen.

Die Botschaft der CLINTEL-Unterzeichner an das angeschlagene Europa, Afrika und sogar die Vereinigten Staaten (die meisten asiatischen Staaten haben die Klimakatastrophisten ignoriert) ist einfach: Die Klimapolitik muss die wissenschaftlichen und wirtschaftlichen Realitäten respektieren – und die Bedürfnisse der Menschen nach erschwinglicher, zuverlässiger Energie und anderen Gütern und Dienstleistungen, die den weltweiten Marsch von der Armut zum Überfluss fortsetzen können.

Sollte die Welt die Barbarei von Wladimir Putin gebraucht haben, um diese einfache Botschaft zu lernen? Nein, natürlich nicht.

Aber der eiserne Griff der Machteliten auf die Weltwirtschaft und die globale Politik hatte den Westen wirklich in Angst und Schrecken versetzt, und die afrikanischen und anderen Nationen, die Kapitalinvestitionen benötigen, um ihre wachsende Bevölkerung mit den Annehmlichkeiten des 21. Jahrhunderts zu versorgen, wurden immer stärker, bis die Führer der Vereinigten Staaten und Russlands begannen, an den Energie- und Agrarlieferketten herumzupfuschen.

Was den Friedensnobelpreis angeht, der einmal an den Klimakumpanen Al Gore und einmal an den IPCC selbst ging, brauchen die Verantwortlichen des Instituts vielleicht eine Dosis Klimarealität.

This article originally appeared at Real Clear Energy

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2022/09/01/net-zero-s-the-real-climate-catastrophe/

Übersetzt von Christian Freuer für das EIKE