Temperaturvergleich: Vergangenheit und Gegenwart

von Untitled (call me Stephen)

Wie genau sind unsere historischen Temperatur-Aufzeichnungen?

Im Jahr 2021 brachte Bugatti den Chiron Super Sport 300+ auf den Markt. Die Bezeichnung „300+“ kommt daher, dass es sich um das erste Auto mit Straßenzulassung handelt, das Geschwindigkeiten über 300 km/h erreicht, obwohl die Serienmodelle elektronisch auf 271 km/h begrenzt sind.

Der Wagen kann in rund 40 Sekunden auf seine Höchstgeschwindigkeit von 490 km/h beschleunigen und in weniger als 15 Sekunden aus dieser Geschwindigkeit zum Stillstand kommen.

Der Tunnel im Dubliner Hafen wurde am 20. Dezember 2006 eröffnet. Technisch gesehen handelt es sich um zwei 4,5 km lange Tunnel, einen für jede Verkehrsrichtung.

Die Wände des Tunnels sind hart, im Gegensatz zu oberirdischen Autobahnen, die flexible Sicherheitsbarrieren haben. Ein Aufprall auf die Wände bei hohen Geschwindigkeiten wäre nicht nur für die Unfallbeteiligten tödlich, sondern könnte auch die strukturelle Integrität des Tunnels beschädigen.

Um die Verkehrsteilnehmer dazu zu bewegen, sich an die Geschwindigkeitsbegrenzung von 80 km/h zu halten, wurden Kameras zur Überwachung der Durchschnittsgeschwindigkeit installiert. Ein solches Kamerasystem besteht aus mindestens zwei Kameras (idealerweise aber mehr), die über die Region verteilt sind, in der die Geschwindigkeitsbegrenzung durchgesetzt werden soll.

Die billigste Variante wären zwei Kameras an jedem Tunnel, eine am Anfang und eine am Ende. Wenn der Zeitstempel Ihres Fahrzeugs beim Passieren der zweiten Kamera weniger als 202,5 Sekunden nach dem Passieren der ersten Kamera liegt, haben Sie die 4,5 km mit einer Durchschnittsgeschwindigkeit von mehr als 80 km/h zurückgelegt, was einen Strafzettel und Punkte für Ihren Führerschein zur Folge hat.

Besser wäre es, wenn mehr als zwei Kameras entlang des Tunnels verteilt wären, um zu verhindern, dass ein rücksichtsloser und idiotischer Chiron Super Sport 300+ Fahrer folgendes versucht…

– Fahren Sie mit einer rollenden Startgeschwindigkeit von 80 km/h in den Tunnel ein.

– Geben Sie Gas und erreichen Sie die Höchstgeschwindigkeit von 490km/h nach etwa 33,5s

– Halten Sie die Höchstgeschwindigkeit für etwa 1,5s.

– Bremse hart auf 30km/h über 3,5s

– Halten Sie die Geschwindigkeit von 30km/h für die restlichen 164 Sekunden der Fahrt.

Da dies genau 202,5 Sekunden dauert, ergibt sich bei nur zwei installierten Kameras pro Tunnel im Dubliner Hafentunnel eine Durchschnittsgeschwindigkeit von 80 km/h, obwohl die Geschwindigkeit des Autos zwischen 30 km/h und 490 km/h schwankte!

„Stephen, was genau haben der Bugatti Chiron Super Sport 300+ und der Dubliner Hafentunnel mit dem Vergleich der Temperaturen von gestern und heute zu tun“, höre ich Sie fragen. Bitte bleiben Sie dran. Ich hoffe, dass es Sinn macht, wenn Sie das Ende erreichen.

Das Thermometer ist eine relativ junge Erfindung. Während Galilei bereits 1603 mit Thermoskopen herumspielte, dauerte es bis 1724, als Daniel Gabriel Fahrenheit seine Thermometerskala vorschlug, bevor sich die Idee einer standardisierten Temperaturskala durchsetzte. Dass René-Antoine Ferchault de Réaumur und Anders Celsius 1732 und 1742 unterschiedliche und konkurrierende Normen vorschlugen, dürfte niemanden überraschen, der mit der Funktionsweise von Normen vertraut ist.

Leider konnte sich Réaumur mit seiner Wahl von 80 Grad zwischen Gefrier- und Siedepunkt von Wasser nicht durchsetzen.

Der größte Teil der Welt verwendet heute die Celsius-Skala, allerdings mit umgekehrten 0°C- und 100°C-Punkten gegenüber Anders‘ ursprünglichem Vorschlag. Nur die Vereinigten Staaten, die Bahamas, die Kaimaninseln, Palau, die Föderierten Staaten von Mikronesien und die Marshallinseln verwenden noch Fahrenheit.

Unsere frühesten tatsächlichen Temperaturmessungen, vor allem die aus der Zeit vor 1732, beruhen darauf, dass die Menschen entweder die ursprünglich verwendeten Thermometer später durch andere ersetzt oder ihre eigene Wahl der Referenz dokumentiert haben.

Es dauerte auch eine Weile, bis die Menschen herausfanden, wie sie die Temperatur messen konnten. Bei den meisten frühen Messungen handelte es sich um Innenraummessungen in unbeheizten Räumen, die einmal pro Tag aufgezeichnet wurden. Schließlich fand man heraus, dass das Thermometer zur Messung der Außentemperatur im Freien und im Schatten stehen musste.

Erst 1864 schlug Thomas Stevenson einen standardisierten Instrumentenschutz vor, und nach Vergleichen mit anderen Schutzvorrichtungen wurde 1884 sein endgültiger Entwurf für die Stevenson-Wetterhütte veröffentlicht.

Auch wenn wir heute über Leute lachen, welche die Außentemperatur mit einem Thermometer in einem unbeheizten Raum gemessen haben, weil der Raum eine große Wärmekapazität hat, d. h. es eine Weile dauert, bis er sich aufheizt und abkühlt, ist eine Messung in einem Raum pro Tag gar nicht so schlecht, um die durchschnittliche Außentemperatur zu messen.

Wenn man das Thermometer an einem gut belüfteten Ort im Freien aufstellt, z. B. in einer Stevenson-Wetterhütte, ändert sich die Temperatur sehr viel schneller. Wenn Sie die Durchschnittstemperatur messen wollen, muss man über den Tag und die Nacht verteilt mehrere Messungen vornehmen.

1780 erfand James Six ein Thermometer, das die Höchst- und Tiefsttemperaturen seit der Rückstellung festhielt. Da es jedoch auf Quecksilber zur Bewegung der Markierungen angewiesen war, konnte es bei niedrigen Temperaturen Probleme geben. Um 1790 hatte Daniel Rutherford Entwürfe für getrennte Minimum- und Maximum-Thermometer entwickelt, die mit Alkohol bzw. Quecksilber arbeiteten und eine größere Genauigkeit der beiden Messwerte ermöglichten.

Es sollte bis in die 1870er Jahre dauern, bis Minimum- und Maximumthermometer in großem Umfang zur Erfassung der Temperaturschwankungen eingesetzt wurden. Die längste Temperaturaufzeichnung, die Central England Temperature History, basiert zum Beispiel auf Beobachtungen für eine Vielzahl von Stunden vor 1877, wobei danach tägliche Tiefst- und Höchsttemperaturen verwendet wurden.

Meteorologen verwenden die täglichen Minimal- und Maximaltemperaturen, um die tägliche Durchschnittstemperatur zu schätzen, indem sie einfach den Durchschnitt der Minimal- und Maximaltemperaturen bilden. Dies wird als Taxn bezeichnet und die Formel lautet: Taxn=(Tmax+Tmin)/2.*

[*Anmerkung des Übersetzers: Das ist so nicht ganz richtig. Zumindest in Deutschland wurde die Mitteltemperatur steit den 1950er Jahren nach der Formel T07 + T13 + 2xT21/4 ermittelt. Mit der Einführung automatischer Sensoren wurden dann die stündlichen Temperaturwerte durch 24 geteilt. Am Institut für Meteorologie der Freien Universität Berlin wurden diese Mittelwerte mehrere Jahre lang parallel ermittelt. Die entsprechende Veröffentlichung war jedoch nicht mehr auffindbar. – Ende Anmerkung]

Verstehen Sie mich nicht falsch, wenn Sie nur die täglichen Minimal- und Maximaltemperaturen haben, ist die Mittelung der beiden die beste Schätzung, die Sie machen können, aber es ist nicht die tägliche Durchschnittstemperatur, die Tavg genannt wird, die Sie erhalten, wenn Sie die Temperatur idealerweise mehr als 20 Mal in gleichmäßigen Abständen über den 24-Stunden-Zeitraum messen und alle diese Ergebnisse mitteln.

Hier kommen der Bugatti Chiron Super Sport 300+ und der Dubliner Hafentunnel wieder ins Spiel. Wenn ich Ihnen sage, dass die Höchstgeschwindigkeit des Bugatti im Tunnel 490 km/h betrug und er nie langsamer als 30 km/h fuhr, würden wir bei Anwendung des Algorithmus der Meteorologen zu dem Schluss kommen, dass er im Durchschnitt mit (490+30)/2=260 km/h unterwegs war. Wir wissen jedoch von früher, dass es möglich ist, dass diese beiden Grenzwerte eine Durchschnittsgeschwindigkeit von 80 km/h ergeben.

Wenn man die Minimal- und Maximalgeschwindigkeiten im Tunnel bei 30km/h und 490km/h belässt, kann man eine Durchschnittsgeschwindigkeit zwischen 71km/h und 332km/h erreichen. Die von den Meteorologen ermittelte Durchschnittsgeschwindigkeit von 260 km/h liegt zwar in diesem Bereich, aber die Spanne ist recht groß.

Um ein weiteres Beispiel dafür zu geben, wie das Verfahren der Meteorologen zu einer Schätzung führen kann, die ein ganzes Stück daneben liegt: Nach Angaben des Irish Central Statistics Office [CSO] verdienten die obersten 1 % der Arbeitnehmer im Jahr 2022 mindestens 3 867 € pro Woche. Dagegen verdiente das untere 1 % der Arbeitnehmer höchstens 92 € pro Woche. Der durchschnittliche Wochenverdienst lag bei 856 € pro Woche, und nur 27 % der Arbeitnehmer verdienten mindestens diesen Betrag, wobei der mittlere Wochenverdienst 671 € betrug.

Quelle: CSO

Wenn wir den Durchschnitt von 3867 € und 92 € nehmen, sind das 1980 € pro Woche. Weniger als 6 % der Erwerbstätigen erhielten mindestens 1980 € pro Woche, so dass der Durchschnitt der Meteorologen bei der Schätzung des Einkommens oder der Durchschnittsgeschwindigkeit eines Bugatti im Hafentunnel ziemlich weit daneben liegt.

In den 1970er Jahren wurde es mit dem Aufkommen billiger Computer möglich, die Temperaturmessung zu automatisieren. Ein Computer hat keine Wahl: Wenn wir ihm sagen, er soll die Temperatur jede Stunde oder alle 5 Minuten messen, egal ob es regnet oder schneit, wird die Messung aufgezeichnet. Da die meisten Wetterstationen zwischen 1990 und 2010 auf automatische Messungen umgestellt haben, können wir jetzt die tatsächliche Durchschnittstemperatur, Tavg, messen.

Das Valentia Observatory liegt 1 km westlich von Cahirciveen, Co Kerry, und in diesem Gebiet wurde eine Wetterstation betrieben, die einige Temperaturaufzeichnungen für 1850-51 und kontinuierliche tägliche Min-Max-Aufzeichnungen seit Mitte Januar 1872 enthält. Die historischen Datensätze wurden sorgfältig transkribiert und sind bei Met Éireann erhältlich: 1850-1920 und 1921-1943. Im Jahr 1944 unternahm Met Éireann etwas Ungewöhnliches: Sie begannen, die Temperatur stündlich zu messen. Ob Regen oder Sonnenschein, Schneeregen oder Schnee, die fleißigen Mitarbeiter von Met Éireann gingen zur Wetterstation und zeichneten die Temperatur auf. Zwischen Januar 1944 und April 2012, als die Station durch eine automatische Station ersetzt wurde, wurden nur 2 Stunden ausgelassen. Der Datensatz ab 1944 ist auf der Website der irischen Regierung verfügbar: tägliche Zusammenfassung (einschließlich Mindest- und Höchsttemperatur) und stündliche Messungen.

Da sich die Messungen der Minimum- und Maximum-Thermometer und die 24 stündlichen Messungen für Valentia überschneiden, können wir überprüfen, wie groß die Differenz zwischen Tavg und Taxn ist, um zu sehen, wie genau das Verfahren der Meteorologen zur Schätzung der Durchschnittstemperatur aus Tmin und Tmax ist.

Das erste Diagramm zeigt die Differenz Tavg-Taxn für jeden Tag seit dem 14. Januar 1944 in Form von blauen Punkten. Überlagert wird der gleitende 1-Jahres-Durchschnitt durch eine rote Linie. Wenn Sie sich für die Statistik interessieren, ist Tavg in Valentia im Durchschnitt um 0,17ºC höher als Taxn (Standardabweichung 0,53, N=29339, min=-2,20, max=3,20).

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Wenn wir nur den gleitenden Durchschnitt betrachten, sehen wir, dass die Beziehung nicht konstant ist. In den 1970er Jahren war die Durchschnittstemperatur zum Beispiel durchschnittlich 0,35 ºC höher als die meteorologische Schätzung, während es in den späten 1940er, 1990er und 2000er Jahren Gelegenheiten gab, bei denen die meteorologische Schätzung etwas höher war als die tatsächliche tägliche Durchschnittstemperatur.

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Es ist wichtig zu betonen, dass diese mehrjährige Variabilität sowohl unerwartet als auch faszinierend ist, insbesondere für diejenigen, die Temperaturanomalien untersuchen. Abgesehen von der mehrjährigen Variabilität haben wir jedoch durch das Auftragen von fast 30.000 Datenpunkten auf die x-Achse vielleicht eine mögliche Erklärung dafür versteckt, warum die blauen Punkte typischerweise eine Streuung von etwa ±1ºC aufweisen… Ist die Streuung von ±1°C eine saisonale Variabilität?

Der kürzeste Tag des Jahres auf Valentia ist der 21. Dezember mit einer Tageslänge von etwa 7h55m. Der längste Tag des Jahres ist der 21. Juni mit einer Tageslänge von 16h57m. Am kürzesten Tag des Jahres hat die Sonne nur wenig Zeit, um die Luft aufzuheizen, und die meiste Zeit ist es dunkel, so dass wir davon ausgehen, dass Wärme verloren geht. Daher erwarten wir, dass die Durchschnittstemperatur im Winter näher an der Tiefsttemperatur liegt als im Sommer.

Wir können die jahreszeitlichen Auswirkungen auf die Differenz zwischen Tavg und Taxn überprüfen, indem wir uns eine zeitabhängige Korrelation ansehen. Da nicht jeder mit dieser Art der Analyse vertraut ist, zeige ich Ihnen zunächst die zeitabhängige Korrelation von Tavg mit sich selbst:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Die x-Achse gibt an, wie viele Tage zwischen den Messungen liegen, und die y-Achse ist der Pearson-Korrelationskoeffizient, bekannt als r, der misst, wie ähnlich die Messungen im Durchschnitt aller Daten sind. Ein Pearson-Korrelationskoeffizient von +1 bedeutet, dass die Veränderungen in der einen Variable genau mit den Veränderungen in der anderen übereinstimmen, ein Koeffizient von -1 bedeutet, dass die Veränderungen genau entgegengesetzt sind, und ein Korrelationskoeffizient von 0 bedeutet, dass die beiden Variablen keine Beziehung zueinander haben.

Der erste Punkt auf der x-Achse steht für einen Abstand von 1 Tag zwischen den durchschnittlichen Temperaturmessungen.

Die einfachste Wettervorhersage ist die folgende:

Morgen wird das Wetter im Wesentlichen so wie heute“

Der r-Wert von +0,91 für den Abstand von einem Tag veranschaulicht die Genauigkeit der trägsten Wettervorhersage und deutet darauf hin, dass sie für die Durchschnittstemperatur zu etwa 82 % richtig ist.

Bei einem Abstand von einem halben Jahr ergibt sich ein r-Wert von -0,64, der besagt, dass in sechs Monaten 41 % der durchschnittlichen Tagestemperatur als das Gegenteil der heutigen Temperatur erklärt werden können.

Im Abstand von einem Jahr beträgt der r-Wert 0,67, was bedeutet, dass 44 % der heutigen Durchschnittstemperatur als saisonal für diese Jahreszeit erklärt werden können. Das bedeutet, dass die einfachste Wettervorhersage nur 38 % besser erklärt als die saisonale Vorhersage.

Sie sehen sehr ähnliche Graphen, wenn Sie die zeitabhängige Korrelation von Tmax, Tmin oder Taxn betrachten, wobei die 1-Tages-r-Werte bei 0,90, 0,81 bzw. 0,90 liegen und die saisonale Schwankung etwa -0,6 bis +0,6 für 6 Monate und 1 Jahr beträgt.

Das obige Schaubild zeigt uns im Grunde, was zu erwarten ist, wenn etwas stark saisonabhängig ist.

Was passiert, wenn wir die zeitabhängige Korrelation von Tavg-Taxn darstellen? Nun, man erhält dies:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Die 1-Tages-Korrelation beträgt 0,19, was bedeutet, dass etwa 4 % des heutigen Korrekturfaktors zwischen Tavg und Taxn vorhergesagt werden können, wenn wir den gestrigen Korrekturfaktor kennen. Die Saisonalität ist sogar noch schlechter, der Korrelationskoeffizient für 6 Monate beträgt -0,02 und der Korrelationskoeffizient für 1 Jahr +0,07.

Dies beantwortet unsere frühere Frage… Die Streuung von ±1°C ist keine saisonale Variabilität.

Das bedeutet, dass, wenn wir nur Taxn kennen, Tavg überall ±1°C betragen könnte.

Hier ist ein weiteres Diagramm, um dies zu veranschaulichen. Die x-Achse ist Tavg und die y-Achse ist Taxn. Wenn die durchschnittliche Tagestemperatur höher ist, ist natürlich auch die durchschnittliche Tiefst- und Höchsttemperatur höher und wir erhalten eine gerade Linie mit der Steigung 1, aber die Dicke der Linie stellt die Unsicherheit der Beziehung dar. Wenn wir also wissen, dass Taxn bei 15°C liegt, können wir aus diesem Diagramm schließen, dass Tavg wahrscheinlich zwischen 13,5°C und 16,5°C liegt.

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Da die meisten Wetterstationen bis vor kurzem nicht stündlich aufzeichneten, sind die meisten unserer historischen Temperaturdaten in der Taxn-Form und nicht in der Tavg-Form. Das bedeutet, dass, wenn Valentia repräsentativ ist, die vergangenen Temperaturaufzeichnungen nur auf ±1°C genau sind. Wenn Ihnen jemand sagt, dass die Durchschnittstemperatur in Valentia am 31. Mai 1872 11,7 °C betrug, dann wissen wir das einfach nicht. Mit 95-prozentiger Wahrscheinlichkeit lag sie irgendwo zwischen 10,6ºC und 12,7ºC, und wir haben keine Möglichkeit, den genauen Wert herauszufinden, so wie die Kenntnis der Höchst- und Mindestgeschwindigkeiten des Bugatti im Hafentunnel nicht wirklich viel über seine durchschnittliche Geschwindigkeit aussagt.

In diesem letzten Diagramm zeigen die blauen Punkte den durchschnittlichen Taxn jedes Jahres in Valentia seit 1873 mit vertikalen Fehlerbalken, die das 95%-Konfidenzintervall anzeigen. Die roten Punkte zeigen den durchschnittlichen Tavg-Wert für jedes Jahr ab 1944, wobei die Fehlerbalken die jährlichen Schwankungen anzeigen. Das Blau, das unter dem Rot hervorsticht, zeigt den Unterschied zwischen der von den Meteorologen geschätzten Durchschnittstemperatur und der tatsächlichen Durchschnittstemperatur, selbst auf der Skala eines Jahresdurchschnitts:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Das Valentia Observatory ist eine der besten Wetterstationen der Welt. Seit der Umstellung auf automatisierte Stationen in den 1990er Jahren können wir nun genaue Durchschnittstemperaturen ermitteln.

Dank der akribischen Arbeit der früheren und heutigen Mitarbeiter des Valentia Observatory und von Met Éireann verfügen wir über 80 Jahre an Daten, die einen Vergleich der alten Schätzmethoden mit den tatsächlichen Durchschnittswerten ermöglichen.

Die Schlussfolgerung?

Unsere historischen Temperaturaufzeichnungen sind weit weniger genau, als wir einst glaubten.

Link: https://wattsupwiththat.com/2024/06/01/comparing-temperatures-past-and-present/

Übersetzt von Christian Freuer für das EIKE

 




Woher kommt der Strom? Strompreis über die Mittagszeit im Keller

 21. Analysewoche 2024 von Rüdiger Stobbe

Am Montag war der erste Tag der Woche, an dem der Strompreis über die Mittagszeit in den Keller fiel. Zwei Stunden war der Preis sogar minimal negativ. Am Samstag lag der Strompreis von 13:00 bis 15:00 Uhr bei 0€/MWh, wurde also „nur“ verschenkt. Sonntag hingegen wurde von 9:00 bis 11:00 Uhr der Strom verschenkt. Ab 11:00 bis 16:00 Uhr wurde zum verschenkten Strom noch ein Abnahmebonus (Negative Strompreise) mitgegeben. Weil die Negativpreisphase mehr als zwei Stunden andauerte, wird den regenerativen Stromerzeugern keine Vergütung gezahlt. Die konventionelle Stromerzeugung zwecks Netzstabilisierung wird als Systemdienstleistung abgegolten. Der Abnahmebonus wird vom Stromkunden (Sie und ich) übernommen. Jetzt beginnt die sonnenreiche Zeit, dieses Szenario wird ab diesem Frühling/Sommer Standard werden. Wobei noch anzumerken wäre, dass Betreiber von Dachsolaranlagen auf dem Ein- oder Zweifamilienhaus nicht betroffen sind. Sie erhalten die vereinbarte Vergütung für den erzeugten Strom. Das kostet dann den Staat, den Steuerzahlern (ebenfalls Sie und ich) richtig Geld. Die Politik, hier in Form der FDP, ist bereits auf das Problem aufmerksam geworden. Das Handelsblatt berichtet am 30.5.2024:

Die FDP will die Förderung nach dem Erneuerbare-Energien-Gesetz (EEG) für Neuanlagen beenden. Außerdem soll die EEG-Förderung künftig schneller als bislang entfallen, sobald an der Strombörse negative Preise auftreten. Zusätzlich fordern die Liberalen, den Ausbau der Erneuerbaren und der Netze stärker mit der Stromnachfrage zu verzahnen. Die Rolle von Stromspeichern soll gestärkt werden. Durch den rasanten Ausbau insbesondere der Photovoltaik wird der Bundeshaushalt stark belastet, weil Anlagenbetreiber eine Vergütung bekommen. Diese Kosten wollen die Liberalen reduzieren. „Bei jeder Stunde mit negativen Strompreisen zahlt der Steuerzahler doppelt, denn der Staat bezahlt für die Stromproduktion und für die Abnahme“, sagte Michael Kruse, energiepolitischer Sprecher der FDP-Bundestagsfraktion, dem Handelsblatt. Negative Strompreise erklären sich so: Immer dann, wenn mehr Strom kurzfristig – am sogenannten Spotmarkt – gehandelt wird, als sinnvoll verbraucht werden kann, müssen die Stromverkäufer ihren Käufern noch Geld mitgeben, damit diese den Strom abnehmen. Alternativen gibt es in diesen Situationen nicht, weil Strom nur in begrenztem Umfang gepuffert werden kann: Es fehlen die entsprechenden Speicherkapazitäten.

Das Fehlen – und das wird sich in Zukunft kaum ändern – von Stromspeichern insbesondere auch im Kurzfristbereich führt dazu, dass der eben noch mit Bonus verschenkte Strom bereits eine Stunde später zu saftigen Preise zurückgekauft werden muss. Es ist selbstverständlich nicht der gleiche Strom. Aber unsere Nachbarn sind in der Lage, die bundesdeute Nachfrage aus Speichern oder entsprechender Stromproduktion zu befriedigen. Sie haben sich auf diese Form des schnellen Geldverdienens eingestellt und profitieren erheblich von der deutschen Energiewende. Beispiel: Am 26.5.2024 um 16:00 Uhr wurde der Strom noch mit einem Bonus von 0,6€/MWh verschenkt. Um 17:00 Uhr kaufte Deutschland aus dem Ausland Strom für 57€/MWh zurück. Um 18:00 Uhr waren es bereits 93,30€/MWh und ab 19:00 Uhr mussten um die 120€/MWh gezahlt werden. Erst ab 22:00 Uhr begann der Importstrompreis zu sinken. Er unterschritt die 70€/MWh nicht. Um 7:00 Uhr am Folgetag stieg er wieder auf über 120€/MWh. Alles Weitere in der nächsten Analysewoche. Nur so viel: Das Wetter trübte ein. Es gab keine negativen Strompreise. Dafür wurde die ganze Woche (Stichtag 31.5.2024) ohne Unterbrechung Strom auf hohem Preisniveau importiert.

Brandaktuelle Nachricht aus Österreich: Einspeisevergütung um 80 % gekappt: 20.000 Solarbesitzer erhalten Kündigung

Wochenüberblick

Montag, 20.5.2024 bis Sonntag, 26.5.2024Anteil Wind- und PV-Strom 47,7 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 64,0 Prozent, davon Windstrom 19,5 Prozent, PV-Strom 28,2 Prozent, Strom Biomasse/Wasserkraft 16,3 Prozent.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 21. Analysewoche ab 2016.

Daten, Charts, Tabellen & Prognosen zur 21. KW 2024: Factsheet KW 21/2024 – ChartProduktionHandelswocheImport/Export/Preise, CO2Agora-Chart 68 Prozent AusbaugradAgora-Chart 86 Prozent Ausbaugrad.

  • NEU: Meilenstein – Klimawandel & die Physik der Wärme
  • Klima-History 2: Video-Schatz des ÖRR aus dem Jahr 2010 zum Klimawandel
  • Klima-History 1: Video-Schatz aus dem Jahr 2007 zum Klimawandel.
  • Interview mit Rüdiger Stobbe zum Thema Wasserstoff plus Zusatzinformationen
  • Weitere Interviews mit Rüdiger Stobbe zu Energiethemen
  • Viele weitere Zusatzinformationen
  • Achtung: Es gibt aktuell praktisch keinen überschüssigen PV-Strom (Photovoltaik). Ebenso wenig gibt es überschüssigen Windstrom. Auch in der Summe der Stromerzeugung mittels beider Energieträger plus Biomassestrom plus Laufwasserstrom gibt es fast keine Überschüsse. Der Beleg 2022, der Beleg 2023/24. Strom-Überschüsse werden bis auf wenige Stunden immer konventionell erzeugt. Aber es werden, insbesondere über die Mittagszeit, immer mehr!

Jahresüberblick 2024 bis zum 26. Mai 2024

Daten, Charts, Tabellen & Prognose zum bisherigen Jahr 2024Chart 1Chart 2ProduktionStromhandelImport/Export/Preise/CO2

Tagesanalysen

Was man wissen muss: Die Wind- und PV-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem bisherigen Jahresverlauf 2024 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.

Eine große Menge Strom wird im Sommer über Tag mit PV-Anlagen erzeugt. Das führt regelmäßig zu hohen Durchschnittswerten regenerativ erzeugten Stroms. Was allerdings irreführend ist, denn der erzeugte Strom ist ungleichmäßig verteilt.

Montag, 20.5.2024: Anteil Wind- und PV-Strom 52,3 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 71,0 Prozent, davon Windstrom 12,9 Prozent, PV-Strom 39,4 Prozent, Strom Biomasse/Wasserkraft 18,7 Prozent.

PV-Stromerzeugung ist stark, Windstromerzeugung steigt erst im Verlauf des Tages etwas an. Der Preis sinkt über Mittag Richtung Null-Linie. 

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 20. Mai ab 2016.

Daten, Charts, Tabellen & Prognosen zum 20.5.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Dienstag, 21.5.2024: Anteil Wind- und PV-Strom 55,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 69,8 Prozent, davon Windstrom 36,0 Prozent, PV-Strom 19,7 Prozent, Strom Biomasse/Wasserkraft 14,1 Prozent.

Die PV-Stromerzeugung sinkt, die Windstromerzeugung steigt, ganztägiger Stromimport auf hohem Preisniveau. Der Strompreis bewegt sich entsprechend der Nachfragezeiten. 

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 21. Mai ab 2016.

Daten, Charts, Tabellen & Prognosen zum 21.5.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Mittwoch, 22.5.2024: Anteil Wind- und PV-Strom 50,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,5 Prozent, davon Windstrom  32,7 Prozent, PV-Strom 18,2 Prozent, Strom Biomasse/Wasserkraft 14,6 Prozent.

Die Windstromerzeugung sinkt über Tag, die PV-Stromerzeugung ist schwach. Die Strompreisbildung. 

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 22. Mai 2016.

Daten, Charts, Tabellen & Prognosen zum 22.5.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Donnerstag, 23.5.2024: Anteil Wind- und PV-Strom 43,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 58,4 Prozent, davon Windstrom 13,8 Prozent, PV-Strom 29,2 Prozent, Strom Biomasse/Wasserkraft 15,4 Prozent.

Die Windstromerzeugung geht Richtung Null-Linie. Die PV-Stromerzeugung erholt sich. Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 23. Mai ab 2016.

Daten, Charts, Tabellen & Prognosen zum 23.5.2024: ChartProduktion, HandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Freitag, 24.5. 2024: Anteil Wind- und PV-Strom 35,2 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,0 Prozent, davon Windstrom 10,7 Prozent, PV-Strom 24,6 Prozent, Strom Biomasse/Wasserkraft 15,8 Prozent.

Etwas mehr Windstromerzeugung bei heute wieder recht schwacher PV-Stromerzeugung. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 24. Mai ab 2016.

Daten, Charts, Tabellen & Prognosen zum 24.5.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Samstag, 25.5. 2024: Anteil Wind- und PV-Strom 44,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 63,2 Prozent, davon Windstrom 11,3 Prozent, PV-Strom 33,4 Prozent, Strom Biomasse/Wasserkraft 18,5 Prozent.

Kaum Windstrom bei bezogen auf den Bedarf hoher PV-Stromerzeugung. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 25. Mai ab 2016.

Daten, Tabellen & Prognosen zum 25.5.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Sonntag, 26.5.2024: Anteil Wind- und PV-Strom 51,8 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 69,7 Prozent, davon Windstrom 13,0 Prozent, PV-Strom 38,8 Prozent, Strom Biomasse/Wasserkraft 17,9 Prozent.

Von 10:00 bis 14:00 Uhr reicht die regenerative Stromerzeugung um den geringen Sonntagsbedarf zu decken. Die Preise werden von 11:00 bis 16:00 Uhr negativ. 

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 26. Mai ab 2016.

Daten, Charts, Tabellen & Prognosen zum 26.5.2024: Chart, ProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Die bisherigen Artikel der Kolumne Woher kommt der Strom? seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Rüdiger Stobbe betreibt seit 2016 den Politikblog MEDIAGNOSE.




Anstieg der Meeresspiegel – findet er wirklich statt? Klimawissen – kurz&bündig

No. 45 – Die Regierung der Malediven hielt vor 15 Jahren eine Kabinettsitzung unter Wasser ab, um den eigenen Untergang durch den Anstieg des Meeres zu illustrieren. Heute hingegen werden neue Flughäfen im Inselstaat gebaut – Untergang adé.

Ist die Geschichte vom Untergang der Südseeinseln durch die angeblich menschgemachte Erderwärmung also falsch? Eins ist sicher: Inseln sind keine statischen Gebilde – sie verändern sich mit und ohne „Klima“ laufend – z.B. durch Anspülung, Abtragung, Kontinentaldrift usw.




So viel zum Thema „Peer Review“ – Wiley stellt 19 wissenschaftliche Journale ein und zieht 11.000 Kauderwelsch-Artikel zurück

By Jo Nova

Als Beweis dafür, dass unbezahlte anonyme Gutachten jeden Cent wert sind, hat der 217 Jahre alte Wissenschaftsverlag Wiley 11.300 gefakte Artikel [wissenschaftlich nicht begründet, … nicht haltbar – der Übersetzer] „begutachtet“, ohne es überhaupt zu bemerken. Das ist nicht nur Betrug, das ist eine ganze Industrie. Nackte „Kauderwelsch-Sandwiches“ haben das Peer Review bestanden, und die Expertengutachter haben nicht einmal mit der Wimper gezuckt.

Die Regierung [deep state] und das große Geld haben die Wissenschaft vereinnahmt und erdrosselt. Je mehr Geld sie hineinpumpen, desto schlimmer wird es. John Wiley and Sons ist ein 2-Milliarden-Dollar-Unternehmen, aber wurde von kriminellen Banden benutzt, um falsche „Wissenschaft“ als etwas Echtes auszugeben.

Die Dinge sind so schlimm, dass falsche Wissenschaftler professionelle Schummeldienste bezahlen, die KI verwenden, um Artikel zu erstellen und die Worte so zu verfälschen, dass sie „originell“ aussehen. So wird aus einem Artikel über „Brustkrebs“ eine Entdeckung über „Brustgefahr“ und aus einem „naiven Bayes“-Klassifikator wird ein „leichtgläubiger Bayes“. Eine Ameisenkolonie wurde als „unterirdischer, gruseliger Krabbelstaat“ bezeichnet.

Und was bedeutet das Verhältnis zwischen „flag to clamor“? Nun, altmodische Wissenschaftler würden es vielleicht „Signal zu Rauschen“ nennen. Der Unsinn nimmt kein Ende.

Ein „zufälliger Wald“ ist nicht immer dasselbe wie ein „unregelmäßiger Hinterwald“ oder ein „beliebiges Baumgebiet“ – insbesondere, wenn Sie eine Arbeit über maschinelles Lernen und Entscheidungsbäume schreiben.

Das Schockierendste ist, dass kein menschliches Gehirn die Worte auch nur spät am Freitagabend noch einmal durchgesehen hat, bevor sie das heilige Peer Review bestanden und auf die heiligen Seiten der wissenschaftlichen Literatur gelangten. Selbst ein weingetränkter Student im dritten Jahr mit Berufserfahrung hätte sicherlich die Augenbrauen hochgezogen, als aus lokaler Durchschnittsenergie „territoriale normale Vitalität“ wurde. Und als aus einem Zufallswert eine „unregelmäßige Wertschätzung“ wurde. Lassen Sie mich einfach eine unregelmäßige Schätzung für Sie in Python generieren? [.. Programmiersprache]

Wenn es so etwas wie wissenschaftliche Stand-up-Comedy gäbe, könnten wir jede Menge Material bekommen, nicht indem wir ChatGPT bitten, lustig zu sein, sondern indem wir es bitten, zu schummeln. Wo sonst könnte man über einen mittleren quadratischen Fehler sprechen?

Wiley – ein Mega-Verlag für wissenschaftliche Artikel – hat zugegeben, dass 19 Zeitschriften aufgrund von potenziellem Betrug so wertlos sind, dass sie geschlossen werden müssten. Und die Branche entwickelt jetzt KI-Tools, um die KI-Fälschungen zu erkennen (gibt Ihnen das ein gutes Gefühl?)

 

Flut an Pseudowissenschaft führt zur Schließung mehrerer Fachzeitschriften, durch Betrug verseucht

EMIL LENDOF, THE WALL STREET JOURNAL

By Nidhi Subbaraman, May 14, 2024

Die Verlage führender wissenschaftlicher Zeitschriften sind mit gefälschten Studien überschwemmt worden, was zu Tausenden von Rückzügen und Einnahmeverlusten in Millionenhöhe geführt hat. Am schlimmsten betroffen ist Wiley, ein 217 Jahre alter Verlag mit Sitz in Hoboken, New Jersey, der die Einstellung von 19 Journals bekannt gegeben hat, von denen einige von groß angelegtem Forschungsbetrug betroffen waren.

In den letzten zwei Jahren hat Wiley mehr als 11.300 fragwürdige Arbeiten zurückgezogen und vier Zeitschriften eingestellt. Wiley ist nicht der einzige Verlag: Mindestens zwei weitere Verlage haben jeweils Hunderte fragwürdiger Arbeiten zurückgezogen. Mehrere andere haben kleinere Gruppen fragwürdiger Arbeiten zurückgezogen.

Obwohl dieser groß angelegte Betrug nur einen kleinen Prozentsatz der Einreichungen bei Fachzeitschriften betrifft, bedroht er die Legitimität der fast 30 Milliarden Dollar schweren wissenschaftlichen Verlagsbranche  und die Glaubwürdigkeit der Wissenschaft als Ganzes.

Wissenschaftliche Arbeiten enthalten normalerweise Zitate, welche die Vorarbeit würdigen, die der Forschung zugrunde lag. Doch die verdächtigen Arbeiten enthielten Listen mit irrelevanten Referenzen. Mehrere Arbeiten enthielten technisch klingende Passagen, die mittendrin eingefügt waren, was Bishop als „ KI-Kauderwelsch-Sandwich “ bezeichnete. Fast identische Kontakt-E-Mails in einer Gruppe von Studien waren alle auf eine Universität in China registriert, an der nur wenige, wenn überhaupt, der Autoren tätig waren. Es schien, als stammten sie alle von derselben Quelle.

Eines dieser Tools, der „Problematic Paper Screener“, wird von Guillaume Cabanac betrieben, einem  Informatikforscher, der an der Université Toulouse III-Paul Sabatier in Frankreich das wissenschaftliche Publizieren erforscht. Der Screener durchsucht die gesamte veröffentlichte Literatur – rund 130 Millionen Aufsätze – und sucht nach einer Reihe von Warnsignalen, darunter auch “tortured phrases.” [~ gequälte Formulierungen].

Cabanac und seine Kollegen stellten fest, dass Forscher, die Plagiatsdetektoren umgehen wollten, wichtige wissenschaftliche Begriffe durch Synonyme aus automatischen Textgeneratoren ersetzten, was zu komisch unpassenden Formulierungen führte. Aus „Brustkrebs“ wurde „Brustgefahr“, aus „Fluiddynamik“ wurde „klebriger Strom“, aus „künstlicher Intelligenz“ wurde „gefälschtes Bewusstsein“. Das Tool ist öffentlich verfügbar.

„Generative KI hat ihnen gerade einen Lottogewinn beschert“, sagte Eggleton von IOP Publishing. „Sie können es wirklich billig und in großem Maßstab bekommen und die Erkennungsmethoden sind nicht dort, wo wir sie brauchen. Ich kann nur sehen, dass diese Herausforderung immer größer wird.“

 

Auch der australische Sender ABC schrieb darüber, allerdings nur, weil er sich Sorgen über den Vertrauensverlust der Öffentlichkeit in seine Lieblingsuniversitäten macht:

Für ABC ist Peer Review wie die Bibel und Universitäten sind die Kirche. Die Öffentlichkeit muss daran glauben!

Also sucht ABC nach Ausreden … Ach! Diese armen, armen Universitäten, die gezwungen wurden, Milliardenunternehmen zu werden, indem sie Kindern reicher chinesischer Familien faktisch australische Staatsbürgerschaften verkaufen. Wenn sie nur mehr Geld bekämen, müssten sich ihre Vizekanzler nicht mit Millionengehältern und der Bestrafung von Professoren, die auf Betrug aufmerksam machen , zufrieden geben , sondern hätten stattdessen Zeit, Nachforschungen anzustellen und den Betrug zu verhindern.

 

Wileys „Fake Science“-Skandal ist nur das jüngste Kapitel einer umfassenderen Vertrauenskrise, mit der sich Universitäten auseinandersetzen müssen

Von Linton Besser, ABC News

Es [das Wiley-Debakel] veranschaulicht auch, dass es sich lediglich um eine weitere Front in einer viel umfassenderen Vertrauenskrise handelt, mit der Universitäten und wissenschaftliche Institutionen weltweit konfrontiert sind.

Seit Jahrzehnten sind die Lehrqualität und die akademische Integrität an Universitäten in Gefahr. Da sie keine öffentlichen Gelder mehr erhalten, haben sie sich auf das äußerst lukrative Geschäft des Verkaufs von Studienabschlüssen an ausländische Studierende verlegt.

Da die tertiären Bildungseinrichtungen mit Schülern zu kämpfen haben, deren Englischkenntnisse unzureichend sind, sind sie an routinemäßige Betrugs- und Plagiatsskandale gewöhnt. Ein weiterer Betrug, der im Internetzeitalter perfektioniert wurde.

Diese Infektion – die Kommerzialisierung der Wissenschaft, die Industrialisierung des Betrugs – hat sich mittlerweile bis ins Herz der wissenschaftlichen, höheren Forschung ausgebreitet.

Da ihre Karrieren vom Glanz ihrer von Experten begutachteten Titel geprägt sind, stehen Forscher auf der ganzen Welt unter enormem Publikationsdruck. Leiden die Forscher, die gezwungen sind, für gefälschte Veröffentlichungen zu zahlen, nur damit sie „ihre Arbeit machen“ können? Entlassen Sie sie alle.

Die ABC ist einer der Gründe, warum die Wissenschaft bis ins Mark korrupt ist. Die ABC Science Unit wird dafür bezahlt, Pseudowissenschaft aufzudecken, doch stattdessen bietet sie Deckung für die heidnische Hexerei, die als moderne Forschung durchgeht.

Der Verfall bei Wiley begann vor Jahrzehnten, wurde aber aufgedeckt, als das Unternehmen 298 Millionen US-Dollar für einen ägyptischen Verlag namens Hindawi ausgab. Wir könnten sagen, wir hoffen, dass keine Babys durch gefälschte Artikel verletzt werden, aber wir wissen, dass schlechte Wissenschaft bereits Menschen tötet. Was wir brauchen, sind keine „von Experten begutachteten“ Artikel, sondern eine echte, persönliche Debatte. Nur wenn die besten beider Seiten Fragen mit den Daten beantworten müssen, werden wir echte Wissenschaft bekommen:

Im März gab das  Unternehmen gegenüber der NYSE  einen Einbruch der Forschungseinnahmen um 9 Millionen US-Dollar bekannt, nachdem es gezwungen war, die Veröffentlichung sogenannter „Special Issue“-Journals von Hindawi [Nachdrucke], was es 2021 für 298 Millionen US-Dollar erworben hatte, zu „pausieren“.

In der Erklärung hieß es, das Hindawi-Programm, das rund 250 Zeitschriften umfasste, sei „vorübergehend ausgesetzt worden, da in bestimmten Sonderausgaben kompromittierte Artikel enthalten waren“.

Viele dieser verdächtigen Arbeiten gaben vor, seriöse medizinische Studien zu sein, darunter  Untersuchungen zur Arzneimittelresistenz  bei Neugeborenen mit Lungenentzündung und zum Wert von MRT-Scans bei der  Diagnose früher Lebererkrankungen. Zu den betroffenen Zeitschriften gehörten Disease Markers, BioMed Research International und Computational Intelligence and Neuroscience.

Das Problem wird immer dringlicher. Die jüngste Explosion der künstlichen Intelligenz erhöht den Druck noch weiter. Ein Forscher am University College London fand kürzlich heraus, dass mehr als ein Prozent aller im letzten Jahr veröffentlichten wissenschaftlichen Artikel – rund 60.000 Artikel – wahrscheinlich von einem Computer geschrieben wurden.

In manchen Bereichen ist es sogar noch schlimmer. Fast  jede fünfte in den letzten vier Jahren veröffentlichte Informatik-Arbeit wurde wahrscheinlich nicht von Menschen geschrieben.

Auch wenn jede fünfte Informatikarbeit von Computern geschrieben wird, ist dies nur die Spitze des Eisbergs der Fäulnis, die im Kern der „Peer-Review-Forschung“ steckt. Die wahre Fäulnis sind nicht die kleinen Betrüger, die Arbeiten verfassen, die niemand liest, um ihren Lebenslauf aufzupolieren. Es sind die institutionellen Parasiten, die Milliarden von Steuergeldern nehmen, um modellierten Müll zu produzieren, der den Diebstahl von Billionen rechtfertigen soll. Aber das ist eine andere Geschichte.

PS: Hätten Sie, dass wissenschaftliche Zeitschriften eine 30-Milliarden-Dollar-Industrie sind?

https://www.joannenova.com.au/2024/05/so-much-for-peer-review-wiley-shuts-down-19-science-journals-and-retracts-11000-fraudulent-or-gobblygook-papers/

Übersetzt durch Andreas Demmig

 




Die Maitemperaturreihe des Deutschen Wetterdienstes: Keine CO₂-Erwärmungswirkung erkennbar. Teil 2

Teil 2: Der unterschiedliche Verlauf der Tageshöchst- und Nachttiefsttemperaturen beim Monat Mai (T-max/T-min)

 

Von Matthias Baritz, Josef Kowatsch

Teil 1 steht hier.

– Der Klimawandel (Erwärmung) fand in Mittel- und Westeuropa erst im Jahre 1987/88 statt

– Keine Maierwärmung erkennbar

– Die Schere zwischen Tag und Nachttemperaturen öffnet sich seit dem Klimawandel

Der diesjährigen Mai 2023 mit 14,9°C soll laut DWD der fünftwärmste seit Messbeginn gewesen sein. Angeblich 2 Grad über dem Schnitt der letzten 30 Jahre, festgestellt mit den heutigen Messstationen, die an ganz anderen Plätzen stehen wie vor 30 Jahren, aber vor allem wie vor 140 Jahren und mit ganz anderen Messmethoden erfasst werden. Wir hatten damals ein ganz anderes, weniger dicht besiedeltes Deutschland mit einer geradezu mickrigen Wärmefreisetzung pro Person. Doch diese Unterschiede des zweifelhaften Temperaurvergleichs sind nicht Hauptbestandteil des Artikels. Wir arbeiten im Artikel mit den Maitemperaturreihen wie der Deutsche Wetterdienst (DWD) sie ins Internet stellt und führen keine Korrektur zur besseren (richtigen) Vergleichbarkeit von heute und früher durch.

Abb.1: 31 Tagesmessungen ergeben den Mai-Schnitt für 1 Jahr. In früheren Jahrzehnten wurde diese Tagesmessung nach einer anderen Methode und analog in der englischen Wetterhütte ermittelt, die auch noch meist an einem anderen Platz stand als die heutige Ermittlung nach DWD-Norm.

Ergebnis: Die Daten des Deutschen Wetterdienstes zeigen: Es gibt keine Korrelation zwischen dem Temperaturverhalten des Monats Mai und der steten Zunahme der CO₂-Konzentrationen in der Atmosphäre.

Abb. 2: Steiler und stetiger CO₂-Anstieg in der Atmosphäre, vor allem seit 1970, Daten vor 1958 nach NOAA

Nun die Grafik 1, Maiverlauf von Deutschland mit Tmax und Tmin

Noch eindeutiger wird die Nichtkorrelation zwischen CO₂-Anstieg und Maitemperaturen, wenn man die Tageshöchst- und die Nachttiefsttemperaturen mitzeichnet. Die liegen allerdings beim DWD erst zuverlässig nach dem Kriege vor.

Abb.3: Die obere Reihe zeigt die Tageshöchst- die untere Reihe die nächtlichen T-min Verläufe, die mittlere Grafikreihe den Tagesmittelverlauf. Mehr als etwa 537 Stationen gibt es nicht, die durchgehend alle drei Reihen messen. Allerdings wurden die Standorte der Messstationen im Zeitraum oftmals verändert. Wir arbeiten hier mit den Original-DWD Temperaturen wie der DWD diese in Netz stellt.

Ergebnis: Ein gänzlich anderer Verlauf vor und nach dem Temperatursprung

Tmax: bis 1987 deutlich fallend, Temperatursprung, seitdem ebene Trendlinie

Schnitt: bis 1987 fallend, Temperatursprung, danach leicht fallend.

Tmin: ab 1947 unbedeutend fallend, Temperatursprung, seit 1988 werden die Nächte kälter.

Erkenntnis: vor dem Temperatursprung hat sich die Schere zwischen T-max und T-min leicht verringert, nach dem Temperatursprung geht die Schere zwischen T-max und T-min auseinander. Vor allem die Mainächte werden kälter, die Tage bleiben gleich.

Wo ist der angeblich stark und stetig wirkende CO₂-Treibhauseffekt in den beiden Maitemperaturgrafiken erkennbar? Antwort: Nirgendwo.

Beachte: Der DWD stellt zwar die Daten für die Grafik 3 ins Netz, aber die dazugehörige Grafik veröffentlicht er nirgendwo. Die Grafikauswertung findet man nur bei uns. Aus dem Grund kann der politische Vorstand des DWD alles gegenüber den Medien behaupten, die Redakteure überprüfen eh nichts. Recherche heißt lediglich, dass sie überprüfen, ob der Betreffende etwas so gesagt hat wie wiedergegeben. Recherche heißt nicht, ob er auch die Wahrheit gesagt hat. Vor allem Politiker wissen das und verbreiten Halbwahrheiten.

Merke: Durch die Temperaturreihen des Monats Mai und die dazugehörige Grafik beweist der Deutsche Wetterdienst, es gibt keinen erkennbaren wärmenden Einfluss von Kohlendioxdid auf den Temperaturverlauf.

CO₂ kann nicht über 40 Jahre lang bis 1987 abkühlend wirken, dann mit der Gründung des Weltklimarates plötzlich aufgeschreckt werden und einen Temperatursprung verursachen und dann wieder einschlafen, bzw. nur noch nachts abkühlend wirken.

Dabei sollte doch laut dem RTL-Klimaexperten Christian Häckl der Treibhauseffekt nachts stärker wirken als tagsüber, hier seine Theorie ausführlich und verständlich beschrieben. Es gibt nur einen Nachteil: die Vorhersagen sind grottenfalsch, weil die Realität der DWD-Temperaturreihen das Gegenteil von dem zeigt, was Härtl schreibt. Es ist aber auch zu dumm, wenn der DWD zwar die T-min/T-max erhebt, aber selbst nirgendwo eine Grafik anbietet und überzeugte Treibhausexperten dann ohne Beweis irgendwas behaupten dürfen. Doch raten wir Herrn Häckl, sich wenigstens die Daten der in der RTL-Nähe befindlichen Wetterstation Düsseldorf geben zu lassen.

Deswegen ist auch die mainstream-Definition für Klimawandel grottenfalsch, die behauptet, dass in der Neuzeit hauptsächlich das vom Menschen ausgestoßene CO₂ zu der neuzeitlichen Klimaerwärmung geführt hat.

Dabei bestreitet das Autorenteam nicht, dass CO₂ und andere Moleküle im IR-Bereich absorbieren. Aber die daraus abgeleitete Hypothese einer starken Atmosphärenerwärmung ist nicht nachweisbar. CO₂ wirkt allerhöchstens unscheinbar in homöopathischen Dosen.

Erkenntnis: Das Treibhauserwärmungsmodell der bezahlten Wissenschaft und der Politik ist ein Geschäftsmodell. Es handelt sich um eine bewusst geplante Panikmache, eine Wissenschaft des finsteren Mittelalters, die vor allem Kinder und Jugendliche in Angst und Schrecken versetzen will. Da geht’s nur ums Geld und einen CO₂-Ablaßhandel. Diesem Vorhaben müssen wir energisch entgegentreten.

Außer den Maitemperaturreihen des Deutschen Wetterdienstes gibt es noch weitere Gründe, die zeigen, dass Kohlendioxid keine oder nur eine minimale Erwärmungswirkung hat: So gibt es keinen Versuchsnachweis, der die behaupteten 2 bis 5 Grad Klimasensitivität nachweisen kann. Es gibt auch keinerlei technischen Anwendungen dieses behaupteten Treibhauseffektes. Und es gibt keinerlei Freibeobachtungen, wo eine dauerhaft erhöhte CO₂-Konzentration für ein wärmeres Gebiet sorgt.

Schlussfolgerungen der seriösen Naturwissenschaft aus den DWD-Datenreihen:

Kohlendioxid kann nicht über 140 Jahre gar nicht wirken, dann im Jahre 1987 auf 1988 just zur Gründung des Weltklimarates aufschrecken und eine plötzliche Erwärmungswirkung von einem Grad hinzaubern, um dann wieder in den Dornröschenschlaf zu verfallen. Solche physikalischen Gaseigenschaften gibt es nicht.

Entweder wirkt CO₂ überhaupt nicht erwärmend oder nur in unbedeutendem Maße oder sogar unbedeutend abkühlend. Auch dafür gibt es plausible Begründungen und mathematische Herleitungen.

Und: Eine Klimapanik vor einer angeblichen Erderhitzung durch Treibhausgase ist völlig unbegründet. Sie ist ein raffiniertes Geschäftsmodell, das über Angst- und Panikmache unser Geld will in Form einer CO₂-Abzockesteuer oder überhöhten Energiepreisen.

Bitte nicht vergessen. Es handelt sich bei unseren Grafiken um Original-DWD-Angaben, die wachsenden Wärmeinseleffekte der Messstationen von früher zu heute sind nicht rauskorrigiert. Allerdings findet sich der Temperatursprung 87/88 auch bei WI-armen Stationen und in ganz Mittel-und Westeuropa!!, siehe hier. Bei WI-armen Stationen ist die leichte Abkühlungsphase auf dem letzten Temperaturplateau zudem stärker ausgeprägt.

Der Temperatursprung 87/88 in jeder Temperaturreihe ist natürlichen Ursprungs, denn CO₂ ist nicht für die Zunahme der Sonnenstunden und die plötzliche Änderung der Großwetterlagen verantwortlich, was allerdings auch niemand der CO₂-Treibhausgläubigen behauptet. Ihre Taktik ist: Der Temperatursprung wird verleugnet. Die bezahlten CO₂-Angstmacher erwähnen diesen Temperatursprung überhaupt nicht, sondern sie zeichnen eine durchgehende Linie und behaupten, der Anstieg sei einzig durch CO₂-verursacht.

Merke: Die DWD-Grafiken kann man nicht mit einem imaginären, stetig zunehmendem Treibhausgas CO₂ erklären. Der Begriff „Treibhausgas“ ist somit ein Fantasiebegriff aus der Werbebranche, der uns Angst einflößen soll, genauso wie diese völlig falsche UN-Definition von Klimawandel: Der Begriff „Klimawandel“ bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe.

Richtig bleibt aber die Feststellung: Der Klimawandel, d.h. die Erwärmung begann in Mitteleuropa erst 1987 auf 1988 mit einem Temperatursprung und nicht seit der Industrialisierung!!!!

Die Klimaerwärmung begann erst 1987 auf 1988 mit dem Sprung auf ein höheres Temperaturplateau, wann registrieren das der DWD und die Treibhauskirche endlich?

Damit haben wir aber ein Problem. Wenn nicht Kohlendioxid den Temperatursprung verursacht hat, wer oder was dann?

Die richtige Erklärung, wir finden mindestens 5 Gründe des höheren Wärmeplateaus seit 1988:

1. Natürliche Ursachen: Die Änderung der Großwetterlagen. Rein statistisch haben die Südwestwetterlagen im Mai wie in allen Monaten zugenommen und die kälteren nördlichen und östlichen Wetterlagen abgenommen. Das zeigt u.a. die Zunahme des Saharastaubes, der mit den Süd- und Südwestwinden zu uns getragen wird. Doch es gibt viele andere Gründe für natürliche Ursachen von Klimaänderungen. Hier sei auf die ausführlichen Artikel von Stefan Kämpfe verwiesen: hier und hier.

2. Die Sonnenstunden: Mit der plötzlichen Drehung der Windrichtung auf mehr südliche Wetterlagen haben die Maisonnenstunden ab 1988 im Schnitt schlagartig zugenommen, ebenfalls auf ein höheres Stundenplateau. Mehr Sonnenstunden bedingt tagsüber eine natürliche Erwärmung, andererseits wird dadurch auch die Höhe des menschenverursachten Wärmeinseleffektes gesteigert. Der WI-effekt ist deshalb seit 1988 stärker angewachsen, als im Zeitraum bis 1987

Leider erfasst der DWD die Sonnenstunden für Deutschland erst seit 1951. Trotzdem ergibt sich bereits ein eindeutiger und erstaunlicher Zusammenhang zwischen Sonnenstunden und Temperaturverlauf. Der Sprung auf ein höheres Niveau ist deutlich erkennbar. Ebenso die anschließende Abnahme der Stunden.

Grafik 4: Die Sonne schien keinesfalls gleichmäßig im Monat Mai der letzten 74 Jahre. Neben den jährlichen Differenzen sind die beiden Trendlinien bemerkenswert. Man beachte 87/88

Ergebnis: Auch die Sonnenstunden zeigen den Temperatursprung. Die Sonnenstunden sind ab 1951 bis 1987 stark gefallen, das hat den Mai damals kälter gemacht. Aufgrund der Änderung der Großwetterlagen erfolgte ab 1987 auf 1988 plötzlich ein starker Anstieg der Sonnenstunden auf ein höheres Niveau. Das hat den Mai plötzlich wärmer gemacht. Auf diesem höheren Wärmeplateau mit mehr südlichen Wetterlagen befindet sich der Mai noch heute, allerdings mit absteigender Tendenz, da auch die Sonnenstunden sich verringern.

3. Der Wärmeinseleffekt: Die Standorte der DWD-Stationen sind aufgrund der Bebauung und Bevölkerungszunahme wärmer geworden, und sie werden weiter wärmer. Dazu nimmt die Flächenversiegelung in Deutschland laufend zu, was den Wärmeinseleffekt des letzten Frühlingsmonats ständig erhöht, (derzeit ist ein Siebtel der Gesamtfläche Deutschlands versiegelt) siehe Flächenversiegelungszähler. Aktueller Stand: 50 787 km²

4. Niederschläge im Monat Mai. Sie sind leicht zunehmend seit 1988. Die südlichen und SW-Strömungen seit 1988 brachten auch mehr Niederschläge und damit eine höhere Verdunstungskälte in Bodennähe, vor allem bei ländlichen Wetterstationen. In der Stadt fließt der Regen sofort in die Kanalisation, es verdunstet viel weniger Wasser. Insgesamt wird der zunehmende Mairegen auch ein Grund sein, dass der Mai im Gegensatz zu anderen Monaten, seit 1988 bis heute nicht wärmer wird, sondern sogar leicht abkühlt, obwohl die wärmende Flächenversiegelung und Trockenlegung Deutschlands zunimmt.

Grafik 5: Der Niederschlag im Monat Mai hat seit 1988 zugenommen. 2024 lag weit über dem Schnitt der deutlich steigenden Trendlinie

5. Eine statistische Erwärmung. Die Erfassung der Tagestemperaturen durch Flüssigkeitsthermometer in der Wetterhütte wurde abgeschafft, ebenso die Abschaffung der Tagesmittelerrechnung mittels Mannheimer Stunden durch eine rundum digitale Tageserfassung. Zudem wurden auch Wetterstationen durch Tausch an wärmere Plätze verlegt. Also eine statistische Erwärmung vor allem in den letzten 3 Jahrzehnten.

Zu diesem Thema haben wir vor kurzem eine vierteilige Reihe aufgelegt, siehe hier:

Teil 1

Teil 2

Teil 3

Teil 4

Nebenbei: Die Windhäufigkeit hat allgemein seit 1988 abgenommen wie Stefan Kämpfe in seiner acht Artikeln lange Reihe beschrieben hat. Schlecht für die Windräder bzw. für die alternative Stromerzeugung.

Sicherlich gibt es noch eine Vielzahl an weiteren Gründen, weshalb es in Mittel- und Westeuropa 1987/88 zu einem plötzlichen Temperatursprung auf ein höheres Niveau gab. Wir rufen die Leser auf, noch weitere mögliche Gründe zu nennen und zur Diskussion zu stellen. So funktioniert Wissenserwerb in der Wissenschaft.

Halten wir fest: Die Änderung der Großwetterlagen in Mittel-und Westeuropa brachten ab 1988 die zusätzliche Maiwärme für das höhere Wärmeplateau, auf dem wir uns heute noch befinden. Vor allem im letzten Maidrittel, nach den Eisheiligen nahmen Südwetterlagen zu.

Wir wissen, dass CO₂ allerhöchstens in homöopathischen Dosen wirkt, d.h. nur durch andere Gründe (wie oben genannt) können diese nun folgenden leicht vom DWD-Schnitt der 537 Stationen abweichenden Trendlinien einzelner Stationen erklärt werden.

Buchen im Odenwald, eher ländlich

Abb. 6: Vor dem Temperatursprung schließt sich die Schere zwischen Tages- und Nachttemperaturen. Nach dem Temperatursprung öffnet sie sich deutlich. Vor allem die Nächte werden bei der Station Buchen im Odenwald seit 1988 deutlich kälter.

Wir betrachten nun den Zeitraum nach dem letzten Temperatursprung bis heute bei einzelnen ausgewählten städtischen DWD-Stationen

DWD-Wetterstation Düsseldorf

Zuerst wollen wir dem RTL CO₂-Treibhausexperten Christian Häckl zeigen, dass seine dahingeschwätzte Theorie von der stärkeren nächtlichen CO₂-Erwärmungswirkung falsch ist, und zwar mittels den Temperaturreihen der Landeshauptstadt des Privatsenders

Grafik 7: Die nächtlichen T-min Temperaturen fallen deutlich stärker als die Tagestemperaturen. Die Schere zwischen T-max und T-min öffnet sich seit dem Klimasprung 1988

Frage an die Treibhausleute: Wirkt CO₂ nachts kühlend und tagsüber gar nicht? Oder macht das wärmende Treibhausgas einfach um Düsseldorf einen großen Bogen?

DWD-Wetterstation Leipzig

Abb. 8: Man beachte vor allem die Steigungsunterschiede zwischen Tag- und Nachttemperaturen. Mit über 0,04 C/jährlich geht die Schere der beiden Trendlinien seit 1988 am stärksten von den drei Großstädten auseinander.

München, mitten in der Stadt

Abb. 9: Geringere Steigungsunterschiede in der Innenstadt zwischen Tag/Nacht. Aber auch hier ist deutlich erkennbar, dass die Mainächte stärker abkühlen als Tmax.

  1. Wir erkennen, wäre CO₂ der alleinige Temperaturtreiber, dann müssten alle Wetterstationen identisch bei den Steigungslinien sein
  2. Es dürfte keine Abkühlung (negative Steigungsformeln) geben

Die leicht unterschiedlichen Steigungsformeln unserer Beispiele führen wir auf örtliche Klimaunterschiede, hauptsächlich Sonnenstunden und Mainiederschläge zurück. Die CO₂-Konzentrationen sind jedoch überall gleich hoch, derzeit 424 ppm=0,04%

Wir halten fest:

Die globalen CO₂-Konzentrationen steigen, der Mai wird nicht wärmer. Zwischen den Temperaturverläufen des Monats Mai und dem CO₂-Anstieg besteht keinerlei erkennbarer Zusammenhang, sondern nur Zufallskorrelationen für kurze Zeitabschnitte.

Die Verfasser leugnen jedoch nicht die physikalischen Eigenschaften des Moleküls CO₂, übrigens ein lineares Molekül und nicht gewinkelt, das im IR-Bereich absorbiert und sofort wieder emittiert. Dazu haben Sie im Studium selbst Versuche durchgeführt. Aber die von einigen Physikern daraus abgeleitete Erwärmung der Atmosphäre konnte bislang nicht nachgewiesen werden. Es gibt lediglich theoretische Berechnungen, aber genauso viele theoretischen Gegenrechnungen von namhaften Physikern. Es gibt auch keinerlei technische Erfindungen, die auf einem CO₂-Erwärmungseffekt beruhen würden. Eine CO₂-Wärmepumpe wäre nämlich toll, die Heizungsprobleme wären gelöst.

Auch der Monat Mai zeigt anhand der Originaldaten des Deutschen Wetterdienstes: Die CO₂-Erwärmungslehre ist eine Irrlehre. Ihr einziger Sinn ist, unter der Bevölkerung eine Klimaangst zu erzeugen, ähnlich der Sündenangst im Mittelalter mit ewiger Verdamnis. Leider ist diese Angstmache bei Kindern und Jugendlichen schon vielfach gelungen. Die angeblichen CO₂ Klimawandel-Beweise anhand Katastrophenmeldungen wie Hochwasser, Taifune sind eine Folge diverser Ursachen, meist ein Behördenversagen, oftmals jedoch einfach nach bekannter Medienart übertrieben. Bei der CO₂-Treibhaustheorie handelt sich um einen wissenschaftlichen Irrtum. Ein gewollter Irrtum. Es ist ein Geschäftsmodell auf falschen naturwissenschaftlichen Denk- und Rechengrundlagen aufgebaut. Die daraus abgeleitete Klimapanik, siehe Terrororganisation „letzte Generation“ ist gewollt und will unser Geld. Das Geld soll unser Gewissen beruhigen. Ein Loskauf von der erfundenen CO₂-Schuld. Das CO₂-Geschäftsmodell ist dem Sündenablasshandelsmodell der Kirche im Mittelalter nachempfunden. Panische Gewissensangst erzeugen, von der man sich freikaufen kann. Die CO₂-Steuer macht uns arm, sie ist eine nimmer versiegende Geldeinnahmequelle der Interessengruppen, hilft jedoch überhaupt keinem Klima.

Die Erde braucht mehr CO₂ in der Atmosphäre und nicht weniger. Der derzeitige Gehalt an 0,044% liegt an der untersten Grenze. Das Leben der Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das notwendige Transportmittel, welches den Kohlenstoff dorthin bringt, wo er zum Lebenserhalt benötigt wird. Wer CO₂ verteufelt, handelt gegen die Schöpfung.

Natur- und Umweltschutz ist wichtig, Natur- und Umweltschutz ist was ganz anderes als der politische grünsozialistische Klimaschutz: Gerade dieser Mai hat gezeigt, der Niederschlag muss dort gehalten werden, wo er niedergeht, nämlich in der freien Versickerungsfläche. Das ist eine alte Forderung von uns aktiven Naturschützern. Keinesfalls darf er schneller durch den Ort geleitet werden durch irgendwelche Barrikaden, Schutzmauern oder Sandsäcke. Aber nach diesem Prinzip wird immer noch der HWS der Städte und Gemeinden betrieben, ein absolutes Behörden- und Politikversagen.

Richtiger Hochwasserschutz ist umgesetzter Naturschutz und bedeutet in der Realität: ein Rückhalt des Niederschlages in der Landschaft, wo der Regen wieder versickern darf, um unsere Grundwasservorräte aufzufüllen. Hierfür sind Gesetzesvorgaben nötig. Angewandter Naturschutz heißt, es müssen freie Rückhalteflächen in der Landschaft geschaffen werden, großflächige Bach- Flussauen und Versickerungsauen, die zur ökologischen Vielfalt und damit zum Erhalt der Schöpfung beitragen. Die großflächige Trockenlegung der Landböden bis in größere Tiefen lässt automatisch den Meeresspiegel steigen. Das bisschen Gletscherschmelze ist dagegen kaum erwähnenswert.

Eine CO₂-Einsparung ist fortgesetzter, jedoch politisch gewollter Blödsinn, ein Teil des Geschäftsmodelles Klimapanik und CO₂-Abzockesteuern. Die teuren CO₂-Reduzierungsmaßnahmen helfen weder dem Klima noch der Natur noch dem Hochwasserschutz. Sie sind eine Sünde an der Schöpfung Erde.

Matthias Baritz, Naturschützer und Naturwissenschaftler Josef Kowatsch, Naturbeobachter, Naturschützer und unabhängiger, weil unbezahlter Klimaforscher.