Die Falschmesser vom Deutschen WetterDienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt – Teil 1

We own the science and we think that the world should know it. UN Under-Secretary General for Global Communications Melissa Fleming beim WEF im Oktober 2023

Teil 1: Das heutige Messnetz des DWD ist für Vergleiche zu Temperaturen vor der Jahrtausendwende unbrauchbar, da dieses nichts mehr mit dem von vor 2000 zu tun hat. Weder in der Messdatenerfassung, noch in der Struktur (Messstandorte).

Von Raimund Leistenschneider, Matthias Baritz, Josef Kowatsch

¹ Zum Bild oben: Die Autoren weisen ausdrücklich daraufhin, wenn sie vom DWD schreiben, dann meinen sie nicht die vielen dortigen Meteorologen und Wissenschaftler, die jeden Tag akribisch ihrer Tätigkeit nachgehen, um verwertbare Ergebnisse zu liefern, sondern die dortige Führungsmannschaft, die nicht müde wird, sich und damit ihre Behörde und natürlich den Bundesverkehrsminister – der DWD ist eine Behörde im Bundesverkehrsministerium – mit unsoliden und unwissenschaftlichen Aussagen lächerlich zu machen, siehe hier oder hier.

Kurzer Rückblick:

Werte Leser, in 2010 hatte Leistenschneider herausgefunden, dass die vom DWD herausgegebenen mittleren Jahrestemperaturen für Deutschland (um die geht es in diesem Bericht) um +0,9°C bis +1,2°C zu hoch sind (Abb.2).

Abb.2 zeigt den Fehler bei den Deutschlandtemperaturen, die Leistenschneider in 2010 ermittelt hatte: „Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen“

Abb.2 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass 2010 kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich). Soviel zum damaligen Text.

Die obigen Untersuchungen basieren im Wesentlichen auf den Strahlungsgesetzen nach Planck – ob die anschließende mathematische Betrachtung richtig ist² – und den Steigungsvergleichen der DWD-Deutschlandjahrestemperaturen zu der DWD-Referenzstation Hohenpeißenberg.

² Mathematisch lässt sich vieles berechnen (siehe z.B. Klimaprojektionen des IPCC). Jedoch allein die Physik entscheidet, ob eine Berechnung sinnvoll ist oder ob nicht (Abb.3).

Abb.3, Quelle: Roy W. Spencer, Ph. D. zeigt hier die tatsächlich gemessene Globaltemperatur im Vergleich zum Mittel der Klimaprojektionen (schwarz) und den einzelnen (berechneten) Klimavorhersagen von 1979 bis 2018. Die Realität hat mit den berechneten Szenarien nichts zu tun. Solche Berechnungen sind nicht das Papier wert, auf denen sie gedruckt sind!

Ein schönes Beispiel, dass alles berechnet werden kann, ganz gleich, welcher Unsinn dabei heraus kommt. Zurück zu unserem Thema:

Die Theorie besagt, dass sich in einer Erwärmungsphase, in der sich die Erde seit etwa 1980 befindet, kalte Gebiete schneller erwärmen als warme. Eine Aussage, die übrigens auch das IPCC sagt. Indes hat dies rein gar nichts mit einem angeblichen menschengemachten Klimawandel zu tun, sondern basiert auf einem physikalischen Basisgesetz.

Um einen gleichen Körper von 10°C auf 20°C zu erwärmen und von 100°C auf 110°C, ist stets dieselbe Energiemenge nötig. „Aber“, um einen Körper zu erwärmen, muss man diesen zuerst auf seiner Temperatur halten. Nennen wir diese „Halteenergie“. Denn das System Erde befindet sich in einer kalten Umgebung (Weltall) und gibt ständig Energie an diese Umgebung ab.

Nun verliert nach Planck ein identischer wärmerer Körper, in gleichen Zeiteinheiten, mehr Energie, als ein kälterer Körper. Seine Halteenergie ist also höher. Da die Erde nur eine Energie erhält, erwärmen sich kältere Gebiete (z.B. Polregionen) schneller als wärmere. Es erfolgt somit ein Angleich der Temperaturen – Temperaturunterschied wird geringer.

Werden nun die Temperaturen der zu untersuchenden Objekte in Relation gesetzt, so muss in einer Erwärmungsphase ein (leichter) und stetiger Angleich der Temperaturen erfolgen. Sind Sprünge zu verzeichnen, ist dies auf Unregelmäßigkeiten der Temperaturerfassung/Messnetzes zurück zu führen. Anhand anschließender Steigungsvergleiche lässt sich der Fehler berechnen, der in Abb.2 zu sehen ist.

Zu „Sprünge“ der Fachmann, Prof. Malberg, FU, Met Inst.:

„Die Verlagerung von Klimastationen an neue Standorte führt in der Regel zu sprunghaften Änderungen der Klimawerte. Wird die neue Station nicht auf bisherige Messreihe (oder umgekehrt) mittels vieljähriger Parallelbeobachtungen reduziert, so kann der Bruch so groß sein, dass die Klimareihe für die Analyse des langfristigen Klimawandels unbrauchbar wird.“

Doch wie kommt es zu den Sprüngen in den Vergleichen der Deutschlandtemperaturen zu denen der Referenzstation Hohenpeißenberg?

Das Messnetz des DWD ist heute ein gänzlich anderes als noch vor 100 Jahren oder mehr ist. Nur 5% seines heutigen Messnetzes stimmen mit dem vor 120 Jahren dem Namen nach überein. Betrachtet man dazu die Stationsverlagerungen in diesen verbliebenen 5%, geht die Vergleichbarkeit gegen 0%, denn diese wurden in den Orten an wärmere Stellen verlegt, siehe hier.

Abb. 4

Bereits Abb.4 zeigt, dass so gut wie nichts mehr beim DWD-Messnetz mit dem von früher identisch ist, was Abb.5 verdeutlicht.

Abb.5, Quelle R. Leistenschneider, nach Daten des DWD, zeigt alle vom DWD, nach dessen eigenen Angaben, bis 2022 (Stand 08/2022) stillgelegten Messstandorte, aufgeschlüsselt nach Dekaden. Die aktuelle Dekade zeigt bis 08/2022 bereits 90 Stilllegungen. Hochgerechnet auf das Jahrzehnt, sind dies, bei gleichbleibender Stilllegungsfreude des DWD = 550 Messstandorte.

Ist schon sehr auffällig, dass der DWD mit Beginn der Klimaaktivtäten weltweit in dem IPCC (1990 = First Assessment Report) damit beginnt, sein bisheriges Messnetz stillzulegen und durch neue Standorte zu ersetzen.

Dass sämtliche Vergleiche des DWD zu den Deutschlandtemperaturen unbrauchbar sind, zeigt weiter dessen Struktur (Abb.6 und Abb.7), die stimmen müsste, sollen Vergleiche korrekt sein.

Abb.6, Quelle R. Leistenschneider, nach Daten des DWD, zeigt die weitgehend ausgeglichene Struktur des DWD-Messnetzes vor der Klimahype. In seinem Messnetz hat er etwa die gleiche Anzahl von „alten“, wie von „neuen“ Messstandorten.

Die heutige Struktur des DWD-Messnetzes ist dagegen sichtlich unausgewogen und schieflastig, Abb.7.

Abb.7, Quelle R. Leistenschneider, nach Daten des DWD, offenbart die Unausgewogenheit (Schieflastigkeit) des heutigen DWD-Messnetzes zugunsten von „neuen“ Messstandorten, die ab dem Klimarummel des IPCC im Jahr 1990 begann. Vergleiche mit Abb.4.

Halten wir fest:

Bis 1990 wurden in 100 Jahren (!) etwa soviele Standorte stillgelegt, wie in den 1990-Jahren. Also in lediglich 10 Jahren. Dass Ganze „schreit“ förmlich nach „Lug und Betrug“.

In der Tat, sind alle Vergleichsdaten des DWD zu den mittleren Jahrestemperaturen in Deutschland unbrauchbar, wie noch bewiesen wird.

Kowatsch hatte die Datenreihe in Abb.2 bis in das Jahr 2023 erweitert, nachdem Leistenschneider die Berechnung bis 2023 weiter geführt hatte (Abb.8).

Abb.8 zeigt in rot, die vom DWD veröffentlichten Jahrestemperaturen für Deutschland von 1881 bis 2023 und in grün, die nach dem obigen Verfahren bereinigten und richtigen (!!) (Vergleichs)temperaturen für Deutschland im selben Zeitraum.

Man beachte: Zu Beginn der 1930-Jahre war es in Deutschland vergleichbar so warm wie heute, was etwa ein Jahrzehnt anhielt!

Nach diesem Verfahren, liegt der Fehler in 2023 bei +1,42°C. Diesen Wert sollten wir uns merken.

Beweisführung

Unsere Beweisführung für die Manipulation des DWD bei den mittleren Jahres(vergleichs)temperaturen für Deutschland, beruht auf der Diplomarbeit beim DWD Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“.

Erstprüfer: Leitender MA des DWD (jetzt in Rente), Herr RDir a. D. Klaus Hager

Herr Hager hatte in der Berliner Wetterkarte auszugsweise daraus berichtet:

Abb.9, Quelle: Beilage zur Berliner Wetterkarte 44/13, „Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“, Klaus Hager. Abb.5 zeigt den Unterschied der Messungen mit einem Quecksilberthermometer und der heutigen elektronischen Messungen über einen Zeitraum von 8 1/2 Jahren. Sehr gut zu sehen, dass die elektronische Messung deutlich höhere Werte ergibt und zwar um +0,93°C höher! Dazu der Text des Verfassers, Herr Klaus Hager:

„An den 3144 Tagen ergab sich eine mittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfasste Tagesdifferenz betrug gar 6,4 Grad! An 41% der Tage war die Differenz 0 bis 1 Grad, an 26% der Tage 1 bis 3 Grad und an 18% der Tage größer als 2 Grad, an 15% der Tage waren die Quecksilberwerte höher als die mit Pt 100 gewonnenen Höchstwerte.“

„Ursachen hierfür können der Grad der Wolkenbedeckung und die Sonnenscheindauer, aber auch Windgeschwindigkeit und Luftmassenwechsel sowie die Bodenbedeckung mit einer Schneedecke sein. Somit kann man nicht mit generellen Korrekturwerten arbeiten, sondern muss lapidar feststellen, dass die früher gewonnenen Messwerte nicht mit den heutig erfassten für eine lange Temperaturreihe verwendet werden dürfen, ohne dass Brüche in den langen Reihen entstehen, die nicht real sind.“

Ein weiterer Fachmann, Prof. Malberg, FU Met Inst. dazu:

„Mit den Auswirkungen auf die Klimatemperatur durch die Umstellung von Quecksilberthermometermessungen auf elektronische Messverfahren Ende der 1980er/Anfang der 1990er Jahre hat sich W. Wehry (Beiträge zur BWK SO 22/09) befasst. Auch dieser (Fort-)Schritt hatte offensichtlich eine gewisse scheinbare Erhöhung der Mitteltemperatur zur Folge, da die elektronischen Messungen in der Regel höhere Maxima als die trägen Quecksilbermessungen ergeben. Der Effekt wirkt sich vor allem dort aus, wo die Mitteltemperatur aus Maximum und Minimum gebildet wird, u. a. in den USA.“

Die Autoren hatten mehrfach dazu berichtet.

Wie von Prof. Malberg genannt, handelt es sich bei den Daten nicht um (Tages)mittelwerte, sondern um Tageshöchstwerte. Sind also für eine Projektion auf die Temperaturmittelwertveröffentlichungen des DWD nur bedingt brauchbar, da sie eine andere Größe abbilden.

Nun ist die Physik etwas wunderbares. Sie gilt sowohl in Deutschland gleichermaßen, wie Frankreich den USA, etc. Eine Offenbacher-Physik existiert nicht. Auch wenn die Verlautbarungen zum angeblichen menschengemachten Klimawandel einen anderen Anschein erwecken. Doch dies soll jetzt nicht unser Thema sein.

Sowohl beim neuen Messverfahren mit Pt 100 (Platinsensor, dessen el. Widerstand sich mit der Temperatur ändert), als auch beim früheren Messverfahren mit Quecksilberthermometer (dessen Funktionsweise auf der Volumenänderung zur Temperatur beruht), handelt es sich um lineare Größen. Deshalb werden/wurden beide auch zur Temperaturerfassung eingesetzt. Linear bedeutet, dass deren Änderung pro °C stets die gleiche ist. Zumindest in dem Temperaturbereich, indem diese messen.

In der o.g. Diplomarbeit ist festgehalten:

„Aufgrund eines breiten Temperaturspektrums von -200,00 °C bis +500,00 °C deckt das Pt 100 beinahe alle üblichen Temperaturmessungen in Bodennähe und auch in der Atmosphäre ab. (Deutscher Wetterdienst, 1973)“

Dem Pt 100 ist es dabei egal, ob er Temperaturhöchstwerte oder niedrigere Temperaturwerte misst. Er kennt keine „Höchstwerte“, sondern einzig Messwerte. Will heißen, wenn der Pt 100, im Vergleich zum Quecksilberthermometer, falsche (zu hohe) Vergleichswerte liefert, dann ist dies auch bei den darunter liegenden Temperaturmesswerten der Fall. Die Frage ist „nur“: Wie hoch sind diese im Bezug des Tagesmittelwertes und damit zu den Jahresmittelwerten?

Nicht nur die Physik ist etwas Wunderbares, sondern auch deren Hilfsmittel, die Mathematik. Denn mit ihr lassen sich aus den Höchstwerten (deren Abweichung um +0,93°C), die Tages- und damit Jahresmittelwerte errechnen. Also wie hoch der Fehler bei den Temperaturmittelwerten ist. Konkret, um wie viel °C mit dem Pt 100 bei den Jahresmittelwerten im Vergleich zu früher (vor der Jahrtausendwende) zu hoch gemessen wird.

Dazu im Teil 2 mehr.

Raimund Leistenschneider – EIKE

Matthias Baritz, Naturwissenschaftler und Naturschützer

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger Klimaforscher

 




Die Probleme mit Temperatur-Daten

H. Sterling Burnett

Es wird immer deutlicher, dass die Temperaturdaten nicht korrekt sind, welche die US-Regierung und viele andere Regierungen zur Vorhersage des katastrophalen Klimawandels verwenden, nämlich die Daten der Temperaturstationen.

Um Elizabeth Barrett Brownings Sonett 43 zu paraphrasieren: Wie schlecht sind die Aufzeichnungen der Oberflächenstationen? Lassen Sie mich die Fehler aufzählen.

Selbst die Befürworter der Klimaalarmisten räumen ein, dass die Daten der Oberflächenstationen zu hoch sind. Um die Sache für die Alarmisten noch schlimmer zu machen, sind die überhitzten Daten der Oberflächenstationen immer noch niedriger als die Temperaturen, die laut Klimamodellen aufgrund der Kohlendioxidmenge in der Atmosphäre herrschen sollten. Diese Tatsache deutet stark darauf hin, dass die in den Modellen angenommene Klimasensitivität bei einer Verdopplung des atmosphärischen Kohlendioxids gegenüber dem vorindustriellen Niveau ebenfalls viel zu hoch ist.

Ein weiterer Beweis dafür, dass die Daten der Oberflächenstationen fehlerhaft sind, ergibt sich aus der Tatsache, dass deren Messwerte nicht mit den Temperaturen übereinstimmen, die von globalen Satelliten und Wetterballons aufgezeichnet werden, also von zwei alternativen Temperaturquellen, deren Datensätze eng miteinander übereinstimmen.

Das Heartland Institute hat sowohl in den Vereinigten Staaten als auch im Ausland Fälle aufgedeckt, in denen offizielle Stellen frühere Temperaturdaten an unberührten Stationen manipuliert haben. Diese Behörden wurden nicht nur dabei ertappt, Aufzeichnungen so zu korrigieren, dass sie kühler erscheinen, als sie tatsächlich aufgezeichnet wurden, sondern sie haben auch die Temperaturen nach oben manipuliert, so dass der jüngste Erwärmungstrend steiler und gravierender erscheint, als er tatsächlich ist.

Ich habe ausführlich über die sogenannten Anpassungen geschrieben, die von korrupten NOAA-Wissenschaftlern im Jahr 2015, kurz vor den Verhandlungen zum Pariser Klimaabkommen, vorgenommen worden waren. Dabei wurden Daten von unvoreingenommenen Ozeanbojen mit hitzebedingten Temperaturmessungen vermischt, die an den Wassereinlässen von Schiffsmotoren vorgenommen worden waren, was den Anschein erweckte, als würde sich der Ozean plötzlich schneller erwärmen als zuvor. Neuere Forschungsergebnisse, die eine schnelle Erwärmung der Ozeane behaupteten und die manipulierten Behauptungen der NOAA zu bestätigen schienen, mussten korrigiert werden, weil sie die Erwärmung der Ozeane zu hoch ansetzten, oder sie riskierten, vor der Veröffentlichung zurückgezogen zu werden.

Mein Kollege, der preisgekrönte Meteorologe Anthony Watts, hat in Zusammenarbeit mit einem Team von Freiwilligen unabhängig voneinander ernsthafte Probleme mit der offiziellen Aufzeichnung der Temperaturen dokumentiert, die darauf zurückzuführen sind, dass die große Mehrheit der Temperaturstationen schlecht platziert ist. Tatsächlich erfüllen diese Stationen routinemäßig nicht die eigenen Qualitätsstandards der NOAA, was dazu führt, dass die Temperaturen aufgrund des Urban Heat Island (UHI)-Effekts nach oben verzerrt werden.

Im Jahr 2009 und erneut im Jahr 2022 hat Watts anhand von Stationsdaten und fotografischen Beweisen detailliert aufgezeigt, wie schlecht die Standorte dieser Oberflächenstationen wirklich sind. Diese die offiziellen Daten liefernden Stationen befanden sich häufig an Standorten, an denen die umliegenden Oberflächen, Strukturen und Geräte gespeicherte Wärme abstrahlten oder Wärme direkt verzerrt abgaben und die aufgezeichneten Temperaturen höher waren als an Stationen in derselben Region, die nicht durch den bekannten UHI-Effekt beeinträchtigt waren, der von Alarmisten und offiziellen Regierungsbehörden weitgehend ignoriert wird. Watts‘ Studie aus dem Jahr 2009 ergab, dass 89 Prozent der Stationen die Anforderungen des National Weather Service an die Standortwahl nicht erfüllten.

Die Medien und die Regierungsbürokraten nahmen Watts‘ Ergebnisse zur Kenntnis. Letztere gaben offizielle Antworten, in denen sie das Problem einräumten, während sie erklärten, dass die Temperaturaufzeichnungen trotz der groben Verletzung etablierter Regeln für eine solide Temperaturdatenerfassung weiterhin gültig und zuverlässig seien.

Die US-Regierung behauptete zwar, „kein Schaden, kein Foul“, schloss aber einige der in Watts‘ Bericht hervorgehobenen Stationen mit den schlechtesten Standorten und richtete ein alternatives Temperaturnetzwerk ein, das U.S. Climate Reference Network (USCRN), das aus neuen Stationen mit hochmoderner Ausrüstung besteht, die sich an Orten befinden, die wahrscheinlich nie vom UHI-Effekt betroffen sein werden. Der Temperaturdatensatz des USCRN zeigt etwa die Hälfte der Erwärmung und eine langsamere Erwärmungsrate als das breitere U.S. Historical Climate Network (USHCN), das von der Regierung in ihren offiziellen Berichten verwendet wird, in denen eine noch nie dagewesene Erwärmung behauptet wird. Tatsächlich zeigen die Daten der relativ wenigen gut platzierten, unvoreingenommenen USHCN-Stationen im Vergleich zum gesamten Netzwerk ebenfalls nur die Hälfte der von der Regierung angegebenen Erwärmung. Die Regierung verfügt über diese genauen Daten, gibt sie aber nicht als offizielle Daten an oder zählt sie nicht.

Gleichzeitig fügte die Regierung dem offiziellen Netz Tausende von Temperaturstationen hinzu, die zuvor nicht gezählt worden waren und von verschiedenen Behörden und Privatpersonen unterhalten wurden – bestehende Stationen, die ohne Qualitätskontrollprotokolle hinzugefügt wurden.

Das Ergebnis dieser Bemühungen war vorhersehbar katastrophal, wenn man bedenkt, dass es darum geht, eine qualitativ hochwertige, vertrauenswürdige Aufzeichnung der Temperaturen zu erstellen, die nicht durch den UHI-Effekt beeinflusst wird. Leider hat der Bericht von Watts aus dem Jahr 2022 gezeigt, dass sich die Situation noch verschlimmert hat. Watts und sein Team von Freiwilligen entdeckten, dass 96 Prozent der untersuchten Stationen des erweiterten NOAA-Netzes die eigenen Qualitätskontrollstandards für die Standortwahl nicht erfüllten, was zu einer UHI-Verzerrung der gemeldeten Temperaturen führte.

Ein investigativer Bericht von Katie Spence, Journalistin bei The Epoch Times, deckt nun ein zusätzliches Problem mit der Aufzeichnung der Temperaturen in den USA auf – ein Versäumnis, das wohl noch ungeheuerlicher ist als die bisher besprochenen Probleme: Viele „Stationen“, die angeblich Temperaturen „melden“, existieren in Wirklichkeit gar nicht mehr, schon seit Jahren nicht mehr. Die Regierung erfindet einfach die von vielen Orten gemeldeten Daten auf der Grundlage einer Mittelung der an anderen Orten in der Region aufgezeichneten Temperaturen.

Und es sind nicht nur ein paar fehlende Stationen, die erfundene Zahlen liefern, betonte Oberstleutnant John Shewchuk, ein zertifizierter beratender Meteorologe, der von Spence für den Artikel interviewt wurde.

„Die NOAA erfindet Temperaturdaten für mehr als 30 Prozent der 1218 USHCN-Meldestationen, die nicht mehr existieren“, erklärte Shewchuk gegenüber Spence. „Sie sind physisch verschwunden – aber sie melden immer noch Daten – wie durch Zauberhand.“

Bis heute verlässt sich die NOAA auf die Temperatur-„Daten“ der Geisterstationen, mit einem „E“ für Schätzung.

Watts wurde auch für diese Geschichte konsultiert und erklärte der Epoch Times, dass „wenn diese Art von Verfahren vor Gericht verwendet würde, die Beweise als verunreinigt verworfen würden.“

Die Oberflächendaten mögen zwar die beste Quelle sein, die wir haben, aber wenn sie so voreingenommen oder sogar gefälscht sind, wie es sich zunehmend herausstellt, sollten sie auf keinen Fall dazu verwendet werden, die öffentliche Politik zu bestimmen, die die Freiheit von Milliarden von Menschen in ihren persönlichen und wirtschaftlichen Angelegenheiten einschränkt, alles in der vergeblichen Hoffnung, das Wetter in der Zukunft zu kontrollieren.

This piece originally appeared at TheCenterSquare.com and has been republished here with permission.

Link: https://cornwallalliance.org/2024/05/the-problems-with-temperature-data/

Übersetzt von Christian Freuer für das EIKE

 




Wissenschaftler ignorieren CO₂-Daten, die für das alarmistische Narrativ ungünstig sind

H. Sterling Burnett

Eine der gängigen Methoden zur Rekonstruktion/Schätzung vergangener Temperaturen ist die Stomata-Analyse, bei der die Spaltöffnungen der Pflanzen untersucht werden – die Poren in der Epidermis von Blättern, Stängeln und anderen Organen – welche die Geschwindigkeit des Gasaustauschs, einschließlich der Transpiration, zwischen den inneren Lufträumen des Blattes und der Atmosphäre steuern. Es ist bekannt, dass sich die Spaltöffnungen der Pflanzen bei einem Anstieg der Temperatur und/oder des Kohlendioxidgehalts schließen oder verkleinern, was die Effizienz der Wassernutzung verbessert.

Wie No Tricks Zone feststellt, sind Temperatur-Rekonstruktionen üblich und weithin akzeptiert, die aus der Analyse der Spaltöffnungen von Pflanzen abgeleitet wurden, da sie gültige Paläoklima-Rekonstruktionen der historischen atmosphärischen Kohlendioxidwerte liefern. Er gibt einen teilweisen Literaturüberblick über neuere, von Experten begutachtete Studien, die solche Rekonstruktionen vornehmen. Ein solches Beispiel stammt aus der Märzausgabe 2024 der Zeitschrift Paleoworld.

In einer neuen Studie wird zum Beispiel gezeigt, dass 100-150 Millionen Jahre alte Spaltöffnungen aus dem Iran bestätigen, dass die CO₂-Konzentration in der Atmosphäre während der Jurazeit bei 1100 bis 1700 ppm lag. Die Autoren zeigen stolz, wie konsistent ihre aus den Spaltöffnungen abgeleiteten CO₂-Messungen im Vergleich zu mehreren anderen Rekonstruktionen sind, die zu den gleichen Schlussfolgerungen über die CO₂-Konzentrationen in der Vergangenheit kommen.

No Tricks Zone weist jedoch darauf hin, dass wenn es um stomatäre CO₂-Schätzungen in jüngerer Zeit geht, dies von der Klimawissenschaft weitgehend ignoriert wird, was darauf hindeutet, dass stomatäre Rekonstruktionen der Vergangenheit zwar in Ordnung sind, Rekonstruktionen der gegenwärtigen CO₂-Werte jedoch ungültig sind, so No Tricks Zone. Und warum? No Tricks Zone vermutet, dass es daran liegt, dass der jüngste Anstieg der CO₂-Konzentrationen nicht allein auf menschliche Aktivitäten zurückzuführen ist, sondern dass die Natur dazu beigetragen hat, vielleicht als Reaktion auf die Erwärmung.

No Tricks Zone schreibt zum Beispiel über eine Arbeit aus dem Jahr 2022, die in der Fachzeitschrift Science of Climate Change veröffentlicht worden ist, und weist darauf hin, dass ihre Analyse anders behandelt wird als die viel begrenzteren CO₂-Analysen von Eiskernen:

Dr. Ernst-Georg Becks gesammelte Forschungsergebnisse über CO₂-Messungen an den Spaltöffnungen von Pflanzen wurden 2022 posthum veröffentlicht. Es handelt sich um eine ausführlich referenzierte Arbeit mit 97.404 direkten bodennahen Messungen von 901 Stationen auf der ganzen Welt in beiden Hemisphären. (Dies steht im Gegensatz zu den CO₂-Eiskerndaten, bei denen nur ein einziger kontinentaler Standort, die Antarktis, verwendet wird; und dennoch wird diese lokale Messung – die von den grönländischen Eiskernen widerlegt wird – als „global“ angesehen.)

Die Forschungsergebnisse wurden in 292 wissenschaftlichen Arbeiten (77 Autoren) festgehalten, die sich auf von Spaltöffnungen abgeleitete direkte CO₂-Messungen für das Industriezeitalter (1800-1960) beziehen.

Diese Datenbankzusammenstellungen – ~60.000 Messungen auf globaler Ebene allein zwischen den 1930er und 1950er Jahren – zeigen durchweg, dass der CO₂-Gehalt 1943 bei 380 ppm und 1950 bei 372 ppm lag, mit sehr geringen Fehlerspannen nach etwa 1870.

Die heute akzeptierten CO₂-Werte für 1943 und 1950 werden stattdessen mit 310 ppm angegeben, und die Werte von 372 bis 380 ppm sollen erst Mitte der 2000er Jahre erreicht worden sein. Die datengestützte Darstellung eines dekadischen Rückgangs der CO₂-Konzentration nach dem Höhepunkt in den 1940er Jahren (siehe Abb. 24) widerspricht der Auffassung, dass die stark steigenden anthropogenen CO₂-Emissionen nach 1945 zu einem gleichzeitigen Anstieg der CO₂-Konzentrationen führten. Infolgedessen werden diese direkten CO₂-Messungen – Zehntausende von ihnen aus der ganzen Welt – von den Hütern der These von der menschlichen Verursachung abgelehnt.

Darüber hinaus zeigen die von den Spaltöffnungen abgeleiteten CO₂-Werte, dass die Temperatur der wichtigste Faktor für die CO₂-Konzentration ist, wobei die CO₂-Änderungen korrelativ (r = 0,67) den Temperaturänderungen um etwa ein Jahr hinterherhinken. Dies widerspricht einmal mehr der Schlussfolgerung, dass die CO₂-Konzentration durch anthropogene Emissionen bestimmt wird.

Klimaalarmisten wie die am Weltklimarat beteiligten Wissenschaftler haben bei der Beschreibung und grafischen Darstellung des jüngsten CO₂-Anstiegs und dem Vergleich mit dem jüngsten Temperaturanstieg die Stomata-Analyse des CO₂ der letzten Jahre weitgehend ignoriert oder abgetan. Eine unabhängige Datenquelle zu ignorieren, ist wissenschaftlich nicht gerechtfertigt, da, wie Climate Realism, Climate at a Glance und Climate Change Weekly gezeigt haben, der Klimaalarm größtenteils nicht auf wissenschaftlichen, sondern auf politischen Erwägungen beruht, wie z. B. Komitologie, Konsens, Finanzierung und die damit verbundene Macht. Es ist vielleicht nicht überraschend, dass Daten, die der Behauptung eines vom Menschen verursachten Klimawandels widersprechen, von den Medien und in der von Regierungsstellen zitierten Literatur ignoriert werden.

Quellen No Tricks Zone; Science of Climate Change

Link: https://heartlanddailynews.com/2024/05/climate-change-weekly-506-climate-at-a-glance-videos-climate-fact-checks-for-youths/, dritte Meldung

Übersetzt von Christian Freuer für das EIKE

 




Der Krieg gegen Nahrungsmittel

Duggan Flanakin

Bereits im Februar berichtete CBS News, dass die Lebensmittelpreise weiterhin schneller gestiegen sind als der allgemeine Verbraucherpreisindex. Die Restaurantpreise stiegen mit einer jährlichen Rate von 5,1 Prozent, während die Lebensmittelpreise um 1,2 Prozent stiegen. Die eigentliche Geschichte ist jedoch, dass die Supermarktpreise jetzt 25 Prozent höher sind als im Januar 2020, während die Inflation um 19 Prozent gestiegen ist.

Gleichzeitig warnte der Generalsekretär der Vereinten Nationen, Antonio Guterres, dass „Klima und Konflikte die beiden Hauptursachen für die weltweite Nahrungsmittelkrise sind“. Der UN-Klimachef Simon Stiell fügte hinzu: „Rasche und nachhaltige Maßnahmen zur Reduzierung der Treibhausgasemissionen und zur Erhöhung der Widerstandsfähigkeit sind jetzt erforderlich, um zu verhindern, dass [der chronische Hunger] außer Kontrolle gerät.“

Es gibt nur drei Dinge, die an den UN-Verlautbarungen falsch sind. Erstens ist der Planet durch den leichten Anstieg des Kohlendioxids 20 Prozent grüner geworden als noch vor 24 Jahren – laut NASA. Die Ernteerträge sind im gleichen Zeitraum um 13 Prozent gestiegen. Die Wüsten sind geschrumpft. Dies deutet darauf hin, und die Wissenschaft zeigt es auch, dass eine Verringerung des atmosphärischen Kohlendioxids diesen Trend wahrscheinlich umkehren und die Menge des Ackerlandes verringern würde.

Zweitens haben die Vereinten Nationen nichts unternommen, um das Gemetzel in der Ukraine, im Gazastreifen, im Sudan, in Myanmar und in vielen anderen Ländern zu beenden. Die Politik und sogar das Personal der UNO (vor allem in Gaza) haben die Konflikte in vielen Gebieten verschärft. Drittens haben die klimabezogenen Vorschriften der UNO zu erheblichen Fehlentwicklungen in der afrikanischen Infrastruktur geführt und ihre Bemühungen um Eigenständigkeit und Ernährungssicherheit behindert.

Auch die Europäische Union setzt alles daran, Veränderungen in der Landwirtschaft zu erzwingen, und zwar im Rahmen ihrer frommen Kampagne, die darauf abzielt, die Ernten zu drosseln, indem der Kohlendioxidgehalt gesenkt wird, in dem eitlen Glauben, dass andernfalls ein geringer Temperaturanstieg eintreten wird, der die Zivilisation auslöschen wird.

Die gleichen Nationen, die nach dem Zweiten Weltkrieg erkannten, dass die Landwirte der Schlüssel zur Beendigung der Ernährungsunsicherheit sind, verlangen nun von den gleichen Bauernfamilien, dass sie die Landwirtschaft aufgeben oder ihre Wirtschaftsweise radikal ändern. Das vielleicht ungeheuerlichste Beispiel war die Forderung der niederländischen Regierung Ende 2022, dass bis zu 3000 Landwirte ihr Land verkaufen und aufgeben sollen, wenn sie keine Innovationen zur drastischen Verringerung der Emissionen (von CO₂ und Methan) einführen, auf eine neue Art von Unternehmen umstellen, ihren Standort verlagern oder einfach aufhören.

Anfang des Monats veröffentlichte die Weltbank einen Hochglanzbericht mit dem Titel „Recipe for a Livable Planet: Achieving Net Zero Emissions in the Agrifood System“ (Rezept für einen lebenswerten Planeten: Netto-Null-Emissionen im Agrarnahrungsmittelsystem) veröffentlicht, ein Ziel, das ihrer Meinung nach für die Erreichung der Netto-Null-Emissionen und die „Rettung des Planeten“ entscheidend ist. Die Lebensmittelproduktion, so heißt es, erzeugt fast ein Drittel des Kohlendioxids der Menschheit, mehr als Heizung und Strom.

Jawohl – die Erzeugung von Lebensmitteln ist schlecht für den Planeten. Und auch schlecht für die Menschen. Deshalb besteht die „Lösung“ in im Labor hergestelltem „Fleisch“, Heuschrecken und Würmern.

Um dieses „edle“ Ziel zu erreichen, hat die Weltbank einen „praktischen Leitfaden“ entworfen, um die bösen Landwirte zu zügeln, die den Planeten mit Lebensmitteln vernichten. Länder aller Einkommensstufen (einschließlich der ärmsten afrikanischen Länder) können sich auf sechs Schlüsselbereiche konzentrieren – Investitionen, Anreize, Information, Innovation, Institutionen und Integration.

Man vermutet, dass der Sprecher dieses Programms eine sechsäugige Spinne sein wird.

In der Praxis bedeutet dies laut Politico, dass die Milliarden, die reiche Länder zur Förderung von Produkten wie rotem Fleisch und Milchprodukten ausgeben, für „klimafreundlichere“ Optionen wie Geflügel, Obst und Gemüse umgewidmet werden. Ein wichtiges Ziel ist die Gemeinsame Agrarpolitik der EU, in der mehr als 70 Prozent des Budgets in die Subventionierung der Viehzucht fließen und ein Drittel aller landwirtschaftlichen Subventionsprogramme die Produktion von rotem Fleisch und Milchprodukten unterstützen.

Der britische Journalist Andrew Orlowski meint jedoch, dass die Arbeitskampfmaßnahmen der Landwirte in ganz Europa, Lateinamerika und Asien die Ernährungssicherheit nach Jahrzehnten der Selbstgefälligkeit wieder auf die Tagesordnung gesetzt haben. Die brandneue Kampagne „No Farmers, No Food“ hat bereits viermal so viele Unterstützer wie die National Farming Union zahlende Mitglieder hat. Die meisten haben sich angeschlossen, um gegen Umweltauflagen zu kämpfen, die sie für unsinnig halten.

Orlowski weist darauf hin, dass die Viehzucht die Böden düngt und ihre Qualität verbessert und dass das Methan, das durch das Rülpsen der Wiederkäuer freigesetzt wird, ein sehr kurzlebiges Treibhausgas ist. Insgesamt ist das Gleichgewicht zwischen Vieh und Pflanzen ein positiver Kreislauf, kein Teufelskreis, der die „Nachhaltigkeit“ des Bodens gewährleistet. Maßnahmen, die das Nahrungsmittelangebot reduzieren, sind kontraproduktiv.

Die Weltbank, so Orlowski, ermutigte früher arme Länder, durch wirtschaftliche Entwicklung reicher zu werden, aber die heutigen malthusianischen Zwänge (einschließlich der angeblichen „Betriebsgrenzen“ der Erde) ermutigen arme Nationen, arm zu bleiben. Sie rühmen sich, dass „emissionsarme Entwicklungsländer die Chance haben, direkt auf grüne Technologien umzusteigen und so den Weg zu einem neuen Entwicklungsmodell und einem gesünderen Planeten zu ebnen.“

Als Sri Lanka genau dies versuchte (biologische Landwirtschaft ohne Dünger und Pestizide), kam es zu einer großen Hungersnot.

Unsere eigene National Oceanic and Atmospheric Administration hat gerade eine Studie veröffentlicht, die besagt, dass das Kochen von Lebensmitteln die Luft verschmutzt. Diese beim Kochen von Lebensmitteln freigesetzten flüchtigen organischen Verbindungen (VOC) wirken sich laut NOAA negativ auf die Luftqualität aus.

Der NOAA- Foliant gibt dem Kochen pauschal die Schuld für die Freisetzung von Aromen in die Atmosphäre. „Wenn es eine Sache gibt, die die Forscher des Chemical Sciences Laboratory (CSL) der NOAA in ihrer mehrjährigen Untersuchung der unerkannten und unterschätzten Quellen der städtischen Luftverschmutzung gelernt haben, dann ist es dies: Wenn man es riechen kann, ist die Wahrscheinlichkeit groß, dass es sich auf die Luftqualität auswirkt.“

Der Apfelkuchen im Schaufenster ist schlecht für den Planeten. Oder?

In der Studie, die sich auf Los Angeles, Las Vegas und Boulder konzentrierte, stellten die Forscher fest, dass 50 Prozent der vom Menschen verursachten VOC in der Innenstadt von Las Vegas auf chemische Produkte zurückzuführen sind. Die andere Hälfte verteilte sich auf Verkehrs- und Kochemissionen. Sie schätzten, dass 20 Prozent der „anthropogenen VOC“ in Las Vegas auf Kochemissionen zurückzuführen sind. Es liegt auf der Hand, dass die Menschen dort ihr Leben aufs Spiel setzen, nur weil sie gekochte Speisen essen.

Es kommt noch schlimmer. Eine britische Studie fand heraus, dass „die menschliche Atemluft geringe, erhöhte Konzentrationen von Methan und Distickstoffoxid enthalten kann, die beide zur globalen Erwärmung beitragen.“ Die „Wissenschaftler“ mahnten zur Vorsicht bei der Annahme, „dass die Emissionen des Menschen vernachlässigbar sind“.

Und, oh weh! Die „Wissenschaftler“ „berichten in dieser Studie nur über Emissionen in der Atemluft, und Flatusemissionen erhöhen diese Werte wahrscheinlich erheblich.“ Genauso schlecht für den Planeten, so die Schlussfolgerung, sind die ausgeatmeten Emissionen von Nutztieren und „anderen“ Wildtieren (und wir dachten, Nutztiere seien domestiziert).

Offenbar sind die Emissionen von Hauskatzen völlig in Ordnung.

Was ist also die Lösung für unseren Planeten? Weniger Menschen bedeuten weniger Ernten, weniger Vieh und natürlich weniger „Benzin schluckende“ Kraftfahrzeuge, weniger Gebäude, weniger alles.

In der Zwischenzeit werde ich mir wohl einen Hamburger mit Speck und Käse, einen Milchshake und zum Nachtisch einen Käsekuchen gönnen.

Link: https://www.cfact.org/2024/05/15/the-war-on-food/

Übersetzt von Christian Freuer für das EIKE

 




Kältereport Nr. 20 / 2024

Christian Freuer

Vorbemerkung: Diesmal scheint der Winter in Osteuropa nicht weichen zu wollen. Und die Südhalbkugel wartet mit Meldungen auf – meine Einschätzung: da kommen immer wieder solche Meldungen!

Meldungen vom 13. Mai 2024:

Rekordkälte im Mai in Europa-Russland, die wichtige russische Getreideanbauregionen dazu veranlasst, den Notstand auszurufen

Extrem kalte arktische Luft hat Osteuropa und weite Teile Russlands in letzter Zeit in Atem gehalten und die Temperaturen bis zu -6 °C sinken lassen – ein Rekord-Tiefstwert für diese Jahreszeit.

Die nachstehenden Daten wurden mit freundlicher Genehmigung des nationalen russischen Wetterdienstes (Гидрометцентр России, Gidrometcentr Rossii) und über hmn.ru veröffentlicht.

Tschernosem (der „Schwarzerdegürtel“), der für seine reichen, tiefschwarzen Böden bekannt ist, wurde von starken Frösten heimgesucht. In Valuyki sank das Thermometer am 10. Mai auf -3,4 °C und brach damit den bisherigen Rekordtiefstwert für den Monat Mai von 0,8 °C aus dem Jahr 1952. Auch in Jelez (-1,2°C), Woronesch (-1,8°C) und Tambow (-2,3°C), um nur drei weitere Orte zu nennen, wurden neue Rekorde aufgestellt.

In der Wolgaregion und im gesamten Mai hat der Frost dreimal zugeschlagen (bis zum 12. Mai).

In Balaschow wurde vor kurzem ein Tiefstwert von -4,4 °C gemessen, was 2,2 °C unter dem alten, seit 1950 bestehenden Rekord liegt. In Alexandrov Gai wurde ein seltener Wert von -3,4°C gemessen.

Der Frost erreichte auch Lugansk, das mit -3,1°C den bisherigen Mai-Extremwert von -1,1°C aus dem Jahr 1950 unterbot.

Hier folgen noch diverse weitere Einzelwerte mit Rekordwerten.

Die Vorhersage sagt für diese Woche weitere Fröste voraus, bis zu -3°C in den Regionen Kostroma und Ivanovo zum Beispiel.

Schon vor diesem jüngsten Polarluft-Einbruch hatten drei der wichtigsten Getreideanbaugebiete Russlands den Notstand ausgerufen und schwere Frostschäden an den Kulturen geltend gemacht, welche die diesjährige Ernte voraussichtlich drastisch verringern werden.

In der vergangenen Woche verhängten die zentralen Regionen Lipezk, Woronesch und Tambow, die in Russlands fruchtbarem „Schwarzerdegürtel“ liegen, alle Notstandsmaßnahmen.

„Die Fröste Anfang Mai hatten katastrophale Folgen“, sagte Igor Artamonow, der Gouverneur der Region Lipezk. „Wir müssen uns darüber im Klaren sein, dass die diesjährige Ernte viel geringer ausfallen wird als die vorherige.“

Der jüngste Frost hat nicht nur Getreide, sondern auch andere Grundnahrungsmittel wie Ölsaaten, Kartoffeln, Zuckerrüben und Obst in Mitleidenschaft gezogen. Russland könnte wegen des kalten Wetters ein Drittel seiner Obsternte verlieren, berichtete die staatliche Zeitung Rossiyaskaya Gazeta Ende letzter Woche.

————————————–

Es folgt ein ausführlicher Beitrag zum jüngsten Sonnensturm und den Polarlichtern. Davon war hierzulande auch reichlich zu lesen. Cap Allon stellt jedoch am Schluss diesbezüglich Fragen, die hier nicht vorenthalten werden sollen:

Meine Fragen: Welche Rolle spielte das immer schwächer werdende Magnetfeld der Erde bei dem Sonnensturm, der am 10. und 11. Mai stärker war als erwartet? Und wie können die Befürworter der globalen Erwärmung den entscheidenden Antrieb durch die Sonne leugnen? Sie macht nur einen Schluckauf und der ganze Planet glüht.

Link: https://electroverse.substack.com/p/record-may-cold-sweeps-european-russia?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 14. Mai 2024:

Die erste Mai-Dekade im europäischen Teil Russlands war die kälteste jemals

Nach Angaben des Leiters des nationalen russischen Wetterdienstes, Roman Vilfand, werden die ersten zehn Tage des Monats Mai im europäischen Teil des Landes (mit einer Fläche von 3969 Millionen km²) als „die kältesten in der Geschichte der Beobachtungen“ gelten.

Wie gestern berichtet, hat diese Region in diesem Monat bereits drei verschiedene arktische Einbrüche erlebt und dabei jedes Mal langjährige Mai-Temperaturrekorde gebrochen.

Vilfand sagte, dass das Gebiet einem Ansturm kalter Luftmassen ausgesetzt war, die vom Arktischen Ozean nach Süden strömten, was für diese Jahreszeit ungewöhnlich ist und dazu führte, dass die Lufttemperatur in Westrussland etwa 10°C unter den klimatischen Normen lag.

Die beispiellose Kälte im Mai hat Gazprom ( den staatlichen multinationalen Energiekonzern) gezwungen, seine Energieversorgung zu verstärken. Berichten zufolge wurden die Verbraucher in diesem Monat mit Rekordmengen an Gas versorgt, die mit denen des Winters vergleichbar sind.

Besorgniserregend sind auch die daraus resultierenden Frostschäden an den Feldfrüchten, die diese Woche in Moskau diskutiert wurden.

Wie bereits gestern erwähnt, ist die berühmte russische Anbauregion, der „Schwarzerdegürtel“, von den monatlichen Rekord-Tiefsttemperaturen schwer getroffen worden, und es wurden große Ernteverluste gemeldet.

Die Ministerien haben den Notstand ausgerufen, auch in den zentralen Regionen Lipezk, Woronesch und Tambow, wo für den Mai noch nie dagewesene Tiefstwerte von -6°C gemeldet wurden.

Auch in diesen Regionen, selbst in Moskau, ist seltener Schnee gefallen.
Am 9. Mai fiel in der russischen Hauptstadt zum ersten Mal in der Klimageschichte Schnee (für dieses Datum). Offiziellen Angaben zufolge fielen in verschiedenen Teilen der Stadt etwa 5 cm, was in der 145 Jahre alten meteorologischen Aufzeichnung Moskaus noch nie vorgekommen ist.

Das Wetter an diesem Tag war bemerkenswert kalt, sagte Vilfand, vergleichbar mit einem Märztag. Mit einer Durchschnittstemperatur von nur 1,7 °C war der letzte Donnerstag der kälteste 9. Mai in Moskau seit 1972.

Frost und ungewöhnliche Schneefälle haben in letzter Zeit weite Teile Osteuropas heimgesucht, darunter auch die Ukraine.

Kältebedingte Verluste sind auch in Polen, Slowenien, der Slowakei, der Tschechischen Republik und Deutschland zu verzeichnen – um nur fünf Länder zu nennen.

Im Fernen Osten hat auch China mit kalten und nassen Witterungsbedingungen zu kämpfen.
In den heutigen Nachrichten geht es um Chinas 4-Milliarden-Dollar-Litschi-Ernte, die durch Regen, Hagel und unvorhersehbare Frostperioden dezimiert worden ist.

Trotz der Verlautbarungen des Establishments über die „immer heißer werdende Erde“ nehmen die Kälteausbrüche in China sowohl an Häufigkeit als auch an Intensität zu. Das Land hat sich die Ernährungssicherheit zum Hauptziel gesetzt, aber eine Reihe von arktischen Stürmen und extremen „Wetter-Peitschenhieben“ führen zu drastischen Ertragseinbußen. Schwankungen zwischen anomaler Hitze und glühender Kälte sind in Zeiten geringer Sonnenaktivität durchaus zu erwarten und werden sich in Zukunft noch verstärken. China weiß das. Ihre Wissenschaftler warnen schon seit Jahren davor.

————————————–

Es folgt noch ein Beitrag zum Thema „There is no Climate Crisis“.

Link: https://electroverse.substack.com/p/first-10-days-of-may-in-european?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 15. Mai 2023:

Starker Schneefall Mitte Mai in der Türkei

Teile der Türkei wurden von seltenem Mai-Schnee heimgesucht, darunter die westliche Provinz Kocaeli und die Schwarzmeerregion.

Die Woche begann mit einem Temperatursturz, und am Dienstag kam es in den höheren Lagen zu heftigen Schneeverwehungen. In den Bergen der Provinz Bolu zum Beispiel gab es erhebliche Schneefälle.

Die Schneefälle hielten auch am Mittwochmorgen an, unter anderem in der Provinz Kastamonu, und veranlassten das Allgemeine Meteorologische Institut des Landes, für sechs Provinzen die Wetterwarnstufe „Gelb“ zu verhängen.

Wie das nördlich gelegene Russland, das gerade die kältesten ersten 10 Tage des Monats Mai seit 145 Jahren erlebt hat, erlebt auch die Türkei einen historisch kalten und schneereichen Start in den Monat, dessen Kälte bis mindestens zum Wochenende nicht nachlassen soll.

Hier ein Blick auf die 2m-Temperaturanomalien für den Nahen Osten (mit der Türkei im Norden und Afrika im Westen):

2 m-Temperatur-Anomalien am 13. Mai [tropicaltidbits.com]

————————————–

Die Rekord-Maikälte in der Slowakei

Die Slowakei hat gerade einen neuen inoffiziellen Tiefsttemperaturrekord für den Monat Mai aufgestellt. Der am 13. Mai in Veľká Poľana gemessene Wert von -11 °C ist der bisher tiefste Maiwert des Landes (unterhalb von 1000 m).

Die Station Veľká Poľana gehört allerdings nicht zum Netz des Slowakischen Hydrometeorologischen Instituts (SHMI) und ist daher nicht offiziell anerkannt.

Der offizielle slowakische <1000m-Rekord liegt bei -8,8°C, aufgestellt in Oravská Lesná am 15. Mai 1954. Die niedrigste Mai-Temperatur in großer Höhe wurde mit -18,3 °C am 20. Mai 1952 in Lomnický štít (2645 m) gemessen.

————————————–

Es folgt noch ein Beitrag zum Klima-Kult (wurde hier separat übersetzt) sowie zu solaren Vorgängen.

Link: https://electroverse.substack.com/p/heavy-mid-may-snow-hits-turkey-slovakias?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 16. Mai 2024:

Chiles Hauptstadt inmitten des „längsten jemals aufgezeichneten Kälteeinbruchs“, während sich Südamerika auf einen weiteren antarktischen Ausbruch vorbereitet

Seit den seltenen Schneefällen der vergangenen Woche herrscht in Santiago de Chile eine historische Kälteperiode.

„Seit 1950 (d. h. in den letzten 74 Jahren) hatten wir keine so intensive Kälteperiode im Mai“, sagte Raul Cordero, Klimatologe an der Universität von Santiago. „Wir hatten Tage mit noch niedrigeren Temperaturen, aber jetzt haben wir eine Folge von acht Tagen mit Temperaturen weit unter den typischen Werten. Wir haben es also mit der längsten Kältewelle zu tun, die jemals in der Hauptstadt gemessen wurde, zumindest für die Herbstmonate.“

Die Kälte wird bis Donnerstag anhalten, wobei Cordero für das Zentrum Santiagos Temperaturen von 1,1 Grad Celsius vorhersagt – ein historischer Wert.

Es folgen die Aussichten auf ein Andauern und sogar eine Intensivierung der Kältewelle. Angesichts der Meldungen aus der Antarktis war so etwas zu erwarten.

————————————–

Und es geht gleich weiter mit der Südhemisphäre:

Kältester April in Australien seit 2015

Die Ankündigung des Bureau of Meteorology, dass es sich um den „heißesten Herbst/Winter aller Zeiten“ handelt, ist weiterhin peinlich. Der letzte Monat war der kälteste April in Australien seit fast einem Jahrzehnt – und das, obwohl das BoM diese höhere Temperaturen anzeigenden elektronischen Temperatursonden verwendet.)

Entgegen dem Versprechen der AGW-Partei, dass es „immer wärmer“ wird, verzeichnete Australien im letzten Monat einen überdurchschnittlich kalten April (im Vergleich zum Durchschnitt von 1951-1980), den kältesten seit 2015, und einen, der mit den April-Monaten der 1960er und 1970er Jahre konkurriert.

Ein Hochdruckgebiet südlich von WA war die Ursache für die Kälte, bei der südliche Winde polare Luft über den gesamten Kontinent nach Norden trieben – ein natürlicher Vorgang, der das Establishment verzweifeln lässt. Auszug:

Während also viele Gebiete der Erde im April 2024 eine rekordverdächtige Wärme erlebten, war Australien einer der wenigen Orte, die dank eines stagnierenden Wettermusters kühler als normal blieben. Dies ist ein gutes Beispiel dafür, wie Kälteperioden den längerfristigen Erwärmungstrend des Klimawandels überdecken können. – Ende Auszug)

————————————–

Es folgt noch ein Kurzbeitrag unter der Überschrift „Es gibt keine Klima-Krise“.

Link: https://electroverse.substack.com/p/chiles-capital-in-the-midst-of-longest?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 17. Mai 2024:

Frost in der Türkei

In verschiedenen Regionen der Türkei ist in dieser Woche der Winter zurückgekehrt, da anormale Tiefstwerte und starker Schneefall über das Land zogen.

In der Nordtürkei wurde die Demirkapı-Hocheben in ein weißes Meer verwandelt. Sie ist zu dieser Jahreszeit für ihre üppige Flora bekannt.

Auch in der Region Yedigöller (Sieben Seen), die den Dipsiz-See, den İkiz-See, den Kara-See, den Sarıçiçek-See, den Pirömer-See, den Aygır-See und den Balıklı-See umfasst, hat es stark geschneit. Die Straßen wurden hier unpassierbar, so dass groß angelegte Schneeräumungsaktionen durchgeführt werden mussten.

Die Skigebiete in der Türkei sind wieder in Aufregung geraten. In Erzurum zum Beispiel, wo sich das Skigebiet Palandöken befindet, hat die überraschende Rückkehr des Winters die Pisten wieder zum Leben erweckt, ebenso wie im Sarıkamış-Distrikt von Kars und in Kartalkaya in Bolu. In diesem Teil der Welt ist am Freitag ein weiterer kalter Tag zu erwarten, bevor sich die klimatischen Verhältnisse allmählich wieder normalisieren, da sich die Kälte nach Osten verlagern wird.

————————————–

Seltener Mai-Schnee in Hochlagen von Süd-Korea

In der südkoreanischen Provinz Gangwon fielen am Donnerstag in höheren Lagen mehr als ein Meter Schnee, was zu einer noch nie dagewesenen Schneewarnung für Mitte Mai führte.

Auf dem Berg Seorak [1700 m ü. NN] waren am Donnerstag bis 6 Uhr morgens 42 cm Schnee gefallen, auf dem Hyangro Peak waren es ähnlich viele.

Als Reaktion darauf gab die koreanische Meteorologiebehörde eine Warnung vor starkem Schneefall heraus. Dies war das erste Mal seit der Einführung des Warnsystems im Jahr 1996, dass eine solche Warnung Mitte Mai (oder später) ausgegeben wurde, und erst das zweite Mal im Monat Mai (das erste Mal im Jahr 2021).

Die Warnung wurde für die Bergregionen von Gangwon herausgegeben und trat überall dort in Kraft, wo mehr als 5 cm Schnee vorhergesagt wurden. Die Autofahrer wurden gewarnt, angesichts der eingeschränkten Sicht und der tückischen Bedingungen auf den Straßen besondere Vorsicht walten zu lassen.

————————————–

Warnung vor Schneefällen in den Australischen Alpen

Der bevorstehende Kaltlufteinbruch in Australien wird die Temperaturen in den Bergen unter den Gefrierpunkt sinken lassen und in den dortigen Alpenregionen Schnee bringen.

Nach dem historisch frühen Schneegestöber im April, das die Skigebiete in New South Wales und Victoria überzog, kommt diese Woche eine weitere Runde Kälte und Schnee aus dem Süden, um die australischen Pisten für die Eröffnung Anfang Juni vorzubereiten.

Insgesamt war es ein kalter und nasser Start in den Herbst in Australien, bei dem eine Reihe von monatlichen Tiefsttemperaturrekorden gefallen sind. Sogar nach den „offiziellen“ BoM-Daten war der April ein überdurchschnittlich kalter Monat, selbst im Vergleich zum kühlen Referenzzeitraum 1951-1980.

————————————–

Es folgt wieder ein Beitrag zur Sonnenaktivität.

Link: https://electroverse.substack.com/p/frozen-turkey-rare-may-snow-hits?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 21 / 2024

Redaktionsschluss für diesen Report: 18. Mai 2024

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Hinweis: Urlaubsbedingt wird der nächste Kältereport erst Mitte der übernächsten Woche erscheinen. Es werden aber unverändert alle Meldungen aufgezeichnet. – C. F.