Die Eisheiligen werden schon lange kälter in Deutschland….. und der Mai auch

Matthias Baritz

Dies ist eine Ergänzung zum EIKE-Artikel von Herrn Kowatsch vom 17. Mai 2022: Die Eisheiligen werden schon lange kälter in Deutschland und den Kommentaren dazu.

……Selbst in Städten wie Potsdam, Freiburg, Hamburg, Gießen und Dresden zeigen die Eisheiligen eine fallende Tendenz seit vielen Jahren….Da sollte man dann auch München dazu nennen:

Hier sind zusätzlich die Temperaturänderungen der Tmin und Tmax für die Eisheiligen dargestellt. Temperaturmittel aus den 5 Tagen, 11.-15. Mai, für jedes Jahr. Quelle DWD

Auch für die DWD-Station Ellwangen ergeben sich die gleichen Tendenzen. Die Eisheiligen haben sich im Tagesmittel um 2,8 K (München) bzw. 2,5 K (Ellwangen) in den letzten 30 Jahren abgekühlt.

Nun betrachten wir kurz die Temperatur-Entwicklung des Mai gesamt. Frau Kosch Zitat: Der Mai ist im 30-jährigen Mittel in den letzten 40 Jahren in Deutschland um 1,5 °C wärmer geworden.(comm. vom 18.05.22, 11.19 Uhr) Da fehlen mir aber die Belege. Oder könnte man sagen FAKE? Hauptsache, ein paar Zahlen in die Welt gesetzt, die alarmierend sind. Schauen wir uns die Originaldaten des DWD zu Deutschland an: https://www.dwd.de/DE/leistungen/zeitreihen/zeitreihen.html#buehneTop Hier findet man in Tabellenform alle Mai-Temperaturen, die man ganz einfach in EXCEL grafisch darstellen kann:

Man kommt zu einer Abkühlung von knapp 1K und nicht wie Frau Kosch meint 1,5 K Erwärmung.

An dieser Stelle ein Dank an Herrn Kowatsch, der unermüdlich sich diesem Erwärmungs-Alarmismus mit Fakten entgegenstellt. Ich kann den Mai-Betrachtungen nur zustimmen: Der Mai hat sich in den letzten 30 Jahren stark abgekühlt. Die Eisheiligen dagegen noch stärker

Matthias Baritz, Natur-Wissenschaftler,- Forscher und- Schützer

 




UN: „Die Welt geht unter“ – einen Knick* zeigende Analysen sagen etwas Anderes

Dr. Warren Smith

[*Der Begriff „Kink“ wird im Folgenden mit „Knick“ übersetzt. Eine bessere Übersetzung war nicht zu finden. Das Ganze erinnert stark an die Arbeiten von Öllinger, der darin Temperaturänderungen in Stufen heraus analysiert hat. A. d. Übers.]

Executive Summary:

Der jüngste UN-Bericht, in dem dringend Maßnahmen zur Verringerung des Katastrophenrisikos gefordert werden, beruht auf falschen Analysen und sogar einfachen Rechenfehlern.

Es wird ein Instrument zur Analyse nichtlinearer „Knicke“ in Zeitreihendaten entwickelt und vorgestellt, mit dem „aktuelle Trends“ in der Katastrophenhäufigkeit ermittelt werden können, die sich stark von den vom United Nations Office for Disaster Risk Reduction behaupteten langfristigen Trends unterscheiden.

Introduction:

Vor kurzem hat dieses Büro einen 256-seitigen Bericht mit dem Untertitel „Transforming Governance for a Resilient Future“ [etwa: Transformation der Staatsführung für eine widerstandsfähige Zukunft] veröffentlicht. Der Bericht fordert eine sofortige „Neuverdrahtung“ der multinationalen Governance-Strukturen, um sich auf eine prognostizierte Verdreifachung der extremen Wetterereignisse zwischen 2001 und 2030 und einen raschen Anstieg der allgemeinen Katastrophen weltweit von etwa 400 im Jahr 2015 auf 560 pro Jahr im Jahr 2030 vorzubereiten. In dem Bericht werden dringende Maßnahmen zur Bewältigung dieser zunehmenden Katastrophen dargelegt, wobei massive Investitionen und internationale Zusammenarbeit sowie eine Neufassung der Regeln, nach denen wir leben, gefordert werden.

Die „Herausforderung“, vor der die gesamte Menschheit steht, wird in mehreren Schlüsseldiagrammen dargestellt, die sowohl in dem Papier als auch – in bunterer Form – auf der UN-Website mit einer Zusammenfassung der Studie zu finden sind. Das heißt, die gesamte Studie basiert auf der Prämisse, dass die Häufigkeit und Schwere von Katastrophen zunimmt und die Menschheit gefährdet ist, wenn wir keine massiven Maßnahmen ergreifen, um uns vorzubereiten.

Die grundlegende Grafik, die das Problem beschreibt, ist im Folgenden wiedergegeben und stammt von der UN-Website:

Wie jedem erfahrenen Datenanalysten sofort klar sein sollte, stellt die dargestellte lineare Regression nach der Methode der kleinsten Quadrate die zugrunde liegenden Daten nicht gut dar. Insbesondere der „Fehler“ in der Grafik (die Abweichung des geschätzten Wertes von den tatsächlichen Werten) nimmt nach den späten 1990er Jahren dramatisch zu. Dies deutet darauf hin, dass die Linearität der Daten irgendwann in den späten 1990er Jahren zusammenbricht, so dass Prognosen, die weitgehend auf früheren Daten beruhen, ungültig werden.

Glücklicherweise enthält die Website einen Link zu den Daten, die zur Erstellung dieser recht alarmierenden Grafik verwendet wurden, so dass unabhängige Analysen möglich sind.

Es ist zwar verlockend, eine Linie von den Daten um 1998 diagonal nach unten zu ziehen und daraus den Schluss zu ziehen, dass Katastrophen tatsächlich seltener werden, aber ein solcher Ansatz ist nicht konsequent genug und ebenso anfällig für die gleiche Art von spitzfindigen Fehlern und Verzerrungen, die zur Erstellung dieser Grafik geführt haben. Es bedarf eines strengeren statistischen Ansatzes, um festzustellen, wann es unangemessen ist, einen Datensatz als „linear“ zu behandeln, und wann es angemessener wäre, den Datensatz in mehr als eine Linie aufzuteilen, um ihn separat zu schätzen.

Als Antwort darauf habe ich eine solche Technik entwickelt, die ich „Knick-Analyse“ nenne. Die Technik der Knick-Analyse wird in der zweiten Hälfte dieser Studie im Detail beschrieben, und eine Diskussion über dieses Hilfsmittel (das auch sehr gut für die Analyse von Trends in Klimadaten geeignet ist) ist willkommen. Das für diese „Knick-Analyse“ entwickelte Hilfsmittel wurde dann auf die von der UNO vorgelegten Daten angewandt, um festzustellen, ob ihre Anwendung der linearen Regression zur Vorhersage künftiger Katastrophenraten angemessen war oder nicht.

Knick-Analyse angewendet auf den UN-Katastrophen-Datensatz

Gesamtzahl globaler Katastrophen

Die Anwendung der Knick-Analyse (das weiter unten im Detail beschrieben wird) auf die Katastrophen-Daten aus dem UN-Bericht führte zu den folgenden Ergebnissen, die sich von den UN-Schlussfolgerungen stark unterscheiden:

Die blaue Linie stellt die Rohdaten dar, die braune Linie ist die Schätzung der UNO, und die gelben Linien zeigen die geknickten Trends, die sich aus den Daten ergeben.

Statistisch gesehen ist das Vorhandensein des Knicks mit p<0,000005 äußerst signifikant. Der Knick wurde um das Jahr 2004 festgestellt, aber die Konfidenzgrenzen für das tatsächliche Jahr des Knicks sind noch nicht definiert (was bedeutet, dass eine Suche nach dem Mechanismus zur Erklärung dieses Knicks auf einige Jahre vor oder nach 2004 konzentriert werden sollte). Durch die Einführung des Knicks verringert sich der gepoolte Standardfehler um 58 % im Vergleich zum Standardfehler der einfachen linearen Regression, die im UN-Bericht erscheint. Die Verringerung des Standardfehlers, gepaart mit der statistischen Signifikanz des Unterschieds in den Steigungen der beiden Linien (vor und nach dem Knick), zeigt, dass das geknickte Modell die Daten viel besser erklärt als das lineare Modell.

Die wichtigste Erkenntnis dabei ist, dass die Häufigkeit von Katastrophen im Gegensatz zu den Behauptungen des UN-Berichts offenbar abnimmt. Während der UN-Bericht auf der Grundlage der fehlerhaften Anwendung eines einfachen linearen Regressionsmodells die unheilvolle Behauptung aufstellt, dass „bei Fortsetzung der derzeitigen Trends die Zahl der Katastrophen pro Jahr weltweit von etwa 400 im Jahr 2015 auf 560 pro Jahr im Jahr 2030 ansteigen könnte – ein prognostizierter Anstieg um 40% – zeigt die Knick-Analyse, dass der derzeitige Trend ganz anders aussieht als dargestellt, und dass die Zahl der Katastrophen pro Jahr höchstwahrscheinlich auf 158 pro Jahr zurückgehen wird, was einem Rückgang um mehr als 60 % und damit wieder dem Niveau von 1980 entspricht. (Natürlich kann sich ein rückläufiger Trend nicht unbegrenzt fortsetzen und muss sich irgendwann verlangsamen und aufhören, aber es bleibt dabei, dass die alarmistische UN-Behauptung über den „aktuellen Trend“ völlig irreführend ist und der panische Bericht, in dem sofortige Maßnahmen gefordert werden, völlig fehlgeleitet ist).

Dürren

Der UN-Bericht prophezeit auch die für das Jahr 2030 zu erwartende Dürre und stellt die folgende Grafik vor, in der behauptet wird, dass die Dürre „von durchschnittlich 16 Dürreereignissen pro Jahr im Zeitraum 2001-2010 auf 21 pro Jahr im Jahr 2030 steigen wird“.

Die Variabilität von Jahr zu Jahr ist in diesem Datensatz viel höher, mit einer gewissen offensichtlichen Konjunkturabhängigkeit. Vielleicht aufgrund der größeren Variabilität liefert die Knick-Analyse nur wenig aussagekräftige Ergebnisse, denen nicht zu trauen ist. Ich füge das nachstehende Diagramm nur der Vollständigkeit halber bei:

Die hier dargestellten Ergebnisse unterscheiden sich nicht wesentlich von den von den UN veröffentlichten Ergebnissen.

Extreme Temperaturereignisse

Der UN-Bericht enthält auch ein Diagramm, das die Zunahme „extremer Temperaturereignisse“ anzeigt und behauptet, dass sich diese Ereignisse zwischen 2001 und 2030 „fast verdreifachen“ werden. (Es ist anzumerken, dass den UN-Daten zufolge die tatsächliche Zahl der extremen Temperaturereignisse im Jahr 2001 bei 23 lag, während sie für das Jahr 2030 nur 28 derartige Ereignisse vorhersagen, was einem Anstieg von nur 13 % entspricht. 13 % sind natürlich NICHT „fast das Dreifache“. Selbst wenn wir dem Autor Glauben schenken und zur Kenntnis nehmen, dass die Trendlinie im Jahr 2001 bei 14 lag, können die für 2030 vorhergesagten 28 Ereignisse nicht als „fast verdreifacht“ bezeichnet werden. Auch wenn der reich bebilderte Bericht mit seinen Diagrammen und Schaubildern dazu verleitet, den Schlussfolgerungen des Berichts Glauben zu schenken, belasten einfache Rechenfehler wie dieser die Glaubwürdigkeit).

Während der UN-Bericht eine stetig steigende Tendenz aufweist, zeigt die Knick-Analyse ein ganz anderes Bild:

Auch wenn die Signifikanz nur schwach ist (p=0,083, mit einer Gesamtverringerung des gepoolten Standardfehlers von nur 17,4 % gegenüber der einfachen linearen Regression), ist der „aktuelle Trend“ erneut rückläufig, was darauf hindeutet, dass der zukünftige Trend höchstwahrscheinlich rückläufig sein wird. Trotz der Behauptung, dass sich die Zahl der extremen Temperaturereignisse zwischen 2001 und 2030 verdreifachen wird, war die Zahl der extremen Temperaturereignisse in sieben der letzten acht Jahre geringer als im Jahr 2001 (im Durchschnitt 36 % weniger extreme Temperaturereignisse als 2001). Der in den aktuellen Daten festgestellte Abwärtstrend ist zwar nicht nachhaltig (da die Projektion dieses Trends auf 2030 eine Zahl unter Null ergeben würde), aber die Statistiken belegen einen anhaltenden Abwärtstrend, so dass die beste Schätzung für 2030 keine „Verdreifachung“ der Häufigkeit gegenüber 2001 ist, wie im UN-Bericht behauptet wird, sondern eher eine wesentlich geringere Häufigkeit als 2001.

Schlussfolgerung

Die Motivation für den dringenden Handlungsaufruf der UNO wird auf ihrer Website dargelegt, die eine Zusammenfassung des Berichts „Transforming Governance for a Resilient Future“ enthält. Die Motivation für den Handlungsaufruf wird in den drei oben genannten Grafiken deutlich, die dem Bericht zufolge immer häufiger auftretende Katastrophen zeigen, die eine Änderung der „Governance-Systeme“ (einschließlich einer „Überarbeitung der staatlichen Lenkung“, um mehr staatliche Kontrolle zu ermöglichen) erfordern. Glücklicherweise scheint es so, als ob die Risikoanalysen der UN, die sich auf ihre Grafiken stützen, völlig falsch sind. Die Dringlichkeit dramatischer Maßnahmen, die in diesem Bericht gefordert wird, beruht ausschließlich auf analytischen Fehlern und sogar krassen Rechenfehlern. Dieser UN-Bericht ist daher nicht vertrauenswürdig und muss zurückgewiesen werden. Die mangelnden statistischen (und sogar rechnerischen) Fähigkeiten in diesem Bericht lassen Zweifel an anderen UN-Studien und statistischen Berichten aufkommen.

[Hervorhebung vom Übersetzer]

Teil II

Kink Analysis (Knick-Analyse)

[Das ist sozusagen der theoretische Teil. Wegen der nach Ansicht des Übersetzers grundlegenden Bedeutung dieses Verfahrens, wird es hier mit übersetzt. A. d. Übers.]

Die grundsätzliche Frage lautet: Ist es möglich, genau festzustellen, ob es in einem Zeitreihendatensatz einen „Knick“ gibt oder nicht (wie in den oben vorgestellten UN-Daten) und wo dieser Knick liegt? Zwar haben Datenanalysten das Vorhandensein von Trendumkehrungen (z. B. bei Klimadaten) oft „ins Auge gefasst“, doch damit eine Analyse genau ist, muss sie objektiv sein, d. h. subjektive Faktoren, die manchmal die Voreingenommenheit des Analysten widerspiegeln, müssen entfernt werden. Somit stellt sich die Frage: „Kann ein ‚Knick‘ in einer Zeitreihe durch eine objektive statistische Methode ermittelt werden?“

Als Antwort auf diese Frage wurde das nachstehend beschriebene Verfahren entwickelt:

1. Nehmen wir an, dass ein Änderungspunkt (ein „Knickpunkt“) im Datensatz vorhanden sein könnte. Dann teilen wir für jeden Punkt im Datensatz (als „Knickpunkt-Kandidat“ bezeichnet) den Datensatz an diesem Punkt auf (wobei der Knickpunkt-Kandidat in beiden erzeugten Datensätzen vorhanden ist) und führen Regressionen an den Daten vor und nach dem Knickpunkt-Kandidaten durch, wobei die Verbindung zwischen den beiden Liniensegmenten kontinuierlich sein muss. (In dieser Arbeit verwende ich die lineare Regression nach der Methode der kleinsten Quadrate unter Verwendung von Octave mit einigen Datentransformationen, um sicherzustellen, dass die beiden Liniensegmente kontinuierlich zueinander sind).

2. Dann berechnen wir für jeden Knickpunkt-Kandidaten den gepoolten Schätzfehler für den gesamten Datensatz. (Da jedes Liniensegment den Knick-Kandidaten enthält, wird der Fehler am Knick-Kandidaten selbst doppelt gezählt, was eine Einschränkung für die Verwendung dieses Punktes darstellt und so eine Überanpassung verhindert).

3. Man wähle den Knickpunkt, der den Gesamtfehler minimiert. An diesem Punkt lässt sich der Umfang der Verringerung des gepoolten Schätzfehlers (im Vergleich zu einer einzelnen linearen Regression) leicht berechnen, was zeigt, dass das Knicklinienmodell dem Datensatz besser entspricht als eine einzelne lineare Regression.

4. Danach verwenden wir einen t-Test, um zu berechnen, ob die beiden Liniensegmente unterschiedliche Steigungen haben, und akzeptieren den Knickpunkt als tatsächlichen Knickpunkt, wenn der t-Test anzeigt, dass die Steigungsunterschiede der erzeugten Liniensegmente statistisch unterschiedlich sind.

Dazu ermitteln wir den Standardfehler in der Schätzung jeder Steigung unter Verwendung der Standardgleichung:

Daraus berechnet sich die t-Statistik folgendermaßen, wieder unter Anwendung der bekannten Gleichung:

5. Prüfung der Signifikanz der t-Statistik mit Hilfe von Freiheitsgraden = Gesamtzahl der Datenpunkte im Satz minus 3. (Normalerweise würde man beim Vergleich der Steigungen zweier Linien 4 Freiheitsgrade in den Linien verbrauchen, aber die Verbindung ist darauf beschränkt, am Kandidatenpunkt kontinuierlich zu sein, so dass nur 3 Freiheitsgrade verbraucht werden).

6. Akzeptiere, dass die Linie „geknickt“ ist, wenn der t-Wert hochsignifikant ist (p<0,01), ziehe in Betracht, dass ein Knick vorhanden sein könnte, wenn der t-Wert schwach signifikant ist (p<0,10), und lehne die Linie andernfalls als „geknickt“ ab.

Ich habe ein Octave/Matlab-Programm geschrieben, um die oben beschriebenen Berechnungen durchzuführen, und es an simulierten Datensätzen mit linearen Daten und überlagertem Gauß’schen Rauschen getestet. In 20 Versuchen erbrachte das Programm die erwarteten Ergebnisse: ein falscher Knick auf dem Niveau von p=0,10, ein falscher Knick auf dem Niveau von p=0,05 und kein falscher Knick auf dem Niveau von p=0,01.

Wenn hingegen simulierte Datensätze mit geknickten Signalen mit überlagerndem Gauß’schen Rauschen getestet wurden, wurden die Knicke trotz erheblichen Rauschens mit starker statistischer Signifikanz gefunden. Im Folgenden werden zwei Beispiele angeführt:

Beispiel 1: ein großer Datensatz (2000 Datenpunkte)

Als Grundlage diente ein Signal wie das unten Abgebildete:

Dazu wurde ein Gauß’sches Rauschsignal hinzugefügt, und das Ergebnis wurde durch den Knick-Analysator geleitet, um zu sehen, ob das Signal gefunden werden würde.

Trotz des extremen Rauschens wurde der Knick (der für das Auge eigentlich nicht wahrnehmbar ist) entdeckt (bei p=.005), so dass eine geknickte Regressionslinie entstand, die dem verborgenen Eingangssignal sehr nahe kam.

Die Lage des Knicks war etwas falsch (bei 1550 statt 1500).

Mit weniger Rauschen wurde die Lage des Knicks jedoch genauer bestimmt:

Hier ist die Existenz des Knicks für das menschliche Auge einigermaßen wahrnehmbar, aber statistisch völlig unbedenklich, mit einem p-Wert von 7e-24.

Beispiel 2: Kleinerer Datensatz (200 Punkte)

Auf einen ähnlichen geknickten Datensatz wie oben wurde Gauß’sches Rauschen angewendet, gefolgt von einer Knickanalyse. Das Ergebnis ist unten dargestellt:

Obwohl der Knick in diesem Datensatz für das Auge nicht sichtbar ist, konnte die Analyse dennoch erkennen, dass es einen Knick gibt (obwohl er in der Nähe von Punkt 124 statt von Punkt 150 berechnet wurde).

Mit weniger Rauschen wird der Ort des Knicks genauer identifiziert:

Beschränkungen:
Mit dieser Technik wird eine gekrümmte Linie (z. B. eine logarithmische Kurve) als Knick erkannt. Außerdem habe ich derzeit keine statistische Methode, mit der ich ein Vertrauensintervall für die Lage des Knicks festlegen könnte.

Schlussfolgerung:
Es ist zu erwarten, dass dieses Verfahren bei der Analyse politischer Maßnahmen angewendet wird, um nach Veränderungen von Trends in der Klimatologie, der Kriminalitätsstatistik usw. zu suchen, wo politische Eingriffe und andere Faktoren dazu führen, dass sich die Trends im Laufe der Zeit verändern (was eine einfache lineare Regression unangemessen macht).

Link: https://wattsupwiththat.com/2022/05/14/un-the-world-is-going-to-end-kink-analysis-says-otherwise/

Übersetzt von Christian Freuer für das EIKE

 




Was befindet sich unter dem Grönland-Eis?

Andy May in Paleoclimatology

Ein interessanter PNAS-Artikel* befasst sich mit dem tiefsten Teil des grönländischen Camp-Century-Eiskerns. Er ist nicht kostenpflichtig. Die Forscher unter der Leitung von Andrew Christ (Fachbereich Geologie, Universität Vermont) fanden Beweise für eine eisfreie, bewachsene Umgebung an der Basis des Camp-Century-Eiskerns vor etwa einer Million Jahren. Dies bedeutet, dass die Gletscher, die heute eine Dicke von 1,4 km (0,9 Meilen) haben, am Standort Camp Century vor etwa 0,7 bis 1,4 Millionen Jahren vollständig geschmolzen waren und sich dann neu gebildet haben. Der Standort Camp Century ist zusammen mit anderen Tiefeneiskern-Standorten in Abbildung 1 dargestellt.

[*PNAS = Proceedings of the National Academy of Sciences. A. d. Übers.]

Der grönländische Eisschild war vor 7,5 Mio. Jahren vollständig und wuchs von vor 3,3 bis 2,7 Mio. Jahren erheblich an. Im Allgemeinen sprechen wir also über einen Zeitraum, in dem Grönland in der Regel sehr ähnlich wie heute war.

Abbildung 1. Standort von Camp Century und Querschnitt durch das Grönlandeis.

Die Sedimente unter dem Eis enthalten gut erhaltene fossile Pflanzen und andere Paläo-Beweise für eine eisfreie Umgebung am Standort Camp Century. Makrofossilien wurden auch am NGRIP gefunden, allerdings im Eis. Fotos der im Camp Century-Kern gefundenen Makrofossilien sind in Abbildung 2 dargestellt:

Abbildung 2. Mikrofotografien von Makrofossilien und Konzentrationen von Blattwachs aus den basalen Bohrkernen.

Der Basalsedimentteil des Camp-Century-Kerns ist 3,4 Meter dick. Die Forscher unterteilten ihn in drei Einheiten. Die Beweise deuten darauf hin, dass die jüngste Sedimentschicht zwischen vor 0,7 und 1,4 Millionen Jahren geschmolzen und wieder gefroren ist. In Abbildung 3 zeigen wir Javiers Darstellung der letzten Millionen Jahre.

Abbildung 3. Javiers Abbildung der letzten 25 „MIS“-Interglaziale, wobei der Zeitraum von vor 0,7 bis 1,4 Ma markiert ist. Die Pseudo-Temperaturanomalie δ18O (Veränderung des Sauerstoff-18-Verhältnisses) ist hoch, aber nicht besonders ungewöhnlich für MIS 25, und die Anomalie der Sonneneinstrahlung bei 65°N ist ungewöhnlich hoch. Vielleicht fand zu diesem Zeitpunkt das Schmelzen statt.

Abbildung 4 zeigt das gesamte mögliche Intervall für das Camp Century-Schmelzereignis aus Tzedakis et al. (2017):

Abbildung 4. Die Spitzen der Orbital-Neigung [Orbital obliquity peaks] sind grau schattiert, die schwarze Linie ist die kalorische Sommerhalbjahres-Sonneneinstrahlung bei 65°N, die roten Kreise sind Sonneneinstrahlungsmaxima in der Nähe des Beginns von Interglazialen, schwarze Rauten sind anhaltende Interglaziale, hellblaue Dreiecke sind ausgefallene Interglaziale. Die orangefarbene Linie ist der δ18O-Gehalt, der die Temperatur darstellt. Die oberen Zahlen sind MIS-Nummern für Interglaziale und die unteren sind kyrs (Tausende von Jahren) vor der Gegenwart oder die Nummer eines fortgesetzten Interglazials oder eines ausgefallenen Interglazials. Der „mittelpleistozäne Übergang“ zu Gletscherzyklen mit geringerer Häufigkeit und größerer Amplitude ist in der Nähe von MIS 38/37 erkennbar. Quelle: Tzedakis, et al. (Nature, 2017).

Der frühere Teil der Zeit des Schmelzens liegt in der Nähe des „Mittelpleistozänen Übergangs“ vor etwa 1,25 Millionen Jahren [Ma]. Der „Mid-Pleistocene Transition“ (MPT) ist ein Zeitpunkt, der die erforderliche Gesamtenergie definiert, damit ein Interglazial beginnen und bestehen kann. Vor 1,5 Ma war weniger Gesamtenergie erforderlich, um das Gletschereis zu schmelzen und eine Zwischeneiszeit wie heute einzuleiten. Die benötigte Energiemenge steigt mit der Zeit an, bis sie sich vor etwa 0,6 Mio. Jahren abflacht (siehe Abbildung 5). Der Zeitraum des möglichen vollständigen Abschmelzens, der im Kern des Camp Century bei 77°N und 61°W zu sehen ist, entspricht im Wesentlichen der Breite des Übergangs im mittleren Pleistozän.

Abbildung 5: Temperaturspitzen für die letzten 2,6 Millionen Jahre, unterteilt in aktive Interglaziale (rote Punkte), ausgefallene Interglaziale (blaue Dreiecke), anhaltende Interglaziale (schwarze Rauten) und unsichere Zuordnungen (offene Symbole). Die gestrichelte schwarze Linie trennt aktive Interglaziale von fehlenden Interglazialen mit nur zwei Fehlzuordnungen (59 und 63). Die Rampe in der gestrichelten Linie ist der „mittelpleistozäne Übergang“. Die Y-Achse ist die effektive „Schmelzenergie“, d. h. die mittlere Sonneneinstrahlungsspitze zur Sommersonnenwende. Quelle: Nach Tzedakis, et al. (2017).

Während der MPT-Übergangszeit war die Stabilität des nördlichen Eisschildes im Fluss. Wie die Abbildungen 3 und 4 zeigen, waren MIS 31 (1,7 Ma) und MIS 25 (9,6 Ma) ungewöhnlich warm und fielen in einen Zeitraum mit wenigen sehr kalten Glazialen. In der Tat waren die Eiszeiten vor 600.000 Jahren nicht so kalt wie die Eiszeiten der letzten 600.000 Jahre. Der Eiskern von Dye legt nahe, dass es zwischen 424 und 374 ka (MIS-11) eisfrei war, aber Dye liegt viel weiter südlich als Camp Century (siehe Abbildung 1). MIS 11 liegt kurz nach dem Ende des MPT.

Die goldene Kurve in Abbildung 4 ist δ18O, ein Sauerstoffisotopenverhältnis, das linear mit der Oberflächentemperatur variiert. Es erreicht während der MIS-Intervalle Spitzenwerte. Die andere Kurve in Abbildung 4 ist die Sonneneinstrahlung bei 65°N. Diese Kurven sind auch in Abbildung 3 dargestellt, wo sie leichter zu lesen sind.

Die derzeitige Höhe der darunter liegenden Sedimentschicht in Camp Century liegt 500 m über dem mittleren Meeresspiegel. Würde die 1,4 km lange Eisschicht entfernt, so würde dies in etwa 10.000 Jahren zu einem Sprung von etwa 950 m führen. Wären also die Bedingungen beim Abschmelzen des Eises dieselben, würde die Höhe schließlich etwa 1 400 m betragen.

Schlussfolgerungen

Es ist schwer, aus den Daten in diesem Artikel eindeutige Schlussfolgerungen zu ziehen, aber ich finde ihn sehr interessant, und es ist ein gut geschriebener Artikel, dessen Lektüre zu empfehlen ist. Es ist erstaunlich, dass der grönländische Eisschild auf 77°N vollständig geschmolzen ist. Dass dies während des MPT geschah, ist jedoch weniger überraschend, da es sich eindeutig um eine klimatisch instabile Zeit handelte. Dieses geologische Ereignis hat keinen Einfluss auf die aktuelle Klimadebatte, aber es zeigt, dass natürliche Kräfte extreme Klimaveränderungen verursachen können.

Die Abbildungen 3, 4 und 5 zeigen, wie viel kälter die Eiszeiten in den letzten 600 Millionen Jahren waren als in den zwei Millionen Jahren davor. Wir leben derzeit in einem bitterkalten Abschnitt der Erdgeschichte. Das sollte uns zu denken geben, wenn die Regierungen versuchen, uns durch die Begrenzung der CO2-Emissionen in die Kleine Eiszeit (etwa 1300 bis 1850) zurückzudrängen.

Link: https://andymaypetrophysicist.com/2022/05/11/whats-below-the-greenland-ice/

Übersetzt von Christian Freuer für das EIKE

 




Die Eisheiligen werden schon lange kälter in Deutschland

Josef Kowatsch

Im Jahre 2022 gab es keine Eisheiligen

Die Eisheiligen sind die Tage vom 11.Mai bis 15.Mai. Ähnlich wie Weihnachten immer ein Warmluftvorstoß mit schöner Regelmäßigkeit erfolgt, so trifft sehr oft um die Monatsmitte des Wonnemonates ein Kaltluftstrom polaren Ursprungs bei uns ein. Doch diesmal nicht.

Das PIK Potsdam, das deutsche Zentrum einer menschengemachten CO2-Erwärmung lässt schon per Satzung alle Fakten außer Acht, die nicht in ihr Glaubensbild der CO2-Erwärmungssatzung passen. Man geht per Satzungsbeschluss davon aus, dass CO2 der Temperatur bestimmende Faktor ist und befasst sich ausschließlich mit den Auswirkungen einer geglaubten zukünftigen Klimaerwärmung. Deswegen bedeutet das „K“ in PIK auch nicht Klima, sondern Klimafolgen.

Deshalb ziehen wir für diesen Artikel just jene Potsdamer DWD-Klimastation heran und fragen uns, wie entwickelten sich die fünf Eisheiligentage dort a) seit Bestehen der Station? und b) seit Bestehen des PIK?

Eisheiligen in Potsdam seit Bestehen der Klima-Station

Grafik 1: In dieser Grafik sind nicht die Schnitte der fünf Tage aufgelistet, sondern jeder einzelne Tag, für jedes Jahr also fünf Eintragungen pro Jahr. Wir sehen über die fast 130 Jahre keine Tendenz. Der Schnitt liegt bei 13,1°C. Die Eisheiligentagesrekorde, sowohl Minimum als auch Maximum liegen weit zurück.

Erg: Obwohl Potsdam seit 1893 stark in die Fläche gewachsen ist und der städtische Wärmeinseleffekt sich damit vergrößert hat, ebenso der CO2-Ausstoß der brandenburgischen Landeshauptstadt stark angestiegen ist, konnte Kohlendioxid keine Erwärmung während der Eisheiligen bewirken. Wie der DWD müsste auch das PIK Potsdam verkünden: Die Eisheiligen sind CO2-resistent.

Ein längerer Nachkriegszeitraum:

Die Kohlendioxid-Erwärmungsgläubigen behaupten jedoch, dass insbesondere in den letzten Jahrzehnten die Temperaturen grundsätzlich gestiegen wären, da nach dem Kriege der CO2-Ausstoß schon aufgrund des globalen Bevölkerungswachstums und des Wohlstandes besonders zugenommen hat. Deshalb stellen wir uns die Frage:

Wie verhalten sich dabei die Eisheiligen? Wohin ging beispielsweise der Trend seit der Mitte des letzten Jahrhunderts, bzw. der letzten 30 Jahre?

Grafik 2: Seit 1943, also seit 80 Jahren zeigen die Eisheiligen bei der DWD-Station Potsdam eher eine leichte Tendenz zur Abkühlung, die aber nicht signifikant ist. Und just in diesem Zeitraum sind die CO2-Konzentrationen weltweit stark angestiegen. Die Eisheiligen sind somit CO2-resistent, siehe Keeling-Kurve, Stand April 2022

Grafik 3: Die Keeling-Kurve mit den Messwerten des atmosphärischen Gehalts an Kohlenstoffdioxid in der Atmosphäre, gemessen am Mauna Loa.

Die Eisheiligen während der letzten 3 Jahrzehnte

Eine Klimaeinheit umfasst die letzten 30 Jahre. Die Gegenwart zeigt entgegen der globalen CO2-Zunahme einen erstaunlichen gegenläufigen Zusammenhang zwischen Temperaturen und CO2-Anstieg: Die Kohlendioxid-Konzentrationen sind in Deutschland in den letzten 3 Jahrzehnten stark gestiegen, die Eisheiligen wurden deutlich kälter.

Grafik 4: Innerhalb der letzten 30 Jahre werden die Eisheiligen bei der PIK-Station Potsdam deutlich kälter. In dieser Grafik sind die 5 Eisheiligentage eines jeden Jahres zu einem Eisheiligen-Gesamtschnitt zusammengefasst.

Frage an denkende Mitleser: Hat der starke CO2-Anstieg in Deutschland gerade in den letzten 30 Jahren die starke Abkühlung der Eisheiligen bewirkt?

Jedenfalls gibt es auch natürliche Gründe des sich ständig ändernden Klimas. Baritz und Seiffert fanden heraus, dass die die fünf Tage vor den Eisheiligen und die 5 Tage danach deutlich wärmer sind, siehe Grafik 5 (Arbeit wird noch veröffentlicht)

Grafik 5: Einordnung der Eisheiligentage in die 5 Maientage davor und danach

Eisheiligen in anderen Regionen: Selbstverständlich unterscheiden sich diese 5 Tage in den einzelnen Regionen Deutschlands. Im Süden waren die Eisheiligen diesmal besonders warm. Trotzdem ergibt sich über 30 bzw. 31 Jahre ein ähnliches Bild einer fallenden Trendlinie wie in Potsdam.

Grafik 6: In der Südhälfte Deutschlands sind die Eisheiligen diesmal ganz ausgefallen. Der Schnitt lag um 9 Grad über dem Eisheiligenschnitt der letzten beiden Jahre.

Eisheiligen in der Gegenwart

Unter Gegenwart verstehen wir das neue Jahrtausend. Wir betrachten eine ländliche Station im Westen Deutschlands an der Grenze zu Belgien

Abb.7: In der Gegenwart und insbesondere bei ländlichen Stationen sind die 5 Eisheiligentage besonders kälter geworden. Grund: In den Städten werden kalten Maientage und Nächte einfach rausgeheizt.

Und was vermeldet der Deutsche Wetterdienst über die Eisheiligen?

Kurzantwort: Der DWD weiß nicht, was Eisheilige bedeutet

Der DWD schreibt u.a. auf seiner homepage über die diesjährigen Eisheiligen: …In diesem Jahr glänzten die Eisheiligen jedoch durch Abwesenheit. Vielmehr gaben sich Sommerwärme und Sonne ein Stelldichein. Von frostigen Nächten war keine Spur und tagsüber herrschte in den meisten Regionen Deutschlands Sommerwetter mit Nachmittagstemperaturen häufig über 25°C und lokalen Wärmegewittern. Die Heiß- … ähm … Eisheiligen wurden am Mittwoch am Rhein sogar mit dem ersten Hitzetag eingeläutet (Ohlsbach: 30,1°C; Worms: 30,0°C)…“

Kritik am DWD-Artikel: 1) Unter Eisheilige versteht man etwas anderes, nämlich die Tages-TIEFST-Temperatur eines Eisheiligentages, denn diese 1 Stunde Frost kann eine ganze Pflanzung zerstören. Auch hierbei bestand 2022 keine Gefahr, denn die tiefste Nachttemperatur bei der Wetterstation Ellwangen war diesmal in den Morgenstunden des 14. Mai und betrug +4,9°C, die 2.tiefste eine Nacht davor mit +7,5 C. Als Faustregel gilt: Die Minimumtemperaturen der Nächte liegen ca. 10 Grad unter dem 5-Tagesschnitt, die Höchstwerte etwa 10 Grad über dem 5-Tagesschnitt.

2) Diesmal erwähnt der DWD leider auch wieder nur die Tageshöchsttemperaturen in einzelnen Orten. Das ist eine Irreführung der Medien, denn so sind Eisheilige nicht definiert. Der DWD müsste die Tagestiefstwerte, die in den Morgenstunden vor Sonnenaufgang auftreten, als Beispiele anführen.

3) Leider hat der DWD in den beiden letzten Jahren nichts über die Eisheiligen veröffentlicht als es reihenweise nächtliche Minimum-Temperaturen unter 0°C gab. Ein Artikel erscheint beim DWD nur, wenn die Eisheiligen wegen fehlender nächtlichen Kälte ausgefallen sind.

4) Von einem grundsätzlichen Kälterwerden der Eisheiligen in den letzten Jahrzehnten in Deutschland schreibt der DWD gar nichts, der DWD-Artikel ist im Schlussabschnitt sogar irreführend falsch, „…Auch wenn erst vor zwei Jahren die Eisheiligen richtig zuschlugen, sind sie in den vergangenen Jahren oft ganz ausgeblieben…“ und „…Kann man unter diesen Voraussetzungen überhaupt (noch) von einer echten Singularität sprechen? Viele Experten führen die Veränderungen auch auf den Klimawandel zurück, weshalb Kaltlufteinbrüche im Mai immer seltener frostig ausfallen…“

Fazit: der DWD argumentiert bei den Eisheiligen gegen seine eigenen Daten und beruft sich auf namenslose Experten. Wir empfehlen dem DWD, die Artikel von EIKE zu übernehmen, damit die Leser von namentlich genannten Experten informiert werden.

Die wissenschaftliche Frage eines Klimaforschers wäre, weshalb die Eisheiligen in Deutschland seit einigen Jahrzehnten kälter werden?

Was könnten die Gründe sein für die fast beängstigend kälter werdenden fünf Eisheiligentage in der Gegenwart?

Unter Gegenwart verstehen wir die Jahre nach der Jahrtausendwende

Wie man an den Grafiken des Artikels erneut erkennt, hatte die Zunahme von Kohlendioxid in der Atmosphäre keinerlei wärmenden Einfluss auf den Schnitt der fünf Eisheiligentage. Im Gegenteil, die Eisheiligen werden kälter. Allerdings soll auch nicht behauptet werden, dass CO2 kühlend wirkt.

Einige der Gründe für das Kälter werden haben wir (Kämpfe/Kowatsch) schon vor 5 Jahren ausführlich bei EIKE beschrieben. Demnach haben sich die Großwetterlagen für Mitteleuropa geändert, das sind natürliche Gründe der ständigen Klimaänderungen, die Nordwinde haben zu- und die Sonnenstunden abgenommen. Bestimmt gibt es noch weitere Gründe, dieser Artikel soll die Leser zur Ursachenforschung anregen. Immerhin sind die Eisheiligen auch in anderen Ländern, z.B. im ungarischen Sprachraum namentlich bekannt. (jég szent). Sie sind also keinesfalls nur auf Deutschland beschränkt. Die Frage ist nur, ob diese Tage auch in den anderen Ländern seit 40 Jahren bzw. seit der Jahrtausendwende kälter werden.

Fazit: Dem DWD sei empfohlen, seine Eisheiligenartikel irgendwann mit Grafiken zu belegen, und zwar auch mit Grafiken ländlicher DWD-Stationen, die der EIKE-Leser kostenlos erhält. Auffallend: Selbst in Städten wie Potsdam, Freiburg, Hamburg, Gießen und Dresden zeigen die Eisheiligen eine fallende Tendenz seit vielen Jahren.

Es wird Zeit, dass mit dem Irrglauben einer permanenten Erwärmung der Eisheiligen, verursacht durch CO2 endlich Schluss gemacht wird. Es gibt viele Faktoren, die das tägliche Wetter und damit das Klima bestimmen. Klima sind 30 vergangene Wetterjahre, so die Definition. Falls wie behauptet, Kohlendioxid der Hauptfaktor bzw. gar der alleinige Faktor des Wettereinflusses sein sollte, dann hätte CO2 bei den Eisheiligen eindeutig eine kühlende Wirkung. In Wirklichkeit zeigen auch die Grafiken des Artikels wiederum, dass CO2, wenn überhaupt, eine unbedeutende Rolle spielt. Menschen verursachte Wärmeinseleffekte wirken viel stärker. Es kommt auf die Gesamtwirkung der vielen klimabestimmenden Faktoren in Deutschland an. Und bei den fünf Eisheiligentagen heißt die Gesamtwirkung momentan eindeutig Abkühlung. Das kann sich auch wieder ändern.

Anzumerken bei Grafik 1 – keine Änderung seit 1893 ist aber, dass nur der steigende Wärmeinseleffekt der Stadt die ebene Trendlinie von Potsdam bis heute hält. Wäre Potsdam so klein geblieben wie 1893 mit der damals noch kümmerlichen Wärmeinselwirkung, dann würde die Trendlinie von Potsdam bereits seit 1893 nach unten gehen. Seit gut 40 Jahren werden aufgrund unseres Wohlstandes besonders kalte Eisheiligentage in den Städten und Gemeinden, wo auch die Wetterstationen stehen, einfach weggeheizt. Sonst wären die Trendlinien noch fallender.

Fazit: Die CO2-Konzentrationen steigen und die Eisheiligentage werden zunehmend kälter.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gestellt werden und nicht CO2-Klimaschutz. Eine CO2-Steuer schützt keine Natur und ändert am Verlauf der Temperatur über die Eisheiligen gar nichts.

Josef Kowatsch, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher

 




Gallup-Umfrage: Amerikaner stufen den „Klimawandel“ immer noch an letzter Stelle der Umweltprobleme ein

Anthony Watts, ClimateREALISM

Verringerung der Treibhausgasemissionen für den Klimawandel und eine nachhaltige Entwicklung

Trotz jährlicher Ausgaben in Milliardenhöhe für Öffentlichkeitsarbeit, Bildung und Propaganda sind die Amerikaner laut einer neuen Gallup-Umfrage immer noch nicht der Meinung, dass der Klimawandel das wichtigste Umweltproblem der Welt ist.

Wie in Abbildung 1 unten dargestellt, rangiert „Globale Erwärmung oder Klimawandel“ in der neuen Gallup-Umfrage 2022 auf dem letzten Platz unter sieben Umweltthemen.

Abbildung 1. Tabelle der von Gallup veröffentlichten Umfrageergebnisse zu spezifischen Umweltproblemen.

Die Befragten stuften die Verschmutzung des Trinkwassers als ihr größtes Umweltproblem ein. Die „Verschmutzung von Flüssen, Seen und Stauseen“ steht an zweiter Stelle der Umweltsorgen der Bürger. „Der Verlust der tropischen Regenwälder“, „Luftverschmutzung“ und das „Artensterben“ rangierten auf den Plätzen drei bis fünf. Die „globale Erwärmung oder der Klimawandel“ rangierte auf dem letzten Platz der Umweltsorgen, über die sich die Befragten „große Sorgen machen“.

In der Pressemitteilung von Gallup heißt es:

Von 2001 bis 2015 gab knapp ein Drittel der Amerikaner an, dass sie sich große Sorgen um die Umwelt machen, wobei die Zahl nur zweimal, 2001 und 2007, über 40 % lag.

Bei der Frage, welche Umweltprobleme den Amerikanern Sorgen bereiten, stellt Gallup fest, dass die Verschmutzung des Trinkwassers und die Verschmutzung natürlicher Wasserwege ganz oben auf der Liste stehen, wobei Mehrheiten sagen, dass sie sich jeweils große Sorgen machen. Dazu gehören mehr als sechs von zehn Demokraten, 58 % der Unabhängigen und etwa vier von zehn Republikanern.

Auch für die Demokraten ist die globale Erwärmung mit 67 % ein wichtiges Anliegen, während sie bei den Unabhängigen und Republikanern an letzter Stelle steht. Luftverschmutzung und der Verlust der tropischen Regenwälder rangieren bei allen Gruppen im Mittelfeld der Sorgen.

Die Amerikaner haben den „Klimawandel“ bzw. die globale Erwärmung wiederholt auf den letzten Platz aller Umweltthemen gesetzt.

Hier eine Zeitleiste mit Umfrageergebnissen zu diesem Thema:

Gallup-Umfrage 2011: Amerikaner sorgen sich am wenigsten um die globale Erwärmung… rangiert an letzter Stelle aller Umweltprobleme! Schlusslicht – 9. von 9 Umweltanliegen

2012 Gallup-Umfrage: Klima steht an letzter Stelle aller Umweltsorgen

2015 Gallup: Amerikaner sorgen sich am wenigsten um die globale Erwärmung

In der Öffentlichkeit besteht eindeutig ein Konsens darüber, dass es größere Umweltprobleme gibt als den Klimawandel.

Autor: Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://wattsupwiththat.com/2022/05/10/americans-still-rank-climate-change-dead-last-among-environmental-concerns-reports-gallup/

Übersetzt von Christian Freuer für das EIKE