War Klimawandel ursächlich für den Untergang des Römischen Reiches?

Kip Hansen

Hat der Klimawandel den Untergang des Römischen Reiches verursacht? Nein, aber in diesen Zeiten der Klima-Konfusion ist das eine tolle Geschichte.

Das Unterhaltungsmagazin NewScientist veröffentlichte am 26. Januar 2024 einen Artikel aus der Feder von Alec Luhn mit dem Titel: „Plagues that shook the Roman Empire linked to cold, dry periods“ [etwa: Plagen, die das Römische Reich erschütterten, hängen mit kalten, trockenen Perioden zusammen] und dem Untertitel „A study reconstructing the climate of Italy during the Roman Empire based on marine sediments shows that three pandemics coincided with cooler, drier conditions“ [etwa: eine Studie, die das Klima Italiens während des Römischen Reiches anhand von Meeressedimenten rekonstruiert zeigt, dass drei Pandemien mit kühleren, trockeneren Bedingungen zusammenfielen].
In dem NewScientist-Beitrag wird ein Artikel in der Zeitschrift ScienceAdvances besprochen:

Karin A. F. Zonneveld et al., „Climate change, society, and pandemic disease in Roman Italy between 200 BCE and 600 CE“ [etwa: Klimawandel, Gesellschaft und Krankheits-Pandemien im römischen Italien zwischen 200 v. Chr. und 600 n. Chr.].

Kyle Harper, einer der Mitautoren, wird zitiert:

„Das Römische Reich steigt und fällt und steigt und fällt“, sagt Harper. „Es gibt eine Reihe von Episoden mit zum Teil sehr extremen Krisen. Und ich denke, es ist jetzt eindeutig erwiesen, dass sowohl der Klimawandel als auch pandemische Krankheiten in vielen dieser Episoden eine Rolle gespielt haben.“

Luhn, Autor des NewScientist-Artikels, fährt fort: „Kältere, trockenere Bedingungen haben möglicherweise die Ernten gestört, das Immunsystem der römischen Bürger geschwächt und die Verbreitung von Krankheiten durch Migration und Konflikte begünstigt. … Vor der Justinianischen Pest, die durch dieselben durch Flöhe übertragenen Bakterien verursacht wurde wie der Schwarze Tod im 14. Jahrhundert, verdunkelten drei gewaltige Vulkanausbrüche die Sonne und leiteten die ‚Kleine Eiszeit der Spätantike‘ ein. Historische Berichte aus dieser Zeit berichten von Ernteausfällen.“

Nur um das zu verdeutlichen:

Harper [einer der Co-Autoren der Studie] sagt, dass die Studie Fragen über den Klimawandel in der römischen Ära und auch in unserer eigenen aufwerfen sollte: „Es gibt einem eine Perspektive, um zu verstehen, dass zwei bis drei Grad [Celsius] Veränderung absolut enorm sind und eine enorme Belastung für menschliche Gesellschaften darstellen.

Geschichtsstudenten können die Ereignisse dieser kritischen 800 Jahre der römischen Geschichte ganz unterschiedlich interpretieren.

Zonneveld et al. (2024) bleiben nicht unwidersprochen, auch nicht in der Berichterstattung von NewScientist:

„Während diese neuen Sedimentaufzeichnungen unser Verständnis des römischen Italiens verbessern, wissen wir nicht genug über den Rest des Reiches, um sagen zu können, dass der Klimawandel die Plagen auslöste oder verstärkte, sagt Timothy Newfield von der Georgetown University in Washington DC. Er hat argumentiert, dass die Auswirkungen der Justinianischen Pest übertrieben wurden.

Ob diese drei römischen Pandemien im Einzelnen den Untergang Roms herbeigeführt haben, ist meiner Meinung nach schwer zu beweisen“, sagt er. „Man kann nicht lediglich eine oder zwei Variablen dafür verantwortlich machen.“

Paul Erdkamp von der Vrije Universiteit Brussel hat einen Vorabdruck veröffentlicht, der mit folgendem Satz beginnt: „1984 listete der deutsche Althistoriker Alexander Demandt über zweihundert Ursachen für den Niedergang der römischen Welt auf, die in der bisherigen Forschung vorgeschlagen worden waren. Die Liste zeigt deutlich, dass unser Blick auf die Vergangenheit sehr stark von den Belangen der Gegenwart bestimmt wird.“ Und weiter heißt es: „Günstige klimatische Bedingungen ermöglichten im Allgemeinen eine Ausweitung der Ausbeutung und der Besiedlung, aber das Gegenteil war keineswegs zwangsläufig der Fall. Die gesellschaftlichen Umstände bestimmten, ob Entwässerung, Bewässerung oder veränderte Anbaustrategien die ungünstigen natürlichen Bedingungen überwanden. Der Klimawandel mag zu einer Zunahme der Häufigkeit von Ernteausfällen im Westen geführt haben, aber weitaus schädlicher war die abnehmende Fähigkeit der Gesellschaft, die Auswirkungen von Ernteschocks auf die Nahrungsmittelversorgung abzumildern, deren weitreichendere Auswirkungen die Abwärtsspirale der Wirtschaft des Westens [Weströmisches Reich] auslösten.

Unter dem Strich:

1. Auf allen Gebieten der Wissenschaft und in allen akademischen Bereichen wird Druck ausgeübt, um in jedem Stückchen Forschung die Klimawandel-Krise zu finden. Nur wenige mutige Seelen erkennen, dass es sich dabei um die Überlagerung aktueller akademischer Moden mit prosaischen Fakten handelt.

2. Der NewScientist-Artikel schafft es, den Klimawandel (siehe Nr. 3) und Pandemien (Seuchen) einzubauen, während er über eine Studie „basierend auf Meeressedimenten“ berichtet, die postuliert, dass „…drei Pandemien im Römischen Reich mit ungewöhnlich kalten und trockenen Perioden zusammenfielen“ und somit den Untergang des Römischen Reiches verursachten (und dazu beitrugen), was der Liste von 200 anderen Ursachen, die zuvor identifiziert wurden, hinzugefügt wurde.

3. Und während wir hier Schlagzeilen sehen wie „der Klimawandel verursachte den Untergang des Heiligen Römischen Reiches“, bleibt unerwähnt, dass es nicht steigende Temperaturen, nicht Erwärmung, Erhitzung oder Sieden waren, die diesen großen Untergang verursachten, sondern „abnormale Kälteperioden“.

4. Die Klimakrisen-Medien könnten versuchen, einen Satz wie „Dürreperioden wie heute haben das Römische Reich zu Fall gebracht“ zu verwenden – der IPCC sagt „das ist nicht unbedingt so“. An manchen Orten herrschen zu bestimmten Zeiten Dürreperioden, an anderen schon seit langem. Das ist Klima und nicht Klimawandel. Um Paul Erdkamp zu zitieren: „Das Konzept des Klimawandels bezieht sich auf Trends in diesen wilden und scheinbar zufälligen Fluktuationen, aber diese Trends sind weit davon entfernt, offensichtlich und leicht erkennbar zu sein.“

5. Die Fähigkeit einer Gesellschaft, sich auf die Herausforderungen von Wetter und Klima einzustellen, sich ihnen anzupassen und sie abzumildern, entscheidet über den Erfolg dieser Gesellschaft – heute genauso wie damals im Römischen Reich. Und diese Fähigkeit hängt von Wohlstand, stabilen, wohltätigen Regierungen und einer zuverlässigen Energieversorgung ab.

Kommentar des Autors dazu:

Der Grund dafür, dass der „Klimawandel“ die ärmeren Länder stärker betrifft als die reicheren, liegt darin, dass die ärmeren Länder arm sind – sie verfügen nicht über die Ressourcen, um sich an das anzupassen, was die Welt ihnen auferlegt und es abzumildern. In vielen Fällen haben die armen Länder keine stabilen Regierungen, die sich für das Wohlergehen ihrer Bürger einsetzen.

Ganz einfach gesagt: Warm ist besser.

Bleiben Sie warm und vielen Dank für die Lektüre.

Link: https://wattsupwiththat.com/2024/01/29/did-climate-change-cause-the-fall-of-the-roman-empire/

Übersetzt von Christian Freuer für das EIKE

 




Mehr zu künstlicher Ignoranz

Willis Eschenbach

Mein vorheriger Beitrag mit dem Titel „Künstlicher Alarmismus“ [in deutscher Übersetzung hier] hat einige Kommentare von Leuten erhalten, die meinen, dass ich falsch liege und dass großsprachige Modelle in der Tat die Faktenüberprüfung wissenschaftlicher Behauptungen automatisieren können. Dies war ein interessanter Kommentar, für den ich dem Verfasser danken möchte:

Die Art von KI-Anwendungen, von denen ich spreche, lehnt keine Dinge ab. Sie fassen sie zusammen, auch die Debatten. Im Übrigen habe ich ChatGPT kürzlich dazu gebracht, korrekt zu erklären, warum Happer dem Alarmismus nicht zustimmt. Nichts wurde abgelehnt.

Die Mathematik, auf die ich mich beziehe, wird in der Wissenschaft verwendet. Fast alle veröffentlichten wissenschaftlichen Arbeiten verwenden Mathematik, sie ist also universell. In dem Artikel, auf den ich mich beziehe, verwende ich Monte Carlo als Beispiel. Es gibt einen Fortschritt in der Monte-Carlo-Methode, der in einer Fachzeitschrift für Forstwirtschaft veröffentlicht wurde und der in alle anderen Bereiche gelangen muss, die diese Methode verwenden – und das sind sehr viele.

Sie wissen ja, wie Google jetzt verwandte und verfeinerte Suchanfragen vorschlägt. Das ist KI, und sie funktioniert gut.

Daraufhin beschloss ich als Wissenschaftler, dass das Experiment viel besser ist als die Theorie. Also ging ich zu ChatGPT, und es stellte sich heraus, dass es ziemlich lustig war, aus einem Grund, den ich am Ende erklären werde. Zunächst zu den Fragen und Antworten, Hervorhebung von mir:

Ich:

Welche dieser beiden Aussagen ist richtig?

1)Die Temperatur auf der Erde wird hauptsächlich durch CO₂ gesteuert, oder

2) Die Welttemperatur wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Nino/La Nina-Veränderungen und Wirbelstürme gesteuert.

ChatGPT:

Beide Aussagen erfassen wichtige Aspekte des Klimasystems der Erde, aber sie betreffen unterschiedliche Ebenen des Einflusses:

Der Haupteinfluss auf die Temperatur der Erde ist CO₂: Diese Aussage unterstreicht die Rolle der Treibhausgase, insbesondere von Kohlendioxid (CO₂), bei der Regulierung der Erdtemperatur. Treibhausgase halten die Wärme in der Atmosphäre zurück, tragen zum Treibhauseffekt bei und beeinflussen die globalen Temperaturen über lange Zeiträume.

Die Temperatur der Erde wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Niño/La Niña und Wirbelstürme gesteuert: Diese Aussage verdeutlicht den Einfluss kurzfristiger und regionaler Wettermuster und -phänomene auf die globalen Temperaturschwankungen. Ereignisse wie El Niño und La Niña, die Teil des El Niño-Southern Oscillation (ENSO)-Zyklus sind, können zu vorübergehenden Veränderungen der globalen Temperaturmuster führen. Ebenso können Gewitter und Wirbelstürme lokale und regionale Temperaturen beeinflussen.

Beide Aussagen sind bis zu einem gewissen Grad zutreffend, aber sie wirken auf unterschiedlichen Ebenen und in unterschiedlichen Zeiträumen. Treibhausgase wie CO₂ üben einen langfristigen Einfluss auf die globalen Temperaturen aus, während aufkommende Phänomene wie Wettermuster und natürliche Klimaschwankungen kurzfristige Temperaturschwankungen auf regionaler und globaler Ebene verursachen können.

Ich

Du verstehst das nicht. Beide können nicht „die wichtigste Kontrolle“ sein. Du musst dich für eines entscheiden!

ChatGPT

Ich verstehe, und Sie haben Recht. Lassen Sie uns das klarstellen:

Es geht um diese beiden Aussagen:

Die Temperatur auf der Welt wird hauptsächlich durch CO₂ gesteuert.

Die Temperatur auf der Erde wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Niño/La Niña-Veränderungen und Wirbelstürme beeinflusst.

In Anbetracht des langfristigen und übergreifenden Einflusses auf die globale Temperatur wäre eine genauere Aussage angebracht:

Der Haupteinfluss auf die Welttemperatur ist CO₂.

Während aufkommende Phänomene wie Gewitter und Klimaschwankungen kurzfristige Schwankungen und regionale Abweichungen der Temperatur verursachen können, werden der Gesamttrend und die langfristigen Veränderungen der globalen Temperatur weitgehend von Faktoren wie der Treibhausgaskonzentration bestimmt, wobei CO₂ einen wesentlichen Beitrag leistet. Daher beschreibt Aussage 1 die primäre Steuerung der weltweiten Temperatur genauer.

Rein zufällig hatte ich eine Frage gestellt, die das Problem der künstlichen Intelligenz perfekt auf den Punkt bringt. Ich werde gleich darauf zurückkommen. Zunächst etwas Geschichte.

Als ich um das Jahr 2000 anfing, mich mit dem Klima zu beschäftigen, fiel mir etwas auf, und zwar nicht, dass die Temperatur steigt.

Ich betrachtete das Klima als eine riesige Wärmekraftmaschine, die Sonnenenergie in die Bewegungen der Ozeane und der Atmosphäre umwandelt. Wie alle Wärmekraftmaschinen hat sie ein heißes Ende, wo die Energie hauptsächlich eintritt (die Tropen), und ein kaltes Ende, wo die Energie abgestoßen wird (die Pole).

Ich habe in meinem Leben mit einer Vielzahl von Wärmekraftmaschinen gearbeitet und weiß, wie schwierig es ist, sie dazu zu bringen, eine konstante Geschwindigkeit zu halten. Aus diesem Grund hat James Watt den Flyball-Regler erfunden.

Der Regler regelte die Geschwindigkeit der von James Watt neu erfundenen Dampfmaschine und verhinderte, dass sie zu langsam oder zu schnell lief. Ein moderner Regler, den viele kennen, ist der „Tempomat“ in Ihrem Auto, der Ihre Geschwindigkeit in relativ engen Grenzen hält. Meiner ist auf etwa ± 2 Meilen pro Stunde bei sagen wir 50 mph, also ± 4 %, genau.

Alle Berechnungen über Wärmekraftmaschinen müssen in Kelvin durchgeführt werden – man kann nicht Celsius oder Fahrenheit verwenden, man würde die falschen Antworten erhalten.

Als ich mir also im Jahr 2000 das Klima ansah, war mir nicht so sehr aufgefallen, worauf sich alle anderen konzentrierten – dass sich der Globus im gesamten 20. Jahrhundert größenordnungsmäßig um irgendetwas um 0,6 K erwärmt hat.

Für mich war vor allem interessant, dass dies nur eine Temperaturveränderung von 0,2 % im gesamten 20. Jahrhundert war. Die globale Durchschnittstemperatur der Erde liegt in der Größenordnung von 288 K oder so … und eine Änderung von 0,6 K ist im Vergleich dazu trivial.

Und für mich deutete die Temperaturregulierung der riesigen globalen Wärmekraftmaschine mit einer Genauigkeit von ± 0,2 % stark darauf hin, dass es ein natürliches Phänomen gibt, das die Temperatur stabil hält – ein natürlicher Regler, wenn man so will.

Das brachte mich auf eine ganz andere Suche als all die anderen Klimawissenschaftler. Sie alle suchten nach Gründen, warum die Temperatur so stark angestiegen war. Aber ich? Ich suchte nach Gründen, warum sie sich kaum verändert hatte. Ich suchte nach dem versteckten Regler, der die globale Temperatur im 20. Jahrhundert so stabil gehalten hatte. In diesen hundert Jahren war alles Mögliche passiert – Vulkane, Veränderungen der Meeresströmungen, Atombomben, Dürren, Schwankungen der Menge der Aerosole, und bei all dem … eine Veränderung von 0,2 %.

Und das Gleiche gilt für den längeren Zeitraum. Über Jahrtausende hinweg hat sich die Temperatur prozentual gesehen nur geringfügig verändert. Ja, ein gigantischer Vulkanausbruch im Jahr 1815 hatte ein „Jahr ohne Sommer“ verursacht … aber nach ein paar Jahren war alles wieder beim Alten. Ich war also auf der Suche nach etwas, das die Temperatur über einen langen Zeitraum hinweg kontrollieren konnte.

Ich war auf der Suche nach einem langsamen, langfristigen Kontrollprozess. Ich dachte an die allmähliche Verwitterung des kontinentalen Gesteins, die für eine langsame Regulierung des CO₂-Gehalts in der Atmosphäre sorgt. Ich habe mir das Hirn zermartert, um einen natürlichen Regler zu finden, der auf einer hundertjährigen oder tausendjährigen Skala funktioniert. Ich verbrachte einige Monate damit, verschiedene Möglichkeiten zu suchen, auszuwählen, zu überdenken und wieder zu verwerfen.

Zu dieser Zeit lebte ich auf den Fidschi-Inseln. Dort ist das Wetter bei Sonnenaufgang im Allgemeinen klar. Dann, am späten Vormittag, wenn die Temperatur eine bestimmte Schwelle überschreitet, bilden sich schnell Wolken in Form eines Kumulusfeldes, das den gesamten Himmel bedeckt. Dadurch kühlt sich die Erde ab, da die Sonnenstrahlen in den Weltraum zurückgeworfen werden.

Und falls es am Tage noch wärmer wird, wenn die Temperatur einen höheren Schwellenwert überschreitet, kommt es zu Gewittern, welche die Oberfläche auf vielfältige Weise weiter abkühlen.

Ist der Tag dagegen morgens besonders kühl, bildet sich das Kumulusfeld erst später am Tag oder vielleicht gar nicht, so dass die Oberfläche wärmer bleibt als sie es sonst wäre. Es kann auch sein, dass es keine Gewitter gibt, so dass die Oberfläche noch wärmer wird.

Und dazwischen sorgen sie dafür, dass die Tage auf den Fidschi-Inseln weder zu heiß noch zu kalt werden. Aber ich hatte sie verworfen, weil sie nur kurzzeitig wirken und nicht der langfristige Regulator sind, den ich gesucht habe.

Jedenfalls saß ich eines Tages am Strand und betrachtete den täglichen Beginn des Kumuluswolkenfeldes, und ich dachte … „Moment mal. Falls die Wolken und Gewitter die Temperatur an einem einzigen Tag in Grenzen halten und verhindern, dass es entweder zu heiß oder zu kalt wird, dann werden sie sie auch eine Woche lang in Grenzen halten … oder einen Monat, ein Jahr, ein Jahrhundert, ein Jahrtausend …“

Das war meine große Einsicht – dass emergente Phänomene, indem sie die Temperatur in einem bestimmten Bereich auf einer Skala von Stunden und Tagen halten, die Temperatur auf dieselbe Weise für eine beliebige Zeitspanne in einem bestimmten Bereich halten können.

Denken Sie nun daran, warum ich bei meinem Gespräch mit ChatGPT gelacht habe. Gehen Sie zurück und schauen Sie sich an, warum ChatGPT CO₂ gegenüber auftauchenden Phänomenen als Hauptsteuerungsfaktor ausgewählt hat – weil ChatGPT denkt, dass sie nur kurzfristige Auswirkungen haben.

Wie merkwürdig. ChatGPT blieb genau dort stecken, wo ich schon so lange feststeckte, bevor ich zu der Einsicht kam, dass ein Mechanismus, der die Temperatur eines einzigen Tages steuert, die Temperatur über Hunderte von Jahren kontrolliert.

Und so, liebe Freunde, erwies sich meine unschuldige Frage an ChatGDP rein zufällig als perfektes Beispiel dafür, warum ich sage, dass künstliche Ignoranz nutzlos ist, um die Wahrheit oder Falschheit wissenschaftlicher Behauptungen zu bestimmen – sie kann nicht denken, wir aber schon. Im Gegensatz zum Menschen kann es nicht einen Monat lang über etwas nachdenken und dann plötzlich eine wertvolle Erkenntnis haben.

Alles, was es tun kann, ist, den aktuellen Konsens nachzuplappern … und leider gibt es schon viel zu viele Menschen, die genau das tun.

Meine besten Wünsche an alle, ob Skeptiker, Gläubige, Ketzer, Alarmisten, Realisten, Mainstream oder Hinterwäldler.

Link: https://wattsupwiththat.com/2024/01/29/more-about-artificial-ignorance/

Übersetzt von Christian Freuer für das EIKE

 




Positive Strahlenwirkungen – Teil 2: Wie ist das alles zu verstehen?

Dr. Lutz Niemann

Die weltweit praktizierten Strahlenschutzgesetze schützen vor einer Strahlendosis, die nicht nur keine gesundheitliche Gefahr darstellt, sondern die im Gegenteil das Immunsystem von Lebewesen stärkt und somit für eine bessere Gesundheit sorgen kann (siehe Teil 1). Dieser Schutzmechanismus tritt unterhalb des NOAEL-Wertes („No Observed Adverse Effect Level”) auf. In der Medizin spricht man von adaptiver Antwort und Impfungen sind eine segensreiche Anwendung.

Wie ist der Effekt der adaptiven Antwort oder Hormesis zu verstehen?

Der menschliche Körper besteht aus etwa lebenden 1014 Zellen. In jeder Sekunde sterben etwa 2 bis 3 Millionen Zellen und es wird die gleiche Anzahl von Zellen neu gebildet. Die Gesundheit der Zellen bestimmt die Gesundheit des Menschen. Wenn für den Körper lebenswichtige Zellen sterben, dann stirbt auch der Mensch. Das Leben des Menschen wird bestimmt durch das Leben der Zellen. In jeder Zelle des Menschen findet der lebensnotwendige Stoffwechsel statt. So werden in jeder Zelle in jeder Sekunde eine Million CO-Moleküle als Verbrennungsprodukt der in der Nahrung enthaltenen Nährstoffe gebildet, mit dem Blutkreislauf abtransportiert und über die Lunge ausgeatmet.

Das Immunsystem muss alle Fremdstoffe – auch schädliche Bakterien und schädliche Viren – bekämpfen. Durch eine Schnapspraline werden dem Körper 10²² giftige Alkoholmoleküle zugeführt, das ergibt rechnerisch für jede Zelle 100 Millionen abzubauende Giftmoleküle. Dieser Abbau gelingt ohne Probleme, der Mensch leidet nicht darunter. Durch den Abbau der Ethanol-Moleküle wird das Immunsystems trainiert, es ist gut für die Gesundheit des Menschen. Erst bei höherer Alkoholzufuhr gelingt der Giftabbau nicht reibungslos, der Mensch verspürt Vergiftungserscheinungen, die je nach Trainingszustand mehr oder weniger stark sind.

Alle Fremdstoffe, die vom Körper bekämpft werden müssen, sind in geringer Menge gut für das Immunsystem, denn sie trainieren es in seinen Fähigkeiten. Ein gut trainiertes Immunsystem kann den nächsten Angriff durch dieselben Fremdstoffe besser überstehen. Das ist ein Nutzen für den Körper.

Welche Dosis von Strahlung ist nützlich / schädlich?

Es ist zunächst zu klären, was eine Strahlendosis von 1 Milli-Sievert (1 mSv) bedeutet. Das kann man sich durch eine Rechnung an einem Beispiel klar machen: Man nehme zum Beispiel die Gamma-Strahlung von körpereigenen Kalium-40, berechne deren Dosis und schaue sich die Anzahl der von einem Gamma-Strahl getroffen Zellen an. Hier soll nur das Ergebnis mitgeteilt werden:

Ein Milli-Sievert bedeutet eine Strahlenspur pro Zelle.

Damit bedeutet der in Deutschland (und weltweit) geltende Grenzwert durch Zusatzbestrahlung in der Kerntechnik von 1 mSv pro Jahr, daß höchstens einmal im Jahr jede Zelle des Körpers von einem Strahlenteilchen durchquert werden darf und in der Zelle eventuell „Unheil“ anrichten darf. Ein Ereignis im Jahr ist verschwindend wenig im Vergleich mit den Lebensvorgängen in jeder Zelle wie Verbrennen von Kohlehydraten mit Bildung von einer Million Aschemolekülen CO2 in jeder Sekunde.

Prof. Dr. Ludwig E. Feinendegen formulierte (siehe hier)

Wie ist die Beobachtung der nützlichen Strahlenwirkung zu verstehen?

Durch ionisierende Strahlung werden Elektronen in den Molekülen der Zellen von ihren Plätzen entfernt. Soweit es sich dabei um Bindungselektronen handelt, bedeutet das chemische Veränderungen in den Zellen. Diese Veränderungen können von zellulären Abwehrmechanismen korrigiert werden. Zusätzliche Verlagerungen von Bindungselektronen bedingen wiederum Anregung für zusätzliche Korrekturprozesse in der Zelle. Es können alle Bindungselektronen mit mehr oder weniger gleicher Wahrscheinlichkeit getroffen werden, daher können alle möglichen chemischen Reaktionen in der Zelle angeregt werden. Somit können alle möglichen Korrekturreaktionen in den Zellen durch Training gestärkt werden. Das wiederum bedeutet sehr vielseitige Möglichkeiten, infolge Strahlung das Abwehr- und Immunsystem der Zellen zu stärken.

Bei der Gabe von Medikamente an Patienten geschieht ähnliches, aber es werden spezifische Reaktionen angeregt, immer nur in Bezug auf eine bestimmte Therapie einer Krankheit. Die Wirkung von Strahlung ist unspezifisch, vielseitiger als bei Medikamenten. So erklärt sich auch die Tatsache, daß schädliche Wirkungen von Chemikalien durch Vorbestrahlung gemildert oder vermieden werden können.

T.D. Luckey, M. Doss, W. Allison, C.L. Sanders geben Empfehlungen für optimale Dosis zum Erreichen einer biopositiven Wirkung, wobei das Training der Zellen wie bei sportlicher Aktivität gleichmäßig über die Zeit zu verteilen ist:

Die Zunahme des Krebsrisikos bei den Überlebenden der Kernwaffenexplosionen in Japan war ab 1,5 Sv in einer Zeit von Sekunden sicher zu beobachten (Teil 1, Bild 6). Das bedeutet für jede Zelle des Körpers 1500 Strahlenspuren durch jede Zelle. Da wird es verständlich, daß Schäden wie Störungen im Stoffwechsel der Zellen oder hin und wieder die Initiierung von Krebs auftreten können.

Folgende Übersicht zu den Dosisleistungen [Dosis / Stunde] zeigt die Bereiche von Schaden und Nutzen: Grün sind die Bereiche normal = ohne Wirkung unten, Nutzen in der Mitte und Gefahr oben

Rot = Bereich vom Co-60 Ereignis (rot) und dem von Luckey, Allison, Doss, Sanders empfohlenen nützlichen Dosisleistungsbereich (blau).

Die Dosisleistung in den „Todeszonen“ von Tschernobyl und Fukushima reicht bis in den Bereich der nützlichen Dosisleistung hinein. Dieser Nutzen war gering, aber messbar, siehe Bild 11 und 12 in Teil 1. Der Bereich der eindeutig positiven Strahlenwirkung wie beim Co-60-Ereignis in Taiwan wurde nicht erreicht.

Die Evakuierungen in Fukushima und Tschernobyl wurden gemacht, weil es die Gesetze erfordern. Dadurch wurde den Menschen eine Strahlendosis verweigert, die ihnen eventuell einen geringfügigen gesundheitlichen Nutzen hätte bringen können.

Die Evakuierungen in Fukushima selber brachten weit über 1000 Personen den Tod. Das ist bekannt, wird aber nur in den Fachmedien erwähnt. Nach anfänglichem Zögern wurden aus den Krankenhäusern sogar die Intensivpatienten abtransportiert, mit dem Tod von ca. 50 Patienten, weil deren Versorgung unterbrochen worden ist. Man weiß, daß Intensivpatienten nicht von den Versorgungsgeräten getrennt werden dürfen. Die Tatsache, daß dieses trotzdem gemacht worden ist, wirft ein trauriges Bild auf die Folgen des unsinnigen Gehorchens der Strahlenschutzgesetzgebung.

In Tschernobyl wurden etwa doppelt so viele Menschen aus ihren Wohnungen evakuiert wie in Fukushima. Es ist damit zu rechnen, daß dort auch doppelt so viele Menschen als Folge dieser Maßnahmen zu Tode gekommen sind.

Die bei den Unfällen von Tschernobyl und Fukushima nach „Recht und Gesetz“ (???) durchgeführten Evakuierungen waren falsch. Diese Maßnahmen brachten vielen Menschen Unglück bis zum Tod.

In Fukushima waren es über 1000 Todesopfer, in Tschernobyl vermutlich sehr viel mehr, denn dort wurden doppelt so viele Menschen aus ihren Wohnungen vertrieben. Die Strahlung in den Umgebungen der verunfallten Kernkraftwerke lag im unteren Bereich der Hormesis.

Hätte man die Menschen nicht evakuiert, dann hätten sie von der nützlichen Strahlenwirkung profitieren können. Dieses wurde ihnen durch die falschen Strahlen“schutz“ (???) gesetze verwehrt.
Die Gesetze sind falsch, hier ist dringende Korrektur erforderlich. Eine Initiative sollte dazu sollte von den Personen ausgehen, die die Zusammenhänge verstehen: Den Strahlenschutzauthoritäten

[1] T.D. Luckey, “The health effect of low dose ionization radiation”, J. Amer. Phys. Surgeons Vol. 13, 2, 39-42

[2] W. Allison, „Nuclear is for Life, A Cultural Revolution“, ISBN 978-0-9562756-4-6, Nov. 2015

[3] M. Doss, “Linear-No-Threshold Model vs. Radiation Hormesis”, Dose-Response, 11:495-512, 2013

[4] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010

 




Klima- und Energie-Phantasterei und -Tyrannei

Paul Driessen

Es ist rätselhaft und erschreckend, dass unser Leben, unser Lebensunterhalt und unser Lebensstandard zunehmend von aktivistischen, politischen, bürokratischen, akademischen und medialen Führungseliten diktiert werden, die theoretischen Unsinn, kalkulierte Mythen und regelrechte Desinformation verbreiten.

Nicht nur in Bezug auf Pronomen, Geschlecht und Einwanderung – sondern auch in Bezug auf den Klimawandel … und Energie, die Grundlage der modernen Zivilisation und Lebenserwartung.

Ständig wird uns gesagt, dass die Welt in eine existenzielle Klimakatastrophe stürzen wird, falls die Durchschnittstemperaturen auf dem Planeten um ein paar Zehntel Grad weiter steigen, weil wir fossile Brennstoffe für zuverlässige, erschwingliche Energie und Rohstoffe für mehr als 6000 lebenswichtige Produkte nutzen und Milliarden von Menschen aus Armut, Krankheit und frühem Tod befreien.

Der Klimaalarmismus geht implizit davon aus, dass das Klima der Erde stabil war, bis die Emissionen von Kohle, Öl und Gas es aus dem Gleichgewicht brachten … und dass es wieder stabil wäre, wenn die Menschen aufhören würden, fossile Brennstoffe zu nutzen.

In der realen Welt hat sich das Klima zahlreiche Male verändert, oft dramatisch, manchmal katastrophal, aber immer auf natürliche Weise. Mehrere Eiszeiten und Zwischeneiszeiten, römische und mittelalterliche Wärmeperioden, eine kleine Eiszeit, große Überschwemmungen, Dürren und Dürreperioden – all das gab es schon lange vor dem Einsatz fossiler Brennstoffe.

Die Daten zu Tornados und Hurrikanen sowie anderen extremen Wetterereignissen zeigen, dass diese nicht häufiger oder intensiver werden. Man mag einwenden, dass Harvey und Irma 2017 eine plötzliche Zunahme schwerer Hurrikane markierten – aber das ist nur so, weil es nach Wilma zwölf Jahre lang keinen einzigen Hurrikan der Kategorie 3-5 gegeben hatte.

Wir müssen die Panikmache ignorieren, uns die tatsächlichen historischen Aufzeichnungen ansehen und erkennen, dass gefährlichere, noch nie dagewesene Kalamitäten und Aufwärtstrends einfach nicht vorhanden sind. Wir müssen darauf bestehen, dass die Panikmacher bei den jüngsten Temperatur-, Klima- und Wetterereignissen zwischen menschlichen Einflüssen und natürlichen Kräften unterscheiden und diese quantifizieren – und zeigen, wann, wo und wie menschliche Aktivitäten natürliche Kräfte ersetzt haben. Das haben sie nicht getan.

Der einzige Ort, an dem vom Menschen verursachte Temperatur- und Klimakatastrophen existieren, sind Michael Manns und andere GIGO-Computermodelle. Diese Klimamodelle sind für die politische Entscheidungsfindung wertlos, weil sie nicht durch tatsächliche Messungen überprüft werden, die Auswirkungen der städtischen Wärmeinsel nicht berücksichtigen und die enormen Ausmaße und die Komplexität der atmosphärischen, planetarischen und galaktischen Kräfte nicht berücksichtigen können, die das Klima der Erde bestimmen.

In Wirklichkeit sind die Menschen und der Planet weit mehr durch eine globale Abkühlung als durch eine Erwärmung bedroht. Selbst ein Rückgang der globalen Durchschnittstemperatur um ein paar Grad würde die Vegetationsperioden, die Anbauflächen, das Pflanzenwachstum, den Lebensraum für Wildtiere und die landwirtschaftliche Produktion drastisch reduzieren – insbesondere falls dies mit einem Rückgang des Pflanzen düngenden atmosphärischen Kohlendioxidgehalts einhergeht. Pflanzen, Tiere und Menschen wären vom Hungertod bedroht.

Man sagt uns auch, die herrschenden Eliten könnten diese imaginäre Krise verhindern, indem sie uns auf Wind-, Solar- und Batteriestrom umstellen. (Sie wollen auch Kühe und die moderne Landwirtschaft abschaffen, weil sie sich falsche Sorgen um Methan und Dünger machen, aber das ist eine andere Diskussion).

Bauen Sie ein Kohle-, Gas- oder Kernkraftwerk – und wenn die Regierungen es nicht abschalten oder die Brennstoffzufuhr unterbrechen, liefert das Kraftwerk jahrzehntelang fast rund um die Uhr und an 365 Tagen im Jahr reichlich, zuverlässigen und bezahlbaren Strom. Baut man dagegen eine riesige, weitläufige Wind- oder Solaranlage, muss man jedes Kilowatt mit Kohle, Gas oder Atomstrom – oder mit Millionen von riesigen Batterien – für jede wind- und sonnenlose Periode absichern.

Die wirtschaftlichen und ökologischen Auswirkungen wären ruinös.

Kohle-, Gas- und Kernkraftwerke können in der Nähe von stromintensiven städtischen Zentren gebaut werden. Zehntausende von Windturbinen und Milliarden von Solarmodulen müssen dort aufgestellt werden, wo es guten Wind und Sonnenschein gibt, weit weg von städtischen Gebieten, verbunden durch Hochspannungsleitungen. Nach Angaben der Internationalen Energieagentur (IEA) bräuchte die Welt bis zum Jahr 2040 etwa 80.000.000 Kilometer neuer und verbesserter Übertragungsleitungen, um Net Zero zu erreichen!

Für all diese „sauberen, grünen, erneuerbaren, nachhaltigen und erschwinglichen“ Wind-, Solar- und Batteriesysteme, Notstromaggregate, Übertragungsleitungen und Elektrofahrzeuge würden Millionen von Tonnen Eisen, Kupfer, Aluminium, Mangan, Kobalt, Lithium, Beton, Kunststoffe und zahlreiche andere Metalle und Mineralien benötigt.

Onshore-Windturbinen benötigen neunmal mehr Material pro Megawatt – und Offshore-Turbinen vierzehnmal mehr – als ein Gas- und Dampfturbinenkraftwerk, rechnet die IEA vor. Solarzellen und Elektrofahrzeuge haben das gleiche Problem.

Um diese Materialien zu gewinnen, müssen Milliarden Tonnen überlagernden Gesteins abgetragen werden, um an Milliarden Tonnen von Erzen zu gelangen – die dann in riesigen Industrieanlagen verarbeitet werden müssen, die Quecksilber und giftige Chemikalien verwenden … große Mengen an Treibhausgasen und giftigen Schadstoffen ausstoßen … und mit Kohle oder Erdgas betrieben werden. Viele Bestandteile dieser „grünen“ Technologien werden aus Erdöl und Erdgas gewonnen.

Die US-amerikanischen und andere westliche Anlagen kontrollieren und recyceln diese Schadstoffe. Chinesische und russische Anlagen schenken der Luft- und Wasserverschmutzung, der Sicherheit am Arbeitsplatz oder dem Verbrauch, der Effizienz und den Emissionen fossiler Brennstoffe kaum Beachtung – und doch liefern sie über 80 % der „erneuerbaren“ Energierohstoffe, weil der Westen den Abbau und die Verarbeitung zunehmend verbietet und die Energie für den Betrieb von Minen und Fabriken unerschwinglich macht.

Pseudo-erneuerbare Energien würden weltweit Hunderte von Billionen Dollar kosten, müssten mit Billionen von Steuergeldern subventioniert werden und würden die Strompreise dramatisch erhöhen.

Die Vorschriften für Elektrofahrzeuge, -geräte und -heizungen würden all diese Anforderungen an Infrastruktur, Materialien, Bergbau und Landnutzung sowie die ökologischen Auswirkungen und Kosten verdoppeln oder verdreifachen.

Die amerikanischen Strompreise für Privathaushalte lagen im Jahr 2023 zwischen 10,4¢ pro Kilowattstunde (Idaho) und 28,4¢ pro kWh (Kalifornien). Britische Familien zahlten 47¢ pro kWh! Fabriken und Unternehmen in UK zahlten bis zu dreimal so viel wie ihre US-amerikanischen Kollegen. Deutsche Familien, Fabriken und Unternehmen sitzen im selben Boot und kentern.

Doch die führenden Vertreter der EU-Industrie sagen, dass die Energiepreise weiter steigen müssen, um die rasant steigenden Kosten der Energiewende zu decken. Falls sie nicht steigen, werden Fabriken, Arbeitsplätze und Emissionen ins Ausland verlagert. Falls doch, werden Familien ohne Arbeit in der Dunkelheit frieren.

Der so genannte Klima-industrielle-Komplex hat ein großes Interesse daran, diese Situation aufrechtzuerhalten. Gemeinsam verfügen seine Mitglieder über eine unglaubliche Macht, kontrollieren einen Großteil der Regierung und des Bildungswesens, halten enorme finanzielle Beteiligungen an Subventionen für grüne Technologien und zensieren oft konträre Standpunkte.

Ebenso bedrohlich ist, dass – falls sich herausstellt, dass die Schöne Neue Welt der Netto-Null-Energie nicht genügend erschwinglichen Strom und andere Notwendigkeiten für die moderne Industrie, das Gesundheitswesen und den Lebensstandard bereitstellen kann – zwei Drittel der herrschenden Eliten Amerikas Lebensmittel- und Energierationierungen befürworten, um den Klimawandel zu bekämpfen und ihre kapitalismus- und wachstumsfeindliche Agenda beizubehalten. In Europa und Kanada sieht es wahrscheinlich genauso aus.

Die Regierung Biden und andere Regierungen schreiben uns bereits vor, welche Fahrzeuge wir fahren und welche Geräte und Heizsysteme wir verwenden dürfen. Sie erforschen bereits Möglichkeiten, die Art und Größe unserer Häuser zu begrenzen, wie warm oder kühl wir sie halten können, wie oft wir mit dem Flugzeug reisen können, welche Art und Menge an Fleisch wir essen dürfen und viele andere Aspekte unseres Lebens.

Währenddessen bauen China, Indien, Indonesien und Dutzende anderer Länder Hunderte von Kohle- und Gaskraftwerken, was den Irrsinn und die Vergeblichkeit des Versuchs, Energiequellen, -mengen und -emissionen zu kontrollieren, noch unterstreicht.

Darum geht es bei den amerikanischen Staats- und Nationalwahlen 2024 – und bei den Wahlen in Europa, Kanada, Australien und anderswo. Je länger diese Eliten an der Macht bleiben, desto mehr werden unsere Freiheiten, unser Leben und unser Lebensstandard dem Leben vor einem Jahrhundert unter autoritären Regimen ähneln.

[Diese letzte Hervorhebung vom Übersetzer, alle anderen im Original]

Link: https://www.cfact.org/2024/01/27/climate-and-energy-fantasy-and-tyranny/

Übersetzt von Christian Freuer für das EIKE

 




Zweigeteilter Januar auch wieder 2024 in Deutschland – der Namensgeber lässt grüßen

Einmal ab in den Winter und wieder zurück – Was beeinflusst unsere Januar-Temperaturen wirklich?

Stefan Kämpfe

Der Januar erhielt seinen Monatsnamen von dem römischen Gott Janus (für ganz korrekte Lateiner: Ianus). Mit seinen zwei Gesichtern kann dieser Gott gleichzeitig nach hinten und nach vorne blicken, also in die Vergangenheit und in die Zukunft. Zwei sehr verschiedene Gesichter präsentierte uns auch der Januar 2024; er begann und endete mild, aber in der Monatsmitte feierte der Winter längere Auferstehung. Insgesamt blieb mit etwa 1,5 bis 1,7°C im DWD-Flächenmittel für Deutschland zwar ein leichtes Plus, doch konnte er mit den extrem milden Jännern der jüngsten Vergangenheit bei weitem nicht mithalten. Seit nunmehr 37 Jahren verharrt der ehemalige „Hartung“ auf sehr mildem Niveau – bei stark steigenden CO₂-Konzentrationen. Man ahnt es schon: Ganz andere Ursachen als CO₂ dominieren das Temperaturverhalten im Hochwinter.

Auch 2024 sehr gegensätzliche Januar-Witterung – warum?

In diesem Januar brachten uns Westlagen anfangs mildes, nasses Wetter; die ersten Tage ähnelten noch dem Dezember 2023. Ab dem 7. Januar dominierte für zwei Wochen Nordluft, welche schon seit Mitte Oktober 2023 über Skandinavien lag, deren Kälte aber durch die warmen Randmeere Ost- und Nordsee zeitweise gemildert wurde. Erst in der dritten Dekade stiegen die Temperaturen wieder jäh an. Ein Blick auf den Temperaturverlauf an der für Deutschland gut repräsentativen DWD-Station Dachwig veranschaulicht die sehr gegensätzlichen Witterungsphasen.

Abbildung 1: Die nahe der geografischen Landesmitte Deutschlands liegende DWD-Station Dachwig zeigt drei Witterungsabschnitte; einen sehr milden ersten und letzten, dazwischen einen kalten mit diesmal auch strengen Nachtfrösten. Solche dramatischen Temperatursprünge, wie bei dem Warmluftvorstoß vom 21. auf den 22. Januar, als die Minimum-Temperatur um mehr als 20 K (°C) stieg, kennt nur der Winter.

Aus der Grafik lässt sich aber noch mehr herauslesen. Lagen Maxima und Minima weit auseinander, so fand an diesen Tagen entweder ein markanter Luftmassenwechsel statt, oder es war ein wolkenarmer Strahlungstag. An völlig trüben Tagen, so um den 3. Januar, unterschieden sie sich wenig. Im bodennah oft winterkalten Thüringer Becken verliefen die letzten Januar-Tage unter Hochdruckeinfluss bei fehlendem Wind merklich kühler, als in weiten Teilen Deutschlands. Der „Buckel“ in der Mitte der Kältewelle zeigt den stark mildernden Nordsee-Einfluss. Mehrfach erreichte auch das Tagesmaximum die Marke von 0°C nicht (waagerechte, dunkelblaue Linie); an dieser Station gab es also immerhin 4 Eistage, und an 6 Tagen sank das Tagesminimum unter minus 10°C. Am 28.Januar gehörte Dachwig zu den kältesten Orten in Deutschland, weil sich die milde Festlandsluft (cSp) hier nicht bis zum Boden durchsetzte. Nach einem Strahlungsfrost unter minus 5°C stieg das Tagesmaximum nur auf 4,4°C – in günstiger, etwas höher gelegenen Orten wie Waltershausen oder Bad Berka, wurden 10 bis 11°C erreicht. Daten bis 30.01. vorliegend.

Janusköpfigkeit auch bei der deutschen Stromproduktion

Wie stark die deutsche Energiewende durch die meteorologischen Gegebenheiten in Frage gestellt wird, hat der Autor unter anderem hier beschrieben. Der Januar 2024 zeigte nahezu lehrbuchhaft: Erneuerbare Energien sind tatsächlich Freiheitsenergien – sie liefern äußerst unzuverlässig nur, wann sie wollen. Während in den ersten Tagen und um den 23.01. ein recht kräftiger Wind, von kurzen Schwächephasen abgesehen, oft beträchtliche Strommengen erzeugte, herrschte vom 6. bis zum 18. sowie zum Monatsende oft Flaute – mit katastrophalen Folgen für die Strompreise und die deutsche CO₂-Bilanz. Zwar schien oft die Sonne, aber astronomisch bedingt, konnte sie die morgendlichen und abendlichen Lastspitzen nicht abdecken.

Abbildung 2: Zeitweise kaum Wind- und Solarenergie im Januar; die eigentliche Kalamität begann am 6. und dauerte bis zum 18. Januar, aber auch davor und danach waren die „Erneuerbaren“ nicht immer produktiv. Nur anfangs und nach Monatsmitte wehte mehr Wind – aber auch da reichte er bei weitem nicht aus. Und die Solarenergie (gelbliche Spitzen) erbrachte nur mittags etwas oft überflüssigen Strom. Selbst eine Verzehnfachung der Wind- und Solaranlagen hätte über längere Zeiträume nicht genügend Strom geliefert. Bildquellen: energy-charts.info, ergänzt, Daten bis 30.01. vorliegend.

Man achte in der Grafik auf den hohen Anteil des verstromten, teuren Erdgases; aber auch die importierte Steinkohle verteuerte sich erheblich – für die Strompreise in Deutschland lässt das nichts Gutes erahnen. Ohne ausreichende Energiespeicher bleiben die fossilen Energieträger jedoch unverzichtbar; die oft gepriesene Wasserstofftechnologie ist hinsichtlich ihres Wirkungsgrades ineffizient, kurzfristig nicht in großem Umfang realisierbar und viel zu teuer! Alle „Erneuerbaren“ leisteten trotz ihres weit fortgeschrittenen Ausbaugrades zeitweise nur 15 bis 50% der Gesamtstromerzeugung, also mussten 50 bis 85% konventionell erzeugt werden! Man beachte, dass der Primärenergiebedarf in Deutschland viel höher als die hier dargestellte Stromerzeugung ist – legt man diesen Primärenergieverbrauch zugrunde, decken die „Erneuerbaren“ Energien trotz ihres enormen Ausbaugrades nur etwa 18% im witterungsmäßig viel günstigeren Jahresmittel ab (Stand: 2022).

Das langfristige Temperaturverhalten – der Januar hat (vermutlich) die wärmsten Zeiten schon hinter sich

Ähnlich wie die meisten Monate, erwärmte sich der Januar im späten 19. und im frühen 20. Jahrhundert stark; danach folgte eine lange Stagnationsphase bis etwa in die 1980er Jahre, was nicht gut zur schon damals steigenden CO₂-Konzentration passt. Ab 1988 folgte ein sprunghafter Anstieg auf das heutige, sehr milde Temperaturniveau, welches seit nunmehr 37 Jahren fast unverändert blieb. Seit Aufzeichnungsbeginn (1881) betrug die Erwärmung über 2 Kelvin (°C). Dabei sind die DWD-Daten aber wärmeinselbelastet, und die DWD-Reihe startet in der letzten Phase der „Kleinen Eiszeit“ – um 1881 war es besonders kalt. Extrem milde Januare mit mind. 4°C im DWD-Mittel hatten Seltenheitswert (1921, 1975, 1983 und letztmalig 2007).

Abbildung 3: Verlauf der Januartemperaturen im Deutschland-Mittel seit 1881 mit drei Entwicklungsphasen. Einer bis 1921 dauernden, starken Erwärmungsphase folgte eine unwesentliche Abkühlung bis in die 1980er und um 1988 der „Sprung“ auf das heurige, sehr milde Niveau. In den gesamten 143 Jahren der Reihe betrug der Temperaturanstieg etwa 2,4 Kelvin (°C). Mit WI-Bereinigung hätte es eine geringere Erwärmung um etwa 1,7 Kelvin gegeben. Der letzte, extrem milde Januar (2007) liegt nun schon 17 Jahre zurück.

Es lohnt sich, die letzten 37 Jahre genauer zu betrachten.

Abbildung 4: Keine Januar-Erwärmung mehr seit über dreieinhalb Jahrzehnten in Deutschland – trotz stark steigender CO₂-Konzentrationen.

Noch erstaunlicher ist die Entwicklung der Januar-Temperaturen in Zentralengland (Midlands), für das eine über 360ig-jährige Messreihe vorliegt; sie erfasst damit auch den Höhepunkt der „Kleinen Eiszeit“, das so genannte Maunder-Minimum als vermutlich kälteste Epoche in den mindestens letzten 2.000 Jahren. Seitdem sollte es doch dort eine kräftige Erwärmung um viele Grad gegeben haben – aber die Realität sieht ganz anders aus:

Abbildung 5: Mit etwa 1,8 Kelvin (°C) nur ein sehr mäßiger Januar-Temperaturanstieg seit über 360 Jahren in Zentralengland; auch diese Daten sind vermutlich WI-belastet.

Auch hier zeigt sich für die letzten gut dreieinhalb Jahrzehnte keinerlei Erwärmungstrend:

Abbildung 6: Keine Januar-Erwärmung mehr seit gut dreieinhalb Jahrzehnten auch in Zentralengland. Mit etwa 4,7°C zählte dort der Januar ebenfalls nicht zu den mildesten der letzten Jahrzehnte.

Spannende Grenzwetterlage am 17. Januar 2024 mit gebietsweisem Schneechaos

Temperaturkontraste von 15 Kelvin (°C) auf kaum mehr als 200 Kilometern Entfernung – solch spannende Geschichten schreibt nur der Winter. Auch wenn der 17. Januar 2024 nicht mit dem berühmten Silvester-Blizzard 1978 oder dem Blizzard vom 7. Februar 2021 mithalten konnte – erwähnenswert ist er schon. Die folgenden beiden Karten zeigen das enorme Temperaturgefälle dieses Tages und die zugehörige Bodenwetterkarte (Ausschnitt).

Abbildungen 7a und 7b: 7a (oben): Beobachtete Höchsttemperaturen am 17. Januar 2024. Während nördlich einer Linie Saarland-Erzgebirge nur minus 2 bis +1°C erreicht wurden, herrschten am Oberrhein verbreitet 12 bis 14, vereinzelt um 15°C. Bildquelle: wetterzentrale.de. Unten (7b) die Bodenwetterkarte dieses Tages von 19 Uhr. Man erkennt einen breiten Warmsektor mit subtropischer Meeresluft (mS) über dem Alpenraum, während am Rande des Skandinavien-Tiefs arktische Meeresluft (mA) nach Norddeutschland strömte. Bildquelle: wetter3.de, ergänzter Ausschnitt.

Es kam an dieser Luftmassengrenze zu reichlichen Niederschlägen, welche auf der Nordseite als Schnee, Eiskörner oder gefrierender Regen fielen und in Teilen Mittel- und Süddeutschlands ein Verkehrschaos auslösten. Verglichen mit den Blizzards in Nordamerika, handelte es sich freilich nur um harmloses Winterwetter mit Schneehöhen von 5 bis 15, vereinzelt bis um 20cm im Flachland. Mehr zur spannenden Thematik der Grenzwetterlagen hier.

Abkühlung höherer Luftschichten im Januar

Weil der Autor über diese Thematik umfangreich berichtete, sollen mögliche Ursachen dieses Phänomens nicht näher diskutiert werden; doch setzt sich dieser Trend weiter fort (die Aerologischen Daten für 2024 lagen zu Redaktionsschluss noch nicht vor, konnten aber realitätsnah geschätzt werden).

Abbildung 8: Entwicklung der Januar-Temperaturen seit 1988 in einem Rechteck, welches ganz Deutschland einschließt, nach Aerologischen Daten des NOAA (USA-Wetterdienst) für zwei unterschiedliche Luftdruck-Niveaus, das bodennahe 1000-hPa-Niveau und das 850-hPa-Niveau (etwa 1500 Höhenmeter). Daten für 2024 anhand einiger DWD-Stationen geschätzt, da noch nicht vorliegend.

Die NAO als wesentlicher Treiber der Januar-Temperaturen

Wie wir schon in den vorherigen Abschnitten sahen, waren die stark steigenden CO₂-Konzentrationen nicht ursächlich für die Entwicklung der Januar-Temperaturen. Bei allen Winter-Monaten kommt es nämlich darauf an, ob die Luft über den in dieser Jahreszeit relativ warmen Atlantik und die Nordsee oder über das sehr kalte Festland zu uns weht – mit leichten Variationen. Es bedarf einer bestimmten Luftdruckverteilung, welche entweder milde westliche oder kalte östliche Strömungen fördert (im Januar oft nur mäßig kaltes Nordwetter tritt selten über längere Zeiträume auf). Diese Verhältnisse beschreibt die NAO. Unter der Nordatlantischen Oszillation (NAO) versteht man die Schwankung des Luftdruckverhältnisses zwischen dem Islandtief im Norden und dem Azorenhoch im Süden. Die NAO wird als dimensionsloser Index nach leicht unterschiedlichen Ermittlungsmethoden ausgewiesen; deshalb finden sich im Internet verschiedene Datensätze, aber stets bedeuten hoch positive NAO-Werte eine intensive Westströmung über dem Ostatlantik. Bei stark negativen Werten kann dort sogar eine Ostströmung herrschen; dann gelangt die milde Atlantikluft nicht nach Deutschland (möglich bleiben nördliche, östliche und südliche Lagen). Zwei Wetterkarten-Beispiele verdeutlichen das:

Abbildungen 9a und 9b: Oben eine Lage bei stark positiver NAO im extrem milden Januar 1983. Es herrschte an jenem 10. Januar 1983 zwischen hohem Luftdruck über SW-Europa und tiefem über dem Nordatlantik/Nordmeer/Skandinavien eine rege Westströmung über West- und Mitteleuropa. Unten spiegelbildliche Verhältnisse am 14.01.1987 bei stark negativer NAO mit hohem Luftdruck von Island über Skandinavien bis ins nördliche Osteuropa und tiefem über dem Mittelmeer; selbst im sonst wintermilden Britannien und in Irland zitterte man vor Kälte. Bildquellen: wetterzentrale.de

Für den Januar 2024 liegen noch keine Monatsmittel der NAO-Indizes vor; nach den bisherigen Tagesdaten sind aber leicht positive Mittelwerte zu erwarten. Der Verlauf der NAO zeigt im Januar eine „Delle“, welche gut mit der Kaltphase um den 10. Januar (siehe Abb. 1) übereinstimmt.

Abbildung 10: Verlauf der NAO seit Oktober 2023 mit Vorhersage für die erste Februarhälfte 2024 (rot). Während der bisherigen Kältewellen Ende November/Anfang Dezember und um den 10. Januar herrschten die niedrigsten NAO-Werte. Anfang Februar sollen diese wieder fallen, aber nicht auf ein sehr niedriges Niveau. Bildquelle: NOAA, ergänzt.

Aber wie verhielt sich nun die NAO im Januar langfristig? Da sie von Januar zu Januar erheblich schwankt, wurde, um die Schwankungen etwas zu glätten, ein 11-jähriges, zentriertes Gleitmittel unter Verwendung der NAO-Werte des Britischen Metoffice erstellt; Selbiges geschah auch mit den Januar-Flächenmitteln der DWD-Deutschlandtemperaturen und der AMO:

Abbildung 11: Merkliche zeitliche Übereinstimmung der NAO nach Met.Office (violett) und der Januar-Temperaturen in Deutschland. Die in der Abb. 3 besprochenen Entwicklungsphasen der Januar-Temperaturen (schwarz) gingen grob mit einem entsprechenden Verhalten der NAO-Werte einher: Merklicher Anstieg bis in die 1920er, dann wieder ein Rückgang bis in die 1940er, dann mäßige Schwankungen, besonders 1988 und kurz danach wieder sehr hohe Werte, abschließend ein Verharren bei nur noch geringen Schwankungen auf einem hohen Niveau.

Man beachte in der Grafik, dass NAO und Temperaturen seit den 1990er Jahren nur noch geringe Schwankungen aufwiesen – ein gänzlich anderes Verhalten, als in den gut einhundert Jahren zuvor. Bei jährlicher Korrelation von 1881 bis 2023 wurden stattliche 42,2% der Temperaturvariabilität von der NAO verursacht, das ist deutlich signifikant. Ob auch die Atlantische Mehrzehnjährige Oszillation, ein Index für die Wassertemperaturen im zentralen Nordatlantik (grün) hierbei eine Rolle spielte? Sie hat zwar nur einen geringen, nicht signifikant positiven Einfluss auf die Januar-Temperaturen, könnte aber in Einzelfällen das hohe Temperaturniveau der Gegenwart doch gefördert haben, so auch in der letzten Januar-Dekade 2024. Daten für Jan. 2024 lagen noch nicht vor.

Weil sich die meisten NAO-Indizes auf den östlichen Nordatlantik beziehen, haben sie nicht immer einen Einfluss auf die mitteleuropäische Januar-Witterung. Der Autor hat deshalb einmal aus den seit 1948 vorliegenden Aerologischen NOAA-Daten einen einfachen Index für den 10. Längengrad Ost unter Verwendung der Luftdruck-Daten (Meeresspiegel-Niveau) zweier Koordinaten als Differenz berechnet – es ergab sich ein noch etwas engerer Zusammenhang:

Abbildung 12: Berechnete Luftdruck-Differenzen in Hektopascal zwischen den zwei Punkten 10°E, 40°N und 10°E, 65°N; diese liegen im nordwestlichen Mittelmeer bzw. bei Nordnorwegen.

Der tendenzielle NAO-Anstieg erklärt, warum es im Januar seit 1948 milder wurde, der Korrelationskoeffizient ist mit r = 0,782 (B = 61,2%) enorm hoch, solch enge Zusammenhänge „schafft“ sonst nur die Sonnenscheindauer zu den Sommertemperaturen! Man kann außerdem folgende Regeln erkennen: War die Luftdruckdifferenz sehr stark positiv (>25 hPa), so fielen alle diese Januar-Monate (rote Jahreszahlen) extrem mild aus; ab etwa Null oder gar negativen Werten waren die Januar-Monate deutlich zu kalt, besonders ab minus 5 hPa. Werte für Januar 2024 liegen noch nicht vor.

Näheres zur Methode des Autors hier. Aber halt – sollte sich angesichts des seit etwa 1980 stark schrumpfenden Arktischen Meereises die Zirkulation nicht merklich abschwächen, was zu fallenden Luftdruckdifferenzen und kälteren Januar-Monaten mit immer mehr Witterungsextremen führen müsste? Aber auch der Januar dieses Jahres 2024 verlief ja recht unspektakulär. Denn vermutlich wird der Einfluss der Meereis-Bedeckung auf die Zirkulationsverhältnisse stark überschätzt. Die Variabilität der Deutschen Januar-Temperaturen wurde seit 1979 aber nur zu kümmerlichen etwa 4% von der Größe der arktischen Meereisbedeckung beeinflusst – meilenweit von jeglicher Signifikanz entfernt. Auch sind angesichts der starken NAO-Schwankungen mit den bisherigen Maxima im frühen 20. Jahrhundert und um 1990 wesentliche Einflüsse der CO₂-Konzentration wenig plausibel. Was genau die NAO antreibt, ist bis heute ungeklärt; es besteht noch erheblicher Forschungsbedarf; doch dürften Sonnenaktivität und Meeresströmungen hierbei eine gewisse Rolle spielen.

Fast normaler Januar – Deja vu-Erlebnis im wechselhaften Februar und Kälterückfälle im Lenz?

Der troposphärische Kältepol hatte sich im letzten Januar-Drittel nach Westgrönland/Ostkanada verlagert, was die milde, zeitweise stürmische Witterung über Mitteleuropa in dieser Zeit begünstigte. Doch im Februar könnte er, ähnlich wie zwischen Mitte Oktober 2023 und Mitte Januar 2024, zeitweise wieder nach Skandinavien/Nordrussland wandern. Wie bei manch anderen Monaten, gibt wegen der Erhaltungsneigung der Hochwinterwitterung die Witterungstendenz zum Monatswechsel Januar/Februar zwar oft grobe Hinweise auf den Witterungsverlauf der kommenden Wochen; diesmal stellt aber die möglicherweise nach Nordeuropa rückkehrende Kälte einen großen Unsicherheitsfaktor dar. Sowohl eine dem milden, nassen, stürmischen Dezember ähnliche Witterung ist denkbar, als auch einzelne Kaltluftvorstöße bei Südlichen Westlagen, besonders nach Norddeutschland, ähnlich wie im Januar. Außerdem ist die Luftdruckverteilung zwischen Süd- und Nordeuropa zum Monatswechsel zu beachten. Die beiden letzten Januartage verliefen mild, und zumindest in den ersten Februar-Tagen setzt sich das sehr milde Westwetter fort. Hoher Luftdruck über Südeuropa und tiefer nördlich von Island zum Monatswechsel – das deutet also zunächst auf eine längere milde Westwindphase hin. Insgesamt dürfte der Februar 2024 zwar relativ mild und nass verlaufen; er erreicht aber vermutlich bei weitem nicht das Temperaturniveau des extrem milden Februars 2022 und auch nicht dessen Windstromausbeute. Winter-Freunde können noch auf gelegentliche winterliche Phasen hoffen. Einem Januar mit kalten Abschnitten folgen, freilich nur sehr grob und tendenziell, auch Kältewellen im Lenz und ein eher verhalten temperierter „Jahresrest“ – für sichere Prognosen sind diese Zusammenhänge aber viel zu unsicher.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher