Frühlingsverlauf: Ein weiterer Beweis gegen die These einer Treibhausgas-Erwärmung

Der Frühling wird in der Gegenwart nicht wärmer; vor allem die Nächte werden kälter

Josef Kowatsch, Matthias Baritz, Raimund Leistenschneider

Hinweis: Der Artikel ist komplex und er wird zeigen, dass nicht nur bei den Temperaturen, sondern auch bei den Niederschlägen große Ungereimtheiten bei den Angaben des DWD bestehen. Außerdem werden die tatsächlichen Einflussfaktoren auf die Temperaturen dargelegt. Eine ausführliche Zusammenfassung ist am Schluss zu finden.

Bei der Hypothese einer sog. menschengemachten Erwärmung durch Treibhausgase sind folgende Grundforderungen die Basis:

  1. Kohlendioxid (und andere THG) allein bestimmt die Temperaturen
  2. Weil Kohlendioxid ständig steigt, steigen auch die Temperaturen
  3. Wegen der steigenden Frühlingstemperaturen verfrüht sich die Vegetation
  4. Je höher der atmosphärische CO-Gehalt, umso wärmer wird es und noch wärmer soll es werden

Wir zeigen in diesem Artikel, dass kein Punkt davon einer Überprüfung standhält. Dabei verwenden wir die Originaltemperaturdaten des Deutschen Wetterdienstes.

Die Jahreszeit Frühling besteht aus den Monaten März/April/Mai. Diese Monatsschnitte zusammen ergeben den Frühling eines bestimmten Jahres.

Als Messzeitraum betrachten wir die Jahre 1988 bis heute, das sind 36 Frühlinge und die Gegenwart, von 2000 bis heute.

1988 deshalb, weil damals ein Temperatursprung auf ein höheres Temperaturniveau in Mitteleuropa erfolgte, und weil seit 1988 der sog. Weltklimarat und dann das PIK Potsdam die ständig fortsetzende CO-Erderwärmung postulierten, die inzwischen zur Klimapanikerzeugung gesteigert wurde. Nahezu täglich wird Angst verbreitet.

Die folgende Grafik der steigenden CO-Konzentrationen scheint Punkt 2 der obigen Behauptungen zu bestätigen, Grafik vom 5. Juni 2023

Grafik 1: Aktueller atmosphärischer CO₂-Pegel, Anfang Juni 2023, gemessen auf dem Mauna Loa. 424 ppm, seit 1988 ein Anstieg um deutlich über 70 ppm. In der Gegenwart verläuft der CO₂-Anstieg in der Atmosphäre immer steiler. Im letzten Jahr um 3 ppm.

Dazu im Vergleich die deutschen Frühlingstemperaturen, laut Daten des Deutschen Wetterdienstes.

Grafik 2: Wir verwenden die Originaltemperaturdaten des Deutschen Wetterdienstes und stellen fest: Die Frühlingstemperaturen sind bei den Wetterstationen des DWD nur völlig unbedeutend gestiegen.

Da das kleine Deutschland natürlich nicht maßgebend ist, schauen wir daher auf die globalen Temperaturen.

Grafik 3, Quelle: (https://www.climate4you.com/), zeigt die globalen Temperaturabweichungen aus Satellitensicht, bis zum 15.05.2023. Obwohl der CO₂-Pegel in Grafik 1 immer schneller ansteigt, stagnieren seit knapp 10 Jahren die Temperaturen: Es wird nicht mehr wärmer!

Doch zurück zu Deutschland. In Anbetracht dessen, dass die Sonnenstunden bei den DWD-Stationen, laut DWD, deutlich zugenommen haben und die DWD-Stationen bevorzugt in Wärmeinseln stehen, drängt sich förmlich eine andere Erklärung für die leichte Erwärmung in Deutschland auf. Dazu später mehr.

Grafik 4: Auch trotz deutlicher Zunahme der Sonnenstunden sind die vom DWD erhobenen Frühlingstemperaturen bei seinen Wetterstationen seit 1988 nicht mehr nennenswert gestiegen.

Eine weitere Behauptung der CO-Klimagläubigenkirche ist: In der Gegenwart soll sich die Erwärmung beschleunigt haben. Das wird uns täglich durch die gleichgeschaltete Qualitätspresse versucht einzureden. Dem PIK Potsdam, dem DWD und mittels der Politik, vor allem den Grünen. Die Autoren sind grundsätzlich skeptisch, wenn bei einem Billionengeschäft, wie dem Klimawandel (man betrachte nur die Gelder, die dabei fließen und natürlich von uns, den Bürgern, bezahlt werden müssen) sog. „Wahrheiten“ unters Volk gebracht werden.

Anhand Grafik 1 steigt die CO-Konzentration in der Atmosphäre seit der Jahrtausendwende immer schneller. Und wie sieht es bei den Temperaturen aus?

Die Temperaturen des Frühlings in der Gegenwart

Als Gegenwartszeitraum dienen uns die 24 Frühlinge seit 2000, ab denen sich der CO-Anstieg immer mehr beschleunigt haben soll.

Grafik 5: In der Gegenwart, also seit 2000 zeigen die DWD-Wetterstationen einen leicht negativen Steigungsverlauf der gemittelten Durchschnittstemperaturen. Also einen abnehmenden Temperaturverlauf.

Ergebnis: In der Gegenwart wird der Frühling, laut DWD-Wetterstationen, kälter und nicht, wie behauptet, wärmer.

Dem Leser ist bestimmt schon aufgefallen, dass die Autoren von DWD-Wetterstationen sprechen und von den DWD-Temperaturen. Man muss als Leser wissen, dass der DWD seine Daten aus immer wärmer gemachten Wetterstationen erhebt, um die (Frühlings-)Abkühlung zu verschleiern. Zum einen, weil er Wetterstationen zum Gesamtschnitt hinzufügt, die in wärmeren Regionen stehen und Stationen in der Höhe ausscheidet, wie jüngst Mittenwald auf 1000m NN. Zum anderen werden die DWD-Stationen aber auch deshalb wärmer, weil sich die Bebauung, Flächenversiegelung und Trockenlegung Deutschlands ungebremst fortsetzt. Am besten zeigt das der Flächenversiegelungszähler. Stand bei Redaktionsschluss: 50 709 km² (Quelle).

Anmerkung: Ein weiterer raffinierter Trick des DWD ist die Verringerung seiner Messstationen. Dadurch wird mathematisch den wärmeren Stationen ein höheres statistisches Gewicht zugeordnet. Wodurch das Mittel wärmer wird, obwohl sich an den Temperaturen selbst gar nichts ändert. So etwas nennt man im Volksmund „Äpfel mit Birnen vergleichen“. Auch dazu später mehr.

Diese ständige wärmende Landschafts-Veränderung wird in der Wissenschaft mit Wärmeinselerwärmung (WI) bezeichnet. Man darf sie nicht mit der CO-Konzentrationszunahme verwechseln.

Merke: Ein Großteil aller DWD-Wetterstationen steht in den Wärmeinseln, also in den 15% der Deutschlandfläche, die der Flächenversiegelungszähler anzeigt oder in unmittelbarer Umgebung.

Wie groß diese Wärmeinselzusatzerwärmung sein kann, zeigen wir in folgender Grafik, mit den Wetterstationen Goldbach in der Lausitz und Hof, durch Gegenüberstellung.

Die Wetterstation Hof wird in ein Gewerbegebiet „eingemauert“ und Goldbach blieb unverändert.

Grafik 6a/b: Die DWD-Wetterstation Hof zeigt in der Gegenwart im Vergleich zu Grafik 5 keine Frühlingsabkühlung, weil sie durch Baumaßnahmen ständig zusätzlich erwärmt wird. Die von solchen Rahmenbedingungen unbeeinflusste Wetterstation Goldbach, zeigt den unbeeinflussten Temperaturverlauf.

Merke: In der freien Fläche Deutschlands und in kleinen Weilern, die sich baulich nicht verändert haben, wurde die Jahreszeit Frühling in der Gegenwart deutlich kälter.

Gute Naturbeobachter haben das längst an der Vegetationsverspätung in der freien Landschaft festgestellt. So zeigt selbst der Forsythienstrauch in der Hamburger Innenstadt an der Alster seit 40 Jahren, also seit 1984 eine ebene Trendlinie. Das ist für uns nicht verwunderlich, denn Hamburg ist zwar eine riesige Wärmeinsel und der Strauch blüht sehr früh im Jahr, oftmals vier Wochen früher als die Forsythien in der freien Natur, aber seit 40 Jahren hat sich an der Alster baulich kaum mehr was verändert. Die Wärmeinselumgebung blieb in etwa gleich.

„Ich glaube nur der Statistik, die ich selbst gefälscht habe“ oder, wie der DWD*1) sich seine Wahrheiten zurecht biegt.

Den ersten Teil des Satzes kennt sicher jeder. Dazu passt die Aussage des DWD zu den Maitemperaturen 2023. Laut DWD war der Mai 2023 etwas wärmer als der Durchschnitt. Also der Durchschnitt des internationalen klimatologischen Referenzzeitraumes von 1991 – 2020.

*1) Wenn die Autoren vom DWD schreiben, dann meinen sie nicht die vielen dortigen Meteorologen und Wissenschaftler, die jeden Tag akribisch ihrer Tätigkeit nachgehen, um verwertbare Ergebnisse zu liefern, sondern die dortige Führungsmannschaft, die nicht müde wird, sich und damit ihre Behörde und natürlich den Bundesverkehrsminister – der DWD ist eine Behörde im Bundesverkehrsministerium – mit unsoliden und unwissenschaftlichen Aussagen lächerlich zu machen, siehe hier oder hier.

Der DWD hat damit nicht etwa etwas Falsches behauptet, sondern „nur“ etwas, das ins Bild einer angeblichen Klimakatastrophe passt: Wärmer und wärmer. Wird hingegen linear (Grafik 7) und nicht digital betrachtet, so ist festzustellen: Nanu, es wird ja gar nicht wärmer, sondern kälter. Aber so etwas passt halt nicht ins Bild einer angeblichen Klimakatastrophe, mit der wir Bürger immer mehr und mehr zur Kasse gebeten werden (Heizungsdiktat und vieles mehr) und wie das dumme Schlachtvieh, sollen wir darüber auch noch „Sieg Heil“ – Entschuldigung – rufen, siehe hier.

Grafik 7 zeigt nach DWD-Daten den Maiverlauf in Deutschland seit Beginn der Klima-Hype des IPCC. In der freien Fläche ist die Abkühlung noch deutlicher.

Nichts von einer Erwärmung zu sehen! Und dass, obwohl der DWD in drastischer Weise sein Messnetz, hin zu wärmeren Stationen, verändert.

Grafik 8, Datenquelle: Deutscher Wetterdienst (DWD), zeigt, wie sehr der DWD sein Messnetz in den Jahren kurz vor Beginn der Klimahype zu heute drastisch verändert hat und dadurch nichts mehr mit dem von früher zu tun hat: Irgendwelche Klima-Vergleiche also unwissenschaftlich sind.

Vor der Klimahype (Grafik 8 oben) hatte der DWD noch ein ausgeglichenes Messnetz von „alten“ und „neuen“ Messstationen. Heute trifft dies nicht mehr zu. Es findet eine starke Veränderung hin zu neu aufgenommenen und wärmeren Messstandorten statt (Grafik 9 bis 11). Auch die Anzahl der Stationen wurde drastisch reduziert, was statistisch zur Folge hat, dass neuere und damit wärmere Stationen in der Gesamtheit ein größeres Gewicht bekommen. Daher auch die Anspielung auf die „Binsenweisheit“: „Ich glaube nur der Statistik, die ich selbst gefälscht habe“.

Die Änderungen des DWD-Messnetzes zeigt die nächste Grafik.

Grafik 9, Datenquelle DWD, zeigt, dass just zum Beginn der Klimahype des IPCC in 1990 (First Assessment Report), der DWD sein Messnetz drastisch verändert und Messstationen stilllegt.

Allein in den 1990-Jahren fast so viele, wie in 100 Jahren zuvor, um dann in den 2000er-Jahren, als der jetzige DWD- und WMO-Präsident (seit 2019), das dazu im DWD führende Amt übernimmt, nochmals galoppierend zunimmt.

Dies zeigt Grafik 10.

Grafik 10, Datenquelle ebenfalls DWD, zeigt oben die Hinzunahme neuer Messstandorte und unten, wie sich deren Höhe und dadurch deren Messergebnis verändert, obwohl sich an den Gegebenheiten (z.B. Temperaturen) selbst gar nichts verändert hat. Grafik 11 zeigt das gewünschte Ergebnis.

Grafik 11, Datenquelle DWD (oben) und Hadley Center (unten) zeigt, wie in Deutschland plötzlich, just mit Durchstarten der Klimahype und „Erscheinen“ des jetzigen DWD-und WMO-Präsidenten beim DWD, also den Standortmanipulationen des DWD, die Temperaturen, im Vergleich zu ländlichen Gebieten in England, sprunghaft steigen! Ein Schelm, der Böses dabei denkt.

Anmerkung: Im Zeitraum von 1988 – 2000 steigen die Temperaturen in Deutschland im Vergleich langsamer. Dies ist dem Kaltjahr 1996 geschuldet, dessen Auswirkungen auf der Insel abgemildert wurden und damit die Steigung dort stärker ist.

Ohne diese Manipulationen sähe der reale Temperaturverlauf in Deutschland, der verblüffend dem globalen Temperaturverlauf der letzten Jahrzehnte in Grafik 3 gleicht, so aus:

Grafik 12, Quelle: M. Baritz nach Daten des DWD (rote Kurve) und die WI-bereinigte Kurve (grün)*2) nach Leistenschneider.

*2) Der Autor hat vor ca. 10 Jahren, anhand der Vergleichsbetrachtung der Jahrestemperaturdatenreihe der DWD-Referenzmessstation Hohenpeißenberg zu der Datenreihe der DWD-Deutschland-Jahrestemperaturen, auf mathematische Weise, deren theoretische Überlegungen auf den Strahlungsgesetzen nach Planck und dem Abkühlungsgesetz nach Newton beruhen (ob man so vorgehen darf) und anhand von Steigungsvergleichen beider Messreihen (wo „Sprünge“ zu finden sind), ermittelt, dass die vom DWD herausgegebenen Jahresmittelwerte der Temperatur für Deutschland um +0,9°C bis +1,2°C zu hoch sind.

Zu „Sprünge“ der Fachmann, Prof. Malberg, FU, Met Inst.:

„Die Verlagerung von Klimastationen an neue Standorte führt in der Regel zu sprunghaften Änderungen der Klimawerte. Wird die neue Station nicht auf bisherige Messreihe (oder umgekehrt) mittels vieljähriger Parallelbeobachtungen reduziert, so kann der Bruch so groß sein, dass die Klimareihe für die Analyse des langfristigen Klimawandels unbrauchbar wird.“

Frühling in Deutschland: Deutlich kälter wurden vor allem die Nächte.

Leider bietet der DWD für seine rund 2500 Wetterstationen keine Daten an. Es gibt also keine Tmax/Tmin Deutschlanddaten über einen längeren Zeitraum. Das ist auch nicht möglich, angesichts des ständigen Stationstausches. Viele neue Stationen kamen hinzu, deren Aufzeichnungszeitraum vglw. kurz ist. Jedoch von Einzelstationen liegen Daten vor. Wir haben weit über 30 ausgewertet und zeigen eine Reihe, verteilt über Deutschland.

DWD-Wetterstation Gießen-Wettenberg

Grafik 13a: Die Wetterstation war zuerst am östlichen Stadtrand, vor ca. 16 Jahren wurde sie nach Westen, in die freie Fläche, verlegt. Bitte die Differenz zwischen Tag – ganz oben – und den Nachttemperaturen – ganz unten – beachten.

Wichtig sind dabei die Sonnenstunden im Betrachtungszeitraum.

Grafik 13b: Die Sonne erwärmt nur am Tage, deshalb werden die Nächte kälter. Das gilt für alle weiteren Stationen.

DWD Wetterstation Düsseldorf, seit 1988

Grafiken 14a/b: Zunahme der Sonnenscheindauer über 10% seit 1988. Daher findet eine Erwärmung auch nur tagsüber statt.

DWD Wetterstation Dachwig in Thüringen, sehr ländlich

Grafik 15a: Steigungen mit Grafik 19 vergleichen

Grafik 15b: Das gleiche Bild bei Dachwig: 10% Sonnenstundenzunahme, deutliche Erwärmung am Tage und deutliche Abkühlung der Nächte.

Hinweis: Die ländliche Station Dachwig zeigt bei unserer Auswahl,zusammen mit Nürnberg,die größte Steigungsdifferenz zwischen Tmax/Tmin. Hier gehen die „Scheren“ zwischen Tmax und Tmin am deutlichsten auseinander. Auffallend ist die stark steigende Tmax-Reihe tagsüber in Dachwig. Dass weist auf stark sonnenspeichernde Stoffe in unmittelbarer Stationsumgebung hin (Beton, Kopfsteinpflaster, etc.).

Nürnberg Netzstall, die DWD-Station mit der DWD-Nr. 3667 wurde am 1. März 2005, unter Beibehaltung der Stationsnummer, an den jetzigen Standort verlegt. Wir verwenden die Original DWD-Daten, wie diese im Internet für diese Station abrufbar sind.

Grafik 16a/b: Ebenso Nürnberg Netzstall, starke Zunahme der Sonnenscheindauer und Tagestemperaturzunahme. (Die Sonne wirkt nur tagsüber.)

Es würde hier den Rahmen sprengen, all unsere vielen Auswertungen zu zeigen. Zusammengefasst ist festzustellen:

  1. Die Tmax-Trendlinien steigen überall
  2. Schere zwischen Tmax und Tmin geht auseinander, bei Dachwig und Nürnberg/Netzstall um deutlich mehr als 3 Grad!
  3. Sonnenstunden nehmen überall zu, im Schnitt über 10%.
  4. Die Tagesmitteltemperaturen steigen nur unwesentlich, was der Tmax geschuldet ist. Diese Tmax-Steigerung ist der Zunahme der Sonnenstunden geschuldet.
  5. Die Niederschlagsabnahme liegt mit 8% (13% gesamt in D) in 34 Jahren*3) auch nicht alarmierend tief.

Anmerkung: Werden längere Zeiträume betrachtet, wie z.B. 100 Jahre, so ist die Niederschlagsmenge zunehmend, und in den Jahrzehnten nach der Jahrhundertwende 1900 war es in Deutschland trockener als heute (Grafik 17).

Eigentlich eine ganz normale Entwicklung des Frühlings in Deutschland seit 1988!!

*3)Nicht nur bei den Temperaturen, sondern auch beim Niederschlag, hat der DWD seit der Jahrtausendwende sein Messnetz drastisch verändert/reduziert, so dass die heutigen Messungen grundsätzlich nicht mehr mit den Niederschlagsmessungen vor 2000 vergleichbar sind, siehe hier bei Wikipedia. Auch hier das „gewünschte“ Ergebnis einer vermeintlichen Klimakatastrophe, was dann als Dürre „verkauft“ wird.

Auszug: „Das DWD-Niederschlagsmessnetz besteht derzeit aus rund 1900 Messstellen. Seit etwa 60 Jahren liegen Tageswerte in hoher räumlicher Dichte vor, die in früheren Jahrzehnten teilweise aber noch deutlich höher war als heute. Von 1969 bis 2000 gab es beispielsweise mehr als 4000 Stationen.“

Grafik 17, Quelle: Bundesumweltamt mit Quellenhinweis zum DWD zeigt, dass kein negativer Trend beim Niederschlag zu verzeichnen ist, wird der Klimazeitraum des DWD seit 1881 betrachtet. Mehr noch, der lineare Trend ist merklich steigend (um ca. 8%)! In Deutschland fällt also nicht weniger, sondern immer mehr Niederschlag. Dies zeigt das Umweltbundesamt und sagt der DWD.

Der DWD gibt den Mittelwert für die Jahre 1881 – 1900 an. Errechnet sind dies 739 Liter je Quadratmeter. Für den Zeitraum 1881 – 2021 liegt der errechnete Mittelwert bei 771 l/m², was einer Erhöhung der Niederschlagsmenge bedeutet: Deutschland wird nicht trockener, sondern „nasser“.

Leistenschneider hat in der Grafik 17 den Zeitraum (Jahr) angegeben, ab dem der DWD sein Niederschlagsmessnetz laut obiger Quelle auf weniger als die Hälfte reduziert hat und dazu näherungsweise zwei Steigungen eingetragen:

– von 1881 – 2000 (grün)

– von 2000 – 2021 (rot)

Schon sehr merkwürdig, dass just zu dem Zeitpunkt, als der DWD sein Niederschlagsmessnetz drastisch reduziert hat, plötzlich die Trockenheit in Deutschland Einzug hält! Dies erweckt den Eindruck, dass beim DWD, wie bei den Temperaturen, auch beim Niederschlag „gefingert“ wird.

Nun könnte argumentiert werden, dass eine höhere Sonnenscheindauer verantwortlich dafür ist. Denn, je mehr Sonnenstunden, desto weniger Wolken und je weniger Wolken, umso weniger Regen. Dies ist allerdings nicht so! Bei den Auswertungen der Autoren (Baritz) an DWD-Messstandorten zeigt sich, dass die Sonnenscheindauer um mehr als 10-20-fach (im Steigungsvergleich) zunahm, als die Niederschlagsmenge sich verringert hat. Oder anders ausgedrückt: Der starken Zunahme der jährlichen Sonnenscheindauer steht ein fast Gleichbleiben der jährlichen Niederschlagsmenge gegenüber.

Daher die Schlussfolgerung, dass, wie bei den Temperaturen, die DWD-Vergleiche zu Jahren vor 2000, auch bei den Niederschlägen, zutiefst unseriös sind.

Zurück zu den Temperaturen und zum WI.

Ein aktuelles Beispiel zum Wärmeinseleffekt. Die Tmin-Trendlinien fallen in ländlichen Stationen stärker als in städtischen. Dazu passend, „Sven Plöger am 09.06 bei „Wetter vor acht“ in Grafik 18.

Grafik 18….. Tiefsttemperaturen Richtung Müritz bei 7°C und Berlin dann 17°C, die Stadt (Berlin) produziert ihre Eigenwärme…. Quelle: ARD-Mediathek ab Min 1.55

 

Fazit: Der WI-Effekt bestimmt neben den DWD-Standortmanipulationen die Temperaturen und nicht der CO-Effekt.“

Diese Gutgläubigen sagen es selbst, verbreiten aber trotzdem den Unsinn einer enormen CO-Erwärmung (Stichwort: Klimakrise).

Keine Klimakrise oder Klimakatastrophe erkennbar.

Und wie wirkt die angeblich starke Klimasensitivität von Kohlendioxid und die Behauptung, COsei der Temperaturtreiber oder gar ein Klimakiller?Antwort: Ein Zusammenhang ist nicht erkennbar und damit in der Realität nicht gegeben. Nichts vom angeblich menschengemachten CO-Klimawandel, Klimakrise, Klimakiller und weiteren Begriffslügen stimmt. Die Sonne bestimmt die Erwärmung. Scheint sie nicht (in den Nächten), so wird es kälter.

Schlussfolgerung:

Wäre CO – wie behauptet – der entscheidende Erwärmungsgrund und Temperaturtreiber, dann müssten die Steigungen der Tag-/Nachtemperaturen bei den jeweiligen Stationen zumindest nahezu gleich verlaufen. Was erkennbar nicht der Fall ist.

Zusammenfassung:

Trotz zunehmender Kohlendioxid-Konzentrationen sind die mittleren deutschen Frühlingstemperaturen nicht gestiegen. Das bedeutet, die Kohlendioxid-Theorie der starken Erderwärmung ist erwiesenermaßen falsch.

In der freien Fläche, außerhalb der Wärmeinseln, das sind 80% der Deutschlandfläche, sind die mittleren Frühlingstemperaturen sogar deutlich gefallen.

Vor allem wurden die Nächte in der Gegenwart kühler, während die Temperaturen tagsüber keine Abkühlung zeigten. Dieser Umstand ist mit dem Anstieg der Sonnenstunden seit 1988 zu erklären. Siehe hierzu auch „Klimaschwindel bei DWD, ZDF und Co. – oder: wie Öffentlichkeit und Politik getäuscht werden (hier, 1)“, darin ab Abb.9.

Es kann keine Frühlings-Vegetationsverfrühung seit 1988 festgestellt werden, aber die Gefahr der Erfrierung, vor allem außerhalb der Wärmeinseln, siehe Eingangsbild, hat zugenommen.

Und in der Gegenwart hat sich der Trend verstärkt. Dies zeigt z.B. die ländliche Station Dachwig in Thüringen in Grafik 19. Trendlinien bitte mit obiger Grafik 15 vergleichen.

Grafik 19: Man beachte die Steigungsunterschiede zwischen Tag und Nacht. Ländliche Stationen kühlen nachts besonders aus.

Fazit: Die Temperaturentwicklung im Frühling und der starke Anstieg der CO-Konzentrationen haben keinen Zusammenhang.

Wir konnten zeigen: Der Frühling wird seit 1988 und vor allem seit der Jahrtausendwende kälter. Der Grund sind die kälter werdenden Frühlingsnächte in Deutschland.

Es gibt keinen verfrühten Vegetationsfrühlingsbeginn seit 1988.

Die CO₂-Erwärmungstheorie (postulierter Treibhauseffekt) ist in der behaupteten Größenordnung rundum falsch. Kohlendioxid ist kein Temperaturtreiber und schon gar kein sog. Klimakiller. Eine Klimakatastrophe existiert nicht!

Josef Kowatsch – Naturbeobachter, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz – Naturwissenschaftler und Naturschützer

Raimund Listenschneider – EIKE

 




Von wegen zuviel CO₂: Europa hat zu wenig Wolken und Regen

Klimalatein für Laien 7

Fred F. Mueller

Rasch ansteigende Temperaturen und zunehmende Trockenheit in Teilen Mitteleuropas sind auf einen Mangel an Bewölkung zurückzuführen. Die geringere Wolkenbedeckung führt zu erhöhter Einstrahlung von Sonnenenergie und weniger Niederschlag. Beide Faktoren haben höhere Temperaturen zur Folge. Im Vergleich dazu ist der Einfluss des CO-Gehalts bestenfalls minimal.

Fühlen Sie sich auch oft hilflos, wenn Sie versuchen, den Wahrheitsgehalt der Behauptungen über den drohenden Weltuntergang zu beurteilen, mit denen wir ständig bombardiert werden? Geben Sie nicht auf, sondern versuchen Sie, die relevanten Grundlagen zu verstehen, denn es gibt einen recht einfachen Weg, sich ein Bild davon zu machen, worum es hier geht. Auch ohne wissenschaftlichen Hintergrund haben die meisten Menschen zumindest einen gesunden Menschenverstand. Und das ist alles, was man braucht, um zu verstehen, wie Energie zwischen der Erdoberfläche und dem Himmel hin und her fließt.

Hier finden Sie Teil 1, Teil 2 ,Teil 3, Teil 4, Teil 5, Teil 6

Wolken: Willenlose Sklaven des CO oder eigenständige Klimatreiber?

Nach offiziellen Quellen (NOAA , DWD liegt der langfristige Netto-Kühleffekt von Wolken bei etwa -20 W/m². Er ist damit viel stärker als der so genannte Rückstrahlungseffekt durch erhöhte „Treibhausgase“, der mit nur +3,222 W/m² angegeben wird. Und da uns der gesunde Menschenverstand sagt, dass eine Erwärmung des Klimas zu mehr Verdunstung von Wasser führen sollte, sollte dies letztlich zu mehr Wolkenbildung führen – was wiederum eine kühlende Wirkung auf das Erdklima hätte.

Aber wie wir in den vergangenen Kapiteln gesehen haben, beharren der IPCC und seine Anhänger hartnäckig auf der Behauptung, dass COund die anderen „nicht kondensierenden Treibhausgase“ – hauptsächlich Methan und NO – die einzigen relevanten „Verursacher“ bzw. „Treiber“ des Klimawandels seien. Wasserdampf und Wolken – die wechselnden Aggregatzustände von Wasser in der Atmosphäre – werden zu einfachen „Verstärkern“ erklärt, die sklavisch den Anweisungen der „Treiber“ gehorchen. Die kurze durchschnittliche Lebensdauer der Wassermoleküle in der Atmosphäre wird als Grund dafür angeführt, dass der Wasserdampf nicht in der Lage sein soll, von sich aus einen nachhaltigen, langfristigen Einfluss auf die Entwicklung des Klimas auszuüben. Dies ist der Kern der Unwahrheit, die das IPCC über die Realität der Einflüsse auf das Klima verbreitet. In den vorangegangenen Teilen des Artikels wurde bereits gezeigt, dass Wolken die einzigen Einflussgrößen auf das Klima sind, welche Sonnenstrahlung daran hindern können, die Erdoberfläche zu erreichen. Dies erreichen sie, indem sie einen nennenswerten Anteil der Sonnenstrahlung direkt ins All zurück reflektieren. Kein anderes „Treibhausgas“ hat eine solche Wirkung: CO und Konsorten verlangsamen bestenfalls die Rückstrahlung von Energie ins All, nachdem diese die Oberfläche erreicht und erwärmt hat. Es ist wirklich bemerkenswert, dass es der „offiziellen“ Klimawissenschaft gelungen ist, diese einzigartige Eigenschaft des Wassers in Form von Wolken zu negieren, während sie dem CO und seinen kleineren Verbündeten Methan und NO die Rolle des „einzigen Klimareglers“ zuschreibt, siehe Bild 2.

Bild 2. „Hockeystick“ Michael E. Mann und seinen Anhängern ist es gelungen, der Öffentlichkeit die Geschichte vom (CO₂)-Schwanz (rot) zu verkaufen, der mit dem (Wolken-)Elefanten im Raum wackelt

Um es klar zu sagen: Bei den Einflussfaktoren des Klimasystems ist CO(wenn überhaupt) nur der Schwanz und die Wolken sind der Elefant im Raum. Es ist geradezu unglaublich, wie es Michael E. Mann und seinen Anhängern gelungen ist, der Öffentlichkeit eine Geschichte zu verkaufen, welche die Realität buchstäblich auf den Kopf stellt.

Das Ende aller Behauptungen über „Kipp-Punkte“ und „unkontrollierbare Überhitzung“

Das Verständnis dieser entscheidenden Rolle der Wolken impliziert auch eine weitere wesentliche Erkenntnis: Wolken – als unvermeidliche Folge der Wasserverdunstung in die Atmosphäre – können und werden einer Überhitzung des Planeten entgegenwirken und diese schließlich stoppen. Wir können also all das Gerede über „Kipp-Punkte“ und eine „unkontrollierbare Überhitzung“ des Planeten vergessen, mit dem in der Bevölkerung Panik geschürt wird. Wenn die Temperaturen deutlich ansteigen, wird auch die Verdunstung zunehmen. Mehr Verdunstung bedeutet unweigerlich auch mehr Wolken, die das Instrument eines starken negativen Rückkopplungsmechanismus sind. Dieser automatisch funktionierende Regelkreis hat unseren Planeten seit mehr als 3,5 Milliarden Jahren geschützt – und wird dies auch noch sehr, sehr lange tun, egal was „Hockeystick“ Mann und seine Brüder im Geiste vorgeben.

CO₂ sollte umgehend freigesprochen werden

Obwohl schon Schulkinder die grundlegende Beziehung zwischen Wasser/Wolken/Temperatur sofort verstehen können, läuft die Klimaentwicklung in der Realität natürlich komplizierter ab. Alle Wetter- und damit Klimaphänomene werden letztlich von gespeicherter Sonnenenergie angetrieben. Die Speicherung, der Transport, die Verteilung und schließlich die „Verklappung“ dieser Sonnenenergie in den Weltraum beeinflussen sich gegenseitig. Es handelt sich sowohl um kurzfristige als auch um langfristige Prozesse mit Schwingungen, die Dutzende, Hunderte oder auch mehrere Hunderttausend Jahre andauern können. Man braucht nur in die Erdgeschichte zurückzublicken, von den brutalen Schwankungen zwischen Überschwemmungen und Dürren in den letzten Jahrzehnten bis hin zur schleichenden Austrocknung, die eine früher fruchtbare Region in Nordafrika in die Wüste Sahara verwandelte. Sehr langfristig verlaufen beispielsweise die Eiszeiten, in deren Verlauf große Teile unserer Länder unter manchmal mehrere Kilometer hohen Eisschilden verschwanden und wieder erschienen. Wir sind immer noch nicht in der Lage, alle diese Prozesse, welche die Entwicklung unseres Klimas bestimmen, zu erkennen, geschweige denn sie zu verstehen. Allerdings gibt es einen Faktor, den wir mit ziemlicher Gewissheit ausschließen können: Das CO, welches vom IPCC als Schuldiger des Klimawandels bezeichnet wird, sollte freigesprochen werden. Denn ungeachtet der in den letzten paar Millionen Jahren aufgetretenen Klimakapriolen hat sich sein Gehalt in der Atmosphäre weitgehend innerhalb einer recht engen Bandbreite bewegt.

Natürlich werden die Wassermoleküle in der Atmosphäre weiterhin eine sehr kurze Verweilzeit haben. Um Erklärungen für die kontraintuitive Entwicklung lokaler Klimaverläufe in der nahen Vergangenheit zu finden, müssen wir nach anderen treibenden Kräften wie z. B. den El Ninjo/La Ninja-Temperaturschwankungen im südlichen Pazifik oder der ebenfalls bekannten Atlantischen Multidekadischen Oszillation (AMO) oder anderen, noch unentdeckten Mechanismen suchen. WENN Wasser verdunstet, bildet es Wolken. Aber was bestimmt die Verdunstung? Es scheint, dass die Temperaturen, die mit den derzeit bevorzugten Methoden der Meteorologie ermittelt werden, nicht erklären, warum wir in Europa ein längerfristiges Defizit an Wolken haben. Erklärbar ist dies durch eine unterdurchschnittliche Verdunstung von Wasser in den Regionen, die uns den Regen liefern. CO hat damit nichts zu tun

Fakten in Deutschland: Weniger Regen, höhere Sonneneinstrahlung und höhere Temperaturen

Die Komplexität der Klimamechanismen wird durch die Tatsache verdeutlicht, dass zumindest in weiten Teilen Nordeuropas in den letzten zwei Jahrzehnten ein anhaltender Mangel an Bewölkung und Niederschlag zu verzeichnen war. Dies geht einher mit einem überdurchschnittlichen Anstieg der Temperaturen. In Teil 4 dieses Artikels haben wir gesehen, dass die Niederschlagsstatistiken für Deutschland zeigen, dass sich der positive Niederschlagstrend nach einem langsamen, aber recht stetigen 120-jährigen Anstieg nach dem Jahr 2000 plötzlich umkehrte und einen längerfristigen Rückgang einleitete, siehe Bild 3.

Bild 3. Niederschlagsstatistik für Deutschland für die Jahre 1881 – 2022 mit einem gleitenden 5-Jahres-Mittel. Grafik erstellt mit Daten des Deutschen Wetterdienstes DWD

Der Grund für diesen rezessiven Trend bei den Niederschlägen über Deutschland erschließt sich schon beim ersten Blick auf die Entwicklung der solaren Globalstrahlung, siehe Bild 4.

Bild 4. Die Globalstrahlung über Deutschland zeigt einen bemerkenswert stetigen Anstieg über die letzten ~40 Jahre (Grafik erstellt mit Daten des DWD 10))

Bild 4 zeigt, dass über einen Zeitraum von rund 40 Jahren der solare Energieeintrag über Deutschland mit einer dekadischen Rate von etwa 3,5 % stetig zugenommen hat. Für die letzten 20 Jahre passen die Informationen der Bilder 3 und 4 perfekt zusammen: Die Wolkenbedeckung über Deutschland ist stetig zurückgegangen, was sowohl zu weniger Regen als auch zu mehr Sonneneinstrahlung führte.

Zur Überprüfung der Auswirkung dieses Anstiegs der globalen Sonneneinstrahlung reicht der Blick auf die Entwicklung der Temperaturen, Bild 5.

Bild 5. Entwicklung der Temperaturen in Deutschland von 1881 – 2022 mit einem gleitenden 5-Jahres-Mittel (Daten: BMU ¹¹)

Diese Temperaturkurve zeigt eine leicht unruhige, eher flache Entwicklung zwischen 1881 und etwa 1988, gefolgt von einem plötzlichen Anstieg um etwa 1,7 °C innerhalb der letzten ca. 35 Jahre. Die Informationen aus diesen drei Diagrammen zusammen machen stutzig. Erinnern wir uns daran, dass in den 63 Jahren zwischen 1959 und 2022 der CO-Gehalt in der Atmosphäre von 315 auf 421 ppm gestiegen ist, was einem Anstieg von etwa 34 % entspricht. Dagegen erst seit rund 35 Jahren sind die vorher gemächlich ansteigenden Temperaturen in Deutschland beschleunigt um 1,7 °C hochgeschossen, ein Wert, der selbst die pessimistischsten Befürchtungen des IPCC weit übertrifft.

Schauen wir zur Sicherheit noch weiter zurück, bis ins Jahr 1750, laut IPCC der „Stunde Null“ des „menschengemachten Klimawandels“. Die Temperaturwerte einer Berkeley-Earth-Grafik in Wikipedia ¹² für Deutschland von 1743 bis 2013 zeigen für die Jahre um 1750 ein stabiles Temperaturniveau von etwa 8 °C, Bild 6.

Bild 6. Temperaturen an Land in Deutschland von 1743-2013 (Grafik: Phrontis ¹³, CC 3.0)

Berücksichtigt man bei Bild 6 zusätzlich die Anstiege der letzten 10 Jahre (aus Bild 5), so scheint in Deutschland nicht nur die 1,5 °C-Grenze, sondern sogar die 2 °C-Grenze des Pariser Klimaabkommens akut gefährdet zu sein. Wenn man sich zudem an das bekannte Gesetz der Atmosphärenphysik erinnert, dass ein Temperaturanstieg um 1 °C zu einem um 7 % höheren Wassergehalt in der Atmosphäre führen sollte ¹, kann man sich nur wundern, warum Deutschland derzeit eine längere Periode mit deutlich weniger Niederschlag und einer ebenso ungewöhnlichen Verringerung der Wolkendecke erlebt. Passend dazu erleben wir auch noch eine deutliche Zunahme der Sonneneinstrahlung. Dies passt nicht wirklich zu den üblichen IPCC-Erklärungen.

Damit ist Deutschland auch nicht alleine

Nun könnte man die Meinung vertreten, dass Deutschland, das nur etwa 3,4 % der Gesamtfläche Europas einnimmt, eine unglückliche Kombination von Zufallsfaktoren erlebt hat. Werfen wir deshalb einen Blick auf Schweden, das größte der vier nordischen Länder (Schweden, Norwegen, Finnland und Dänemark), die zusammen immerhin 12,5 % der Fläche Europas ausmachen. Das Schwedische Meteorologische und Hydrologische Institut (SMHI) überwacht seit 1983 die jährliche globale Sonneneinstrahlung mit acht Stationen, siehe Bild 7.

Bild 7. Die Meteorologen Schwedens überwachen die globale Sonneneinstrahlung seit 1983 an acht Standorten. Die schwarze Linie zeigt den gleitenden 5-Jahres-Durchschnitt (Daten: SMHI ¹⁵).

Die vom SMHI bereitgestellten Zahlen zur globalen Sonneneinstrahlung zeigen einen außerordentlich stetigen Anstieg über den gesamten Zeitraum mit 1998 als dem einzigen Ausreißer. Der dekadische Anstieg beträgt etwa 3 % und entspricht damit in etwa dem deutschen Wert. In seinen Erläuterungen stellt das SMHI fest: „Die Trends in der Globalstrahlung können nicht durch Schwankungen der Sonneneinstrahlung erklärt werden. Die Hauptgründe für den beobachteten Anstieg seit den 1980er Jahren sind zum einen die Verringerung der Bewölkung und zum anderen die Verringerung der Partikelmenge in der Atmosphäre, die auf den stark reduzierten Ausstoß von Luftverschmutzung sowohl in Schweden als auch im übrigen Europa zurückzuführen ist“. Der Hinweis auf die sauberere Luft ist mit Vorsicht zu genießen. Natürlich wird niemand den Schweden ihre Tradition als Vorbild in Sachen Umweltverschmutzung und Naturschutz absprechen wollen. Dennoch lohnt es sich, die Tatsache zur Kenntnis zu nehmen, dass es in den 40er, 50er und 70er Jahren einen längeren Zeitraum gab, in dem die Luft über der schwedischen Hauptstadt Stockholm viel sauberer gewesen zu sein scheint als in den letzten 40 Jahren, wenn man der Erklärung für die „sauberere Luft“ Glauben schenken darf, siehe Bild 8.

Bild 8. Diese Aufzeichnung der Globalstrahlung über Stockholm zeigt, dass sie in den fünfziger und siebziger Jahren – als Fahrzeuge und Schornsteine noch nicht mit Filtern ausgestattet waren – viel höher war als in den Jahren 2010-2020 (Grafik: Weine Josefsson, SMHI ¹⁶)

Hier zwei interessante Aussagen aus dem Beitrag von Josefsson:

– „Die Trends in der Globalstrahlung können nicht durch Schwankungen der Sonneneinstrahlung erklärt werden“.

– „Eine ähnliche Tendenz mit steigender Globalstrahlung ist in weiten Teilen Europas zu beobachten. Messungen vor den 1980er Jahren zeigen, dass die Sonneneinstrahlung in den 1960er Jahren höher war als in den 1980er Jahren. Der Rückgang von den 1960er bis zu den 1980er Jahren und der anschließende Anstieg bis in die frühen 2000er Jahre wird in der internationalen Klimaforschung häufig als Global Dimming und Hightening bezeichnet“.

Da die Zeit vor den 80er Jahren weitgehend mit den schlimmsten Perioden ungefilterter industrieller und häuslicher Luftverschmutzung in Europa zusammenfällt, lassen sich „Verdunkelungs- und Aufhellungsschwankungen“, wie sie in Bild 8 dokumentiert sind, eher auf Schwankungen der Bewölkung als auf Aerosole zurückführen. Es wäre wirklich wenig glaubwürdig zu behaupten, dass die Dichte der Luftschadstoffe in den 50er und 70er Jahren erheblich geringer gewesen wäre als im 21. Jahrhundert.

Weitere europäische Länder

Die klimatischen Besonderheiten, die wir bisher gesehen haben, sind nicht nur auf Deutschland und die nordeuropäischen Länder beschränkt. Ein in den Niederlanden während einer Rekordhitzewelle im Jahr 2020 durchgeführtes Forschungsprojekt ¹ untersuchte die seit 1928 geführten Aufzeichnungen der solaren Globalstrahlung und stellte fest, dass von den zehn Jahren mit den höchsten Werten acht im 21 Jahrhundert lagen, siehe Bild 9.

Bild 9. In den Niederlanden durchgeführte Untersuchungen ergaben, dass acht der zehn Jahre mit der höchsten Sonneneinstrahlung in das 21. Jahrhundert fallen (Grafik: van Heerwarden, C., et al. ¹⁷)

Die detaillierte Analyse der verschiedenen Anteile der globalen Sonneneinstrahlung (direkt und diffus) ergab, dass nur 1,3 % (2,3 W/m²) des Anstiegs im Vergleich zum Mittelwert 2010-2019 auf eine niedrige mittlere optische Dichte der Aerosole zurückzuführen waren, während 17,6 % (30,7 W/m²) das Ergebnis mehrerer außergewöhnlich trockener Tage und eines insgesamt sehr niedrigen Wolkenanteils waren. Die Autoren kamen zu dem Schluss, dass „die reduzierten Aerosole und Kondensstreifen aufgrund der COVID-19-Maßnahmen (Anm: ein Thema, das damals heiß diskutiert wurde) in der Bestrahlungsstärkeaufzeichnung weit weniger wichtig sind als das trockene und besonders wolkenfreie Wetter“. Diese Erkenntnis könnte auch für andere Forschungsarbeiten wie beispielsweise die in Schweden durchgeführten Projekte gelten.

Weitere Länder, die vergleichbare Wettermuster wie Deutschland und die skandinavischen Länder aufweisen, sind die Schweiz ¹, wo die Niederschläge in den letzten zwei Jahrzehnten zurückgegangen sind, und Frankreich ¹, von wo im Frühjahr Nachrichten kamen, dass Bauern sogar Gebete um Regen organisierten ².

Wie erging es dagegen den USA?

In den Vereinigten Staaten untersuchte eine umfangreiche Studie von Long, C.N. et al ²¹ das Phänomen der Verdunkelung und Aufhellung des Himmels über dem US-Territorium. Sie berichten, dass während eines Zeitraums, der sich etwa von den 1960er Jahren bis in die späten 1980er oder frühen 1990er Jahre erstreckte, ein multidekadischer Rückgang der abwärts gerichteten Sonnenstrahlung (Global Dimming) zu verzeichnen war. Auf der Grundlage von Daten, die über einen Zeitraum von 12 Jahren von 1995 bis 2007 von mehreren von ARM bzw. NOAA betriebenen Stationen gesammelt wurden, stellten sie fest, dass sich dieser Trend zu einer dekadischen Aufhellung von durchschnittlich etwa 8 W/m2 für die abwärts gerichtete Sonnenstrahlung über den gesamten Himmel umgekehrt hatte. Sie kommen zu dem Schluss, dass „die Ursachen für diese Aufhellung nicht allein auf Veränderungen bei den trockenen Aerosolen oder direkten Aerosoleffekten zurückgeführt werden können, sondern zumindest dann, wenn alle (Wolken)-Bedeckungssituationen berücksichtigt werden, wahrscheinlich auch eine Bewölkungskomponente zu den Veränderungen beiträgt.“

Bild 10. Zeitlicher Verlauf der Niederschlagshöhe für die USA von 1895 bis 2022 mit einem 5-Jahres-Durchschnitt (schwarze Linie). Die Daten für die Grafik wurden aus einer mittlerweile eingestellten NASA-Veröffentlichung ²² mit absoluten Zahlen und einer neueren EPA-Veröffentlichung ²³ mit Anomalien kombiniert.

Leider bieten diese Ergebnisse keine überzeugenden Anhaltspunkte bezüglich der zugrunde liegenden Zusammenhänge. Ein Blick auf die Niederschlagsdaten für das zusammenhängende Gebiet der USA zeigt, dass die von Long et al. genannten Zeiträume mit einem langsamen Anstieg der Niederschlagsmenge im ersten Zeitraum (markiert durch einen grünen horizontalen Balken) und einer kurzen, deutlich rezessiven Tendenz im zweiten Zeitraum (roter horizontaler Balken) zusammenfallen. Beim Vergleich der langfristigen Muster der Klimaentwicklungen in den USA und Europa sind jedenfalls keine überzeugenden Ähnlichkeiten erkennbar.

Ein Tiefschlag für die etablierte Klimawissenschaft

Die Situation in Europa stellt eine echte Herausforderung für die IPCC-Klimatheorie dar, da sie nicht in das übliche Schema passt, wonach mehr CO₂ in der Atmosphäre zu höheren Temperaturen führt, was wiederum zwangsläufig mehr Regen zur Folge haben müsste. Die Fakten der letzten 20 Jahre dokumentieren ein völlig anderes Muster, wobei die höheren Temperaturen eindeutig auf eine Verringerung der Wolkenbedeckung zurückzuführen sind. Dies ist gleichbedeutend mit einem vollständigen Zusammenbruch der These, dass CO₂ und die anderen nicht-kondensierenden „Treibhausgase“ der einzige „Kontrollknopf“ für die Regulierung unseres Klimas sind, wobei Wasserdampf und Wolken als einfache „Sklaven“ angesehen werden, die alle von ihren Herren diktierten Direktiven verstärken müssen, und zwar kurzfristig.

Natürlich haben manche Klimawissenschaftler diese Bedrohung ihrer Ideologie erkannt und bemühen sich um passende Erklärungsversuche. In einem entsprechenden Forschungspapier ² mit dem Titel „Global warming without global mean precipitation increase?“ räumt der Autor zunächst ein, dass „globale Klimamodelle einen robusten Anstieg des globalen mittleren Niederschlags von etwa 1,5 bis 2 % pro Kelvin Oberflächenerwärmung als Reaktion auf Treibhausgase (THG) simulieren“. Seine Erklärung für das Ausbleiben entsprechender Fakten ist, dass „die Klimamodelle mit einer realistischen Erwärmung im 20. Jahrhundert darauf hindeuten, dass die Zunahme des globalen mittleren Niederschlags aufgrund der Erwärmung durch Treibhausgase bis vor kurzem vollständig durch eine Aerosol-Trocknung verdeckt wurde, indem sich Treibhausgas- und Aerosol-Antriebe kombinieren. Dies erklärt die scheinbar mangelnde Empfindlichkeit des mittleren globalen Niederschlags gegenüber der globalen Nettoerwärmung, die kürzlich in Beobachtungen festgestellt wurde. Wenn die Bedeutung der Treibhausgaserwärmung in Zukunft zunimmt, wird sich ein klares Signal ergeben“.

Die Probleme sind die Folge von zu wenig Verdunstung und Wolken, nicht von zu viel CO₂

Anstatt sich stur an „Klimamodelle mit einer realistischen Erwärmung im 20. Jahrhundert“ zu klammern, sollte man sich lieber an gut dokumentierte Fakten halten. Die Forscher in Schweden, den Niederlanden und den USA haben keine Hinweise auf einen dominanten Einfluss von Aerosolen auf die globale Sonneneinstrahlung gefunden. Im Gegenteil, zumindest die europäischen Forscher vermuten eine fehlende Wolkendecke als Ursache für die erhöhte Zufuhr von Sonnenenergie an der Oberfläche. Dies führte in Deutschland zu einem Temperaturanstieg von bis zu 1,7 °C innerhalb von etwa 35-40 Jahren. Vergleichen Sie dies mit der IPCC-Forderung nach weitgehender Auslöschung unserer technischen Zivilisation, um zu verhindern, dass die Temperatur auf der Erde um mehr als 1,5 °C ansteigt. Bei einem Startdatum von 1750 ergibt sich daraus eine zulässige durchschnittliche Temperaturanstiegsrate von 0,0055 °C/Jahr. In Deutschland liegt der durchschnittliche Temperaturanstieg derzeit bei 0,031 °C/Jahr und damit fast sechsmal so hoch wie der vom IPCC festgelegte Grenzwert. Auch mehrere andere europäische Länder verzeichnen derzeit eine vergleichbare Temperaturentwicklung. Was ist also mit der Behauptung, dass „globale Klimamodelle einen robusten Anstieg des mittleren globalen Niederschlags ² von etwa 1,5 bis 2 % pro Kelvin Oberflächenerwärmung als Reaktion auf Treibhausgase (THG) simulieren“ [Anm.: Dies stimmt nicht so recht mit den 7 % überein, die bei Wikipedia ¹ zu finden sind). Gibt es eine überzeugende Erklärung für diese langfristige Abweichung von der CO₂-basierten globalen Erwärmungstheorie des IPCC?

Der offensichtliche Haupthebel für die klimatische Entwicklung in Europa ist nicht die Zunahme von CO₂, sondern ein bisher nicht erklärbarer Mangel an Wasserdampf in der Atmosphäre, der zu einer geringeren Wolkenbedeckung und weniger Regen führt. Angesichts dieser Tatsachen stellt sich die Frage, ob die Gesetze für die Verdunstung von Wasser nicht mehr gelten oder ob die globalen Temperaturmessungen nicht vertrauenswürdig sind – oder welche anderen Mechanismen hier im Spiel sein könnten. In den nächsten Abschnitten werden wir versuchen, diese Fragen näher zu beleuchten.

Wird fortgesetzt. Bleiben Sie neugierig!

Quellen

  1. https://eike-klima-energie.eu/2023/02/13/klimalatein-fuer-laien/
  2. https://eike-klima-energie.eu/2023/02/21/klimalatein-fuer-laien-2/
  3. https://eike-klima-energie.eu/2023/03/04/klimalatein-fuer-laien-3/
  4. https://eike-klima-energie.eu/2023/03/18/klimalatein-fuer-laien-4/
  5. https://eike-klima-energie.eu/2023/04/04/klimalatein-fuer-laien-5/
  6. https://eike-klima-energie.eu/2023/04/18/klimalatein-fuer-laien-6/
  7. https://www.gfdl.noaa.gov/cloud-radiative-effect/

  8. https://www.dwd.de/EN/research/observing_atmosphere/lindenberg_column/radiation/wolkenbeobachtung.html

  9. https://www.dwd.de/DE/leistungen/zeitreihen/zeitreihen.html#buehneTop

  10. https://www.dwd.de/DE/leistungen/solarenergie/Trend_seit1983.html?nn=16102

  11. https://www.umweltbundesamt.de/daten/klima/trends-der-lufttemperatur#2022-zusammen-mit-2018-das-bisher-warmste-jahr-in-deutschland

  12. https://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland#/media/Datei:Germany-TAVG-Trend_1743-2013.svg

  13. https://commons.wikimedia.org/wiki/File:Germany-TAVG-Trend_1743-2013.svg

  14. https://www.e-education.psu.edu/earth103/node/558

  15. https://www.smhi.se/en/climate/climate-indicators/climate-indicators-global-radiation-1.91484

  16. https://www.smhi.se/publikationer/publikationer/long-term-global-radiation-in-stockholm-1922-2018-1.145705

  17. https://www.nature.com/articles/s43247-021-00110-0

  18. https://www.meteoschweiz.admin.ch/service-und-publikationen/applikationen/ext/climate-evolution-series-public.html

  19. https://tradingeconomics.com/france/precipitation

  20. https://orf.at/stories/3308706/

  21. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2008JD011263

  22. http://data.giss.nasa.gov/precip_cru/graphs/

  23. https://www.epa.gov/climate-indicators/climate-change-indicators-us-and-global-precipitation

  24. https://www.science.org/doi/10.1126/sciadv.1501572




Mathematisch ist beim IPCC alles falsch! Teil 2

Von Henri Masson, Professor (emeritus) an der University of Antwerp (Belgium) und Michael Limburg Dipl. Ing.

Dieser Artikel wiederholt weitgehend einen Teil des Vortrags, den der Autor Henri Masson auf der 12. jährlichen EIKE-Konferenz (München 2018) gehalten hat. Der Text, der die PowerPoint-Folien der Präsentation umgibt, ist jedoch unveröffentlicht, ebenso wie das, was den Kern dieser Studie ausmacht: die Analyse der Anpassungs-Residuen von Hadcrut 5.0.1.0-Daten durch eine Summe von Sinuskurven oder eine lineare Regressionslinie.

Der Beitrag wurde aus praktischen Gründen in 4 Teile aufgeteilt

Das Video dazu findet man hier

Teil 2

Zeitliche Mittelwerte

Der IPCC drückt seine Ergebnisse in Form von Monats- oder Jahres-Durchschnittswerten aus.

Es kommt vor, dass nicht nur die Sonne, sondern auch der Mond, der zwar kleiner ist, aber viel näher an der Erde steht, die lokale Sonneneinstrahlung verändert, wobei die Gravitationskräfte (das berühmte Problem der drei Körper in der Mechanik) die Ausrichtung der Rotationsachse der Erde und damit ihre Neigung gegenüber der Ebene der Ekliptik leicht verändern (Abbildung 7). Nun gibt es in einem Sonnenjahr mathematisch gesehen 13 Mondmonate (365/28 ~ 13,04), während der Kalender, mit dem wir die monatlichen Durchschnittswerte berechnen, 12 Monate von ungleicher Länge enthält. Daraus folgt, dass ein Datum des Sonnenkalenders von Jahr zu Jahr mit verschiedenen Mondphasen übereinstimmt. Diese Tatsache, die den Gärtnern, die „mit dem Mond pflanzen“, wohl bekannt ist, wird von den Klimatologen völlig vernachlässigt. Zum Leidwesen der Letzteren ergibt sich daraus auch von Sonnenjahr zu Sonnenjahr ein Rest an zeitlicher Anpassung der Amplitude, vergleichbar mit den Temperaturanomalien, die als Indikator für den Klimawandel gelten. Dies macht das Ganze sehr unübersichtlich.

Abbildung 7: System Erde-Sonne-Mond.

Diese Tatsache wird vernachlässigt, da die Temperaturschwankungen von einem Tag auf den anderen nur sehr selten berücksichtigt werden und die größte zeitliche Auflösung bei einem Monat liegt. Betrachtet man jedoch die täglichen Temperaturschwankungen an einem bestimmten Punkt, so ist eine Periodizität von ~14 Tagen (ungefähr die Harmonische der Größenordnung von 2 bis 29,3 Tagen, die den Mondmonat kennzeichnet) deutlich erkennbar, wie in Abbildung 8 unten dargestellt:

Abbildung 8: Tägliche Temperaturmessung. Eine Periodizität von 14 Tagen ist in der Aufzeichnung von Höchst-, Tiefst- und Durchschnittstemperaturen, zusätzlich zu einer langsamen Drift entsprechend den jährlichen Schwankungen offensichtlich. Die Amplitude dieser Periodizität von 14 Tagen ist in der Größenordnung von ±5°C um den Durchschnitt in dem gewählten Beispiel (Vanwvskvlei, Südafrika). Die Häufigkeitsanalyse der täglichen Daten, die an verschiedenen Orten für verschiedene Monate des Jahres gesammelt wurden, zeigt die gleichen Merkmale mit unterschiedlichen Amplituden und natürlich mit einem monatlichen Trend, der sich je nach Jahreszeit ändert. (Quelle: P. Frank, Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index, Energy & Environment – Vol. 22, No. 4, 2011)

Die durch diese kalendarische Diskrepanz verursachten Fehler lassen sich einfach dadurch veranschaulichen, dass man einem Dutzend Sinuskurven von 365,25 Tagen eine Sinuskurve mit geringerer Amplitude und einer Periode von 29,53 Tagen überlagert. Um das Signal zu verrauschen, wurden einige Sinuskurven mit sehr geringer Amplitude hinzugefügt. Ihre Perioden entsprechen den bekannten astrophysikalischen Zyklen, die die Umlaufbahnen der Erde um die Sonne und des Mondes um die Erde stören. Die verwendeten Parameter sind in der folgenden Tabelle 1 zusammengefasst:

Tabelle 1. Parameter, die zur Simulation der Wechselwirkungen zwischen Sonnen- und Mondkalender verwendet werden. Zusätzlich zum Sonnenjahr und zum Mondmonat wurden verschiedene gut dokumentierte Periodizitäten von Mond und Sonne mit einer kleinen Amplitude hinzugefügt, um das natürliche Rauschen zu simulieren.

Einige illustrative Ergebnisse der Simulation sind in den Abbildungen 9, 10 und 11 wiedergegeben:

Abbildung 9: Simulation der monatlichen Durchschnittswerte (Sonnenkalender), die sich aus der Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer anderen mit einer Periode von 28 Tagen ergeben.

Die Entwicklung der simulierten monatlichen Temperaturen ist in Abbildung 10 dargestellt. Für den gewählten Wert der Parameter ergibt sich ein mit den Temperaturanomalien vergleichbares Profil mit einer positiven Steigung der Regressionslinie. Der IPCC führt die Ausschläge der Kurve auf kurzlebige natürliche Phänomene zurück (El Nino, Vulkanismus usw.). Es sei darauf hingewiesen, dass die Simulation auch eine „Pause“ aufweist, wie die aus Wetterdaten berechneten Temperaturanomalien.

Abbildung 10: Simulation der Temperaturanomalien, die sich aus der Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer weiteren mit einer Periode von 28 Tagen ergeben. Das Ausmaß und die Amplitude sind mit den vom IPCC gemeldeten Temperaturanomalien vergleichbar. Die Regressionslinie hat eine positive Steigung, während das Signal vollkommen stationär ist. Die Ausschläge der Kurve wurden „künstlich“ mit fiktiven Ereignissen in Verbindung gebracht, um die Erklärungen des IPCC angesichts eines solchen Ergebnisses wiederzugeben.

Abbildung 11: Vergleich zwischen realen und simulierten Anomalien (erhalten durch Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer anderen mit einer Periode von 28 Tagen). Die experimentelle Kurve befindet sich in der oberen linken Ecke der Abbildung. Alle anderen Abbildungen sind Simulationen jährlicher oder monatlicher Zeitreihen; ihre Regressionslinien zeigen einen positiven Trend.

Abbildung 11 ermöglicht einen direkten Vergleich dieser Simulationen mit den Temperaturanomalien. Die Ähnlichkeit ist frappierend. Wir überlassen es dem Leser, seine eigenen Schlussfolgerungen zu ziehen.

Am Rande sei bemerkt, dass die Amplitude der Gezeiten des Ozeans im Wesentlichen auf die Wirkung des Mondes zurückzuführen ist, die durch die Wirkung der Position der Sonne moduliert wird, die hohe Gezeiten verursacht und die Verteilung der Meeresströmungen beeinflusst. Es ist nicht ausgeschlossen, dass die gleichen Gravitationskräfte die Struktur und die Dynamik der Atmosphäre beeinflussen, die eine 1000-mal geringere Trägheit als der Ozean aufweist, z. B. auf die Position der Jetstreams oder die Merkmale der Walker-Zirkulation, der Hadley-Zellen oder der Polarzellen, auch wenn es keine genauen Daten gibt.

Diese variable Phasenverschiebung von Jahr zu Jahr zwischen Sonnen- und Mondkalender ist auch der Grund dafür, dass der Ramadan, der auf einem Mondkalender basiert, von Jahr zu Jahr zu unterschiedlichen Zeiten stattfindet, die sich auf den Sonnenkalender beziehen.

Lokale Temperatur-Anomalien

Aber selbst wenn wir uns auf die Verwendung lokaler Indikatoren beschränken, bleiben Probleme bestehen. Das von der WMO (World Meteological Association) befürwortete Konzept der lokalen Temperaturanomalie besteht darin, die an einem Punkt beobachtete Temperatur mit dem über einen bestimmten Bezugszeitraum von 30 Jahren errechneten Durchschnitt zu vergleichen. Die Rechtfertigung für Temperaturanomalien liegt in der Tatsache, dass es sich um eine bequeme Methode für den Vergleich von Temperaturschwankungen an verschiedenen Punkten der Erde handelt, wobei die lokalen Temperaturen zwischen den Polen und dem Äquator um bis zu 100°C variieren. Ursprünglich war vereinbart worden, den Bezugszeitraum alle 30 Jahre neu zu bestimmen (1930-1960, 1960-1990, 1990-2020). Die letzte Anpassung ist immer noch Gegenstand heftiger Debatten, wobei die WMO es vorzieht, den Referenzzeitraum 1960-1990 beizubehalten. Einige, die von der „offiziellen Klimawissenschaft“ als Verschwörungstheoretiker bezeichnet werden, sehen darin den verzweifelten Versuch, die Tatsache zu verschleiern, dass diese Anomalien im Vergleich zum Zeitraum 1990-2020 eine bedauerliche Tendenz zur Stagnation aufweisen, was die politische Agenda im Zusammenhang mit dem (so genannten) Klimanotstand ernsthaft beeinträchtigt.

Leider führen die Temperaturanomalien zu falschen Trends und Verzerrungen, die durch natürliche zyklische Temperaturkomponenten verursacht werden, deren Zeitraum den für die Berechnung der Anomalien verwendeten Referenzzeitraum (30 Jahre) überschreitet, und solche natürlichen Klimakomponenten sind zahlreich (siehe Tabelle 2).

Tabelle 2: Einige natürliche Zyklen im Vergleich zu dem für die Berechnung der Temperaturanomalien verwendeten Bezugszeitraum.

Veranschaulichen wir den Mechanismus anhand einer einfachen Sinuskurve mit einer Periode von 180 Jahren (eine bekannte periodische Komponente der Klimazeitreihen) und sehen wir uns an, was die Berechnung der Anomalien entlang dieser Sinuskurve ergeben würde, wobei der Bezugszeitraum wie üblich 30 Jahre beträgt (Abbildung 12):

Abbildung 12: Simulation des Ausmaßes der Temperaturanomalien. Die Berechnung erfolgt für eine Sinusperiode von 360° und für Referenzperioden, die zur Berechnung der Anomalien verwendet werden, von 60° (dies entspricht einer Periode von 180 Jahren und einer Referenzperiode zur Berechnung der Anomalien von 30 Jahren). Diese Bezugszeiträume sind durch die roten Linien in der Abbildung dargestellt. Eine Sinuskurve zeigt natürlich keine Tendenz und entwickelt sich um eine Horizontale. Die drei dargestellten Fälle zeigen signifikante Anomalien, die sich deutlich voneinander unterscheiden und alle fiktiv sind.

Zusätzlich zu den falschen Tendenzen führt das Konzept der Anomalie im Falle eines polyzyklischen Signals auch zu variablen Verzerrungen in Abhängigkeit von der Anfangszeit und der Länge des Referenzzeitraums. Dieser Effekt wurde in Abbildung 13 für den Fall einer einfachen Sinuskurve simuliert. Dieser Effekt führt nicht nur zu Verzerrungen, sondern auch zu Diskontinuitäten beim Übergang von einer Referenzperiode zur anderen.

Abbildung 13: Verzerrung des zur Berechnung der Anomalien verwendeten Basiswerts nach Länge der Referenzperiode. Die Periode der Sinuskurve mit Einheitsamplitude wird in Grad (360°) ausgedrückt. Die Kurven stellen die Länge der Referenzperioden dar, die für die Berechnung der Anomalien verwendet wurden. Sie sind ebenfalls in Grad angegeben (die Bruchteile der Periode darstellen). Die Punkte der verschiedenen Kurven entsprechen dem anfänglichen Offset der Referenzperiode. Diese Verzerrungen sind sehr variabel und können bis zur Amplitude der Sinuskurve reichen. In dieser Abbildung wird auch das Problem der „gestuften Verbindung“ deutlich, wenn man von einer Referenzperiode zu einer anderen wechselt, wobei sich die Verzerrung je nach Position auf der Sinuskurve in die eine oder andere Richtung ändert. Die beiden Punkte, die den Kurven hinzugefügt wurden, veranschaulichen dieses Problem.

Um unsere Beschwerden zusammenzufassen, können wir einfach sagen, dass die Verwendung von Temperaturanomalien ein dreifaches „mathematisches“ Problem darstellt: Sie führt zu falschen Trends, Verzerrungen und verursacht Verbindungsprobleme, wenn man von einem Bezugsfenster zum anderen wechselt (1930-1960, 1960-1990 und möglicherweise 1990-2020, um die WMO- und IPCC-Konvention zu verwenden, die nicht die der NASA ist; letztere beginnt ihren ersten Bezugszeitraum zum Zeitpunkt des Starts der ersten Wettersatelliten, was zwar logisch ist, aber zur Verwirrung beiträgt).

Zuverlässigkeit lokaler Messungen

Nachdem die Gefahren aufgezeigt worden sind, die sich aus der Verwendung globaler oder lokaler Temperaturanomalien ergeben, muss auch die Qualität der „rohen“ Einzelmessungen hinterfragt werden, wie sie in den „primären“ Datenbanken erfasst und aufgezeichnet werden, aus denen die monatlichen und jährlichen Durchschnittswerte und ihre Anomalien extrahiert werden.

Die Temperatur im Tagesverlauf

Die Temperatur schwankt im Laufe des Tages mit einer Amplitude, die von der lokalen Bewölkung abhängt, die tagsüber als Abschirmung und nachts als Abdeckung wirkt. Je stärker die Bewölkung ist, desto geringer ist die Amplitude der Tag-Nacht-Temperaturschwankungen. Bei Abwesenheit von Wolken können die täglichen Temperaturschwankungen beispielsweise in den europäischen Gebirgen 20°C überschreiten. Es stellt sich daher die Frage, welche Temperatur für einen bestimmten Tag repräsentativ ist. In der Tat gibt es verschiedene Methoden (Maximum + Minimum / 2, Durchschnitt der zu bestimmten Zeiten aufgezeichneten Temperaturen, kontinuierliche Ablesung und Durchschnitt der Messungen usw.), und diese Methoden werden nicht immer erläutert. Dies stellt eine erste Fehlerart dar (Abbildung 14).

Abbildung 14: Algorithmen zur Bestimmung der Tagestemperatur und Fehler im Vergleich zur tatsächlichen Durchschnittstemperatur, die durch die Integration kontinuierlicher Temperaturmessungen über die gesamten 24 Stunden eines Tages abgeleitet wird. Der Fehler liegt in der Größenordnung von +- 0,6°C

Terrestrische Untersuchungen

Die längsten mit dem Thermometer aufgezeichneten Messreihen sind etwa 300 Jahre alt. Die Bedingungen normalisierten sich allmählich und erreichten ihren Höhepunkt in den Stevenson-Wetterhütten. Diese wurden später und nach und nach durch gekapselte Sensoren (Thermistor-Thermoelemente oder Platin-Filament-Thermometer) ersetzt, die jeweils eine Neukalibrierung erforderten. Auch die Umgebung dieser Sensoren hat sich im Laufe der Zeit durch Urbanisierung, Pflasterung usw. verändert („städtischer Blockeffekt“). Viele dieser Sensoren befinden sich heute in unmittelbarer Nähe von Gebäuden, die Sonnenstrahlung sammeln oder reflektieren, manchmal in der Nähe von Klimaanlagen. außer auf dem Rollfeld des Flughafens in Reichweite von Flugzeugabgasen und anderen auf den Start- und Landebahnen manövrierenden Fahrzeugen. Basierend auf einer großen Umfrage von Antony Watts (von der Website WattsUpWithThat) wurde geschätzt, dass nur 10 % der Installationen auf amerikanischem Boden einen Messfehler von weniger als 1 °C aufweisen (Abbildung 15).

Abbildung 15. Genauigkeit der Messungen an terrestrischen Wetterstationen in den USA. Weniger als 10% der 1221 untersuchten Stationen haben einen Fehler von weniger als 1°C.

Für andere Länder liegen keine Daten vor, aber man kann davon ausgehen, dass das Ergebnis vergleichbar, wenn nicht sogar schlechter sein wird. Darüber hinaus muss eine Höhenkorrektur des Messpunktes vorgenommen werden, um alle Temperaturen auf Meereshöhe zurückzubringen. Diese Korrektur ist rein theoretisch und basiert auf einer adiabatischen Ausdehnung in der Atmosphäre, was aber fast nie zutrifft, wie die Messungen der Wetterballone beweisen.

Wir haben es also mit mehreren voneinander unabhängigen Fehlern zu tun, die häufig willkürlich und undurchsichtig von Hand korrigiert werden und die sich häufen.

Wetterstationen sind sehr nützlich, um lokale Bedingungen zu beschreiben und kurzfristige Vorhersagen zu machen, aber wegen der Fehler, welche die dort möglichen Messungen verfälschen, überhaupt nicht geeignet, um lokale Temperaturschwankungen in der Größenordnung von einem Hundertstel Grad pro Jahr festzustellen, wie es der IPCC behauptet.

Wird fortgesetzt. Wer den gesamten Bericht sofort lesen will, findet ihn als pdf hier

IPCC has it all wrong Li-Edition Deutsch

 




Die Energiekrise in Südafrika: Der Kampf zwischen Energiebedarf und Umwelt-Aktivisten

Charles Rotter

[Bald auch bei uns? A. d. Übers.]

Angesichts der drängenden Energiekrise führt die südafrikanische Regierung einen Kampf an zwei Fronten. Auf der einen Seite besteht ein dringender Bedarf an zuverlässiger Energieversorgung, auf der anderen Seite erweist sich der erbitterte Widerstand von Umweltaktivisten als gewaltige Hürde für die von ihnen vorgeschlagenen Lösungen.

Die Energieprobleme Südafrikas sorgen seit Jahren für Schlagzeilen. Die ständigen Stromausfälle und Unterbrechungen der Stromversorgung haben der Wirtschaft des Landes einen erheblichen Schaden zugefügt. Vor kurzem prognostizierte der schuldengeplagte staatliche Energieversorger Eskom Holdings SOC Ltd., dass er in der kommenden Wintersaison nur die Hälfte des Tages Strom liefern kann.

Um diese Stromknappheit zu beheben, hat die südafrikanische Regierung versucht, das türkische Unternehmen Karpowership um Hilfe zu bitten. Der Vorschlag sieht vor, dass die Stromschiffe des Unternehmens in drei Häfen des Landes vor Anker gehen. Diese Lösung hat jedoch die Empörung von Umweltgruppen hervorgerufen.

Der Minister für Bodenschätze und Energie, Gwede Mantashe, äußerte sich zu diesem Thema und brachte seine Frustration über Umweltaktivisten zum Ausdruck: „Umweltaktivisten legen gegen jede Entwicklung, die ihnen nicht gefällt, ein Veto ein… Die Leute können uns so oft wie möglich vor Gericht bringen, wir werden mit der Gas- und Erdölexploration fortfahren.“ Diese Äußerung erfolgte, nachdem die südafrikanische Regierung Karpowership und anderen erfolgreichen Bietern 20-jährige Lieferverträge gewährt hatte.

Umweltaktivisten argumentieren, dass diese Verträge Südafrika für zwei Jahrzehnte an die Nutzung fossiler Brennstoffe binden könnten. Doch angesichts des dringenden Energiebedarfs Südafrikas scheint die Regierung bereit zu sein, ihre Entscheidung notfalls vor Gericht zu verteidigen. Selbst Finanzminister Enoch Godongwana hat Mantashes Beschaffung neuer Kapazitäten öffentlich unterstützt.

Der Konflikt zwischen der Regierung und den Umweltaktivisten dauert bereits seit Jahren an, und die Pläne für die Zusammenarbeit mit Karpowership sind seit Jahren Gegenstand von Rechtsstreitigkeiten und Anfechtungen durch den Umweltschutz. Inmitten dieser Unstimmigkeiten wird das Land weiterhin von der Energiekrise heimgesucht.

In der Zwischenzeit hat Südafrika seine Emissionsreduktionsziele ungewollt übertroffen. Durch regelmäßige Ausfälle von Kohlekraftwerken und erzwungene Abschaltungen verringert Südafrika ungewollt die Menge des in die Atmosphäre abgegebenen Kohlendioxids. Das Land ist seinem Ziel, die Treibhausgasemissionen zu reduzieren, voraus – ein Silberstreif am Horizont in einer ansonsten entmutigenden Situation.

Dieses Szenario verdeutlicht die komplexe Dynamik, die in Südafrikas Energielandschaft im Spiel ist. Die Regierung ist mit der dringenden Notwendigkeit konfrontiert, ihre Bürger mit zuverlässiger Elektrizität zu versorgen, eine Aufgabe, die mit einem an seine Grenzen stoßenden Netz immer schwieriger wird.

Die vehementen Einwände von Umweltgruppen führen jedoch weiterhin zu einem Stillstand, der die südafrikanische Wirtschaft in den Abgrund treibt.

Link: https://wattsupwiththat.com/2023/05/31/the-south-african-energy-crisis-a-battle-between-power-needs-and-environmentalists/

Übersetzt von Christian Freuer für das EIKE

Kommentar des Übersetzers hierzu: Im Titel hatte ich „environmentalists“ bereits mit Umwelt-Terroristen übersetzt, dann aber davon Abstand genommen. Jedoch: Menschen, die eine ganze Nation absichtlich für nichts und wieder nichts in den Abgrund treiben, wie Autor Rotter es ausdrückt – was ist das anderes als Terrorismus? Warum eigentlich lassen sich die Leute das gefallen?

 




Arktisches Eis: Eine endlose Folge falscher Prognosen

Charles Rotter

Die Geschichte des arktischen Meereises ist eine Geschichte der ständigen Warnungen, unterbrochen von einer Reihe von Fehlprognosen, die sich über Jahrzehnte erstrecken. Wissenschaftler prognostizieren seit langem den Untergang des arktischen Sommereises, aber ihre Fristen sind immer wieder verstrichen, so dass die Vorhersagen immer wieder gescheitert sind. Die jüngste Behauptung ist nicht anders und besagt, dass es jetzt zu spät ist, das arktische Sommereis zu retten. Aber wie wir gesehen haben, kann sich der Zeitrahmen für diese Prognosen erheblich und unvorhersehbar verschieben.

In der jüngsten Studie unter der Leitung von Prof. Seung-Ki Min von der Universität Pohang, Südkorea, und Prof. Dirk Notz von der Universität Hamburg, Deutschland, wird behauptet, dass die Arktis in den kommenden Jahrzehnten im September eisfrei sein wird. Es ist jedoch erwähnenswert, dass derartige Prognosen schon früher gemacht und später revidiert wurden. Der einst gefürchtete „erste eisfreie Sommer“ wurde ursprünglich für das Jahr 2012 vorhergesagt, schwankte dann aber jahrelang hin und her. Diese Art von Zeitsprüngen hat zu erheblicher Skepsis geführt und die Glaubwürdigkeit solcher Vorhersagen untergraben.

Quelle, daraus das folgende Abstract:

Abstract

Der sechste IPCC-Bewertungsbericht kommt zu dem Schluss, dass die Arktis bei mittleren und hohen Treibhausgas-Emissionen im September bis zur Mitte des Jahrhunderts im Durchschnitt praktisch eisfrei sein wird, nicht jedoch bei niedrigen Emissionen. Dies geht aus Simulationen mit den Modellen der neuesten Generation des Coupled Model Intercomparison Project Phase 6 (CMIP6) hervor. Hier zeigen wir mit Hilfe einer Attributionsanalyse, dass ein dominanter Einfluss des Anstiegs der Treibhausgase auf die arktische Meereisfläche in drei Beobachtungsdatensätzen in allen Monaten des Jahres nachweisbar ist, aber im Durchschnitt von den CMIP6-Modellen unterschätzt wird. Indem wir die Reaktion der Modelle auf Treibhausgase so skalieren, dass sie am besten mit dem beobachteten Trend übereinstimmt – ein Ansatz, der in einem unvollkommenen Modelltest validiert wurde – prognostizieren wir eine eisfreie Arktis im September unter allen betrachteten Szenarien. Diese Ergebnisse unterstreichen die tiefgreifenden Auswirkungen der Treibhausgasemissionen auf die Arktis und zeigen, wie wichtig es ist, für eine saisonal eisfreie Arktis in naher Zukunft zu planen und sich darauf einzustellen. https://www.nature.com/articles/s41467-023-38511-8

Das Wichtigste dabei ist, dass es sich um Projektionen handelt, um Modelle, die auf bestimmten Bedingungen und Parametern beruhen. Der springende Punkt ist die Unvorhersehbarkeit von Naturphänomenen und die unzähligen Faktoren, die sie beeinflussen.

In der neuen Studie wird behauptet, dass 90 % der Schmelze auf die vom Menschen verursachte globale Erwärmung zurückzuführen sind, während die restlichen 10 % auf natürliche Faktoren wie Schwankungen der Sonnenintensität und Emissionen von Vulkanen zurückzuführen sind. Aufgrund dieser natürlichen Schwankungen im Klimasystem können die Forscher kein bestimmtes Jahr für den ersten eisfreien Sommer nennen.

Selbst Prof. Mark Serreze, der Direktor des National Snow and Ice Data Center, der nicht an der Studie beteiligt war, räumt die Schwierigkeit ein, genaue Vorhersagen zu treffen. Er gibt zu, dass seine frühere Vorhersage einer eisfreien Arktis bis 2030 möglicherweise zu aggressiv war. Diese Art des Rückzugs verdeutlicht nur die Realität der Situation: Vorhersagen über das arktische Meereis sind im Laufe der Zeit notorisch ungenau gewesen.

Die inhärente Komplexität des Klimasystems der Erde in Verbindung mit der Unfähigkeit, jede einzelne das Schmelzen des arktischen Eises beeinflussende Variable zu berücksichtigen, stellt diese Vorhersagen auf wackligen Boden. Wie sich im Laufe der Jahre immer wieder gezeigt hat, sind die alarmistischen Termine für eine eisfreie Arktis gekommen und gegangen, so dass wir über die Glaubwürdigkeit dieser Vorhersagen nachdenken müssen. Im Bereich der Wissenschaft ist es wichtig, zwischen dem, was wir wissen, und dem, was wir annehmen, zu unterscheiden.

Jahrzehntelang gescheiterte Vorhersagen über das Ende des arktischen Meereises sollten uns dazu veranlassen, diese neuen Erkenntnisse mit einem kritischen Auge zu betrachten. Bei der weiteren Erforschung des komplexen Klimasystems der Erde ist es wichtig, ein Gleichgewicht zwischen Vorsicht, Skepsis und der Bereitschaft zu finden, unsere Modelle und Vorhersagen neu zu bewerten.

HT/Hans Erren and strativarius

Link: https://wattsupwiththat.com/2023/06/08/arctic-ice-a-history-of-failed-predictions/

Übersetzt von Christian Freuer für das EIKE