Februar: keine CO₂-Treibhauswirkung erkennbar

Von Matthias Baritz, Josef Kowatsch und Stefan Kämpfe

  • Wärmster Februar seit 1881
  • 107 Jahre Abkühlung, Temperatursprung, ab 1988 bis heute Weitererwärmung.
  • Keine Korrelation mit dem CO₂-Anstieg, keine Treibhauswirkung erkennbar
  • Der vom Menschen verursachte WI-effekt hat die Erwärmung seit 1881 mitgetragen.

„Fast den ganzen Februar über wurde milde Atlantikluft nach Deutschland geführt. Daraus resultierte sowohl eine deutlich positive Temperaturabweichung, als auch überdurchschnittlich viel Niederschlag. Die Sonne hatte es den ganzen Monat über schwer, sich gegen die oft kompakte Bewölkung durchzusetzen. Schnee und Frost suchte man auch in den Wintersportgebieten der Mittelgebirge vergeblich. Nur in den Hochlagen der Alpen schneite es in der dritten Dekade etwas ergiebiger.“ Das meldet der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner über 2000 Messstationen.

Und ein neuer Temperaturrekord seit 1881: Das Temperaturmittel lag im Februar 2024 bei 6,6 Grad Celsius (°C)

Wir fragen uns: Wo ordnet sich dieser Februar 2024 mit seinen schon frühlingshaften 6,6 °C in die bis 1881 zurückreichende Klimareihe Deutschlands ein, und wie entwickelten sich die Februar-Temperaturen langfristig?

Doch zuerst zur Deutschland –Temperaturgrafik des Februars:

Abb. 1: Die Februar-Mitteltemperaturen des Deutschen Wetterdienstes seit 1881 bis 2024, also 144 Jahre:

Wir erkennen mindestens 3 Teilabschnitte:

  1. Leichte Abkühlung 107 Jahre lang bis 1987
  2. Temperatursprung von 1987 auf 1988 von 1,5 Grad
  3. Weitererwärmung seit 1988 bis heute laut DWD um 0,3 Grad/Jahrzehnt.

Die CO₂-Konzentrationszunahme in der Atmosphäre: Starker Anstieg

Abb. 2: Steiler und stetiger CO₂-Anstieg in der Atmosphäre, vor allem seit 1960

Wir gehen von einer erheblichen Zunahme der CO₂-Konzentration von 135 ppm seit 1881 aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die vom PIK-Potsdam behauptete hohe CO₂-Klimasensitiviät anhand des Artikels in Frage stellen. Umso mehr, wenn man die ersten 107 Jahre näher betrachtet.

Der Temperaturverlauf in den ersten 107 Jahren ist jedoch keinesfalls immer fallend wie die Trendlinie der Grafik 1 suggeriert. Erst ab 1943 bis 1987 kühlte der Februar deutlich ab.

Betrachten wir nun den kürzeren Zeitraum ab 1943.

Abb. 3: Die Februarabkühlung begann eigentlich erst so richtig ab 1943, und zwar sehr deutlich. Der Temperatursprung im Jahre 1987/88 bleibt.

Wissenschaftliche Erkenntnis: CO₂ kann nicht über 100 Jahre abkühlend wirken, dann einen plötzlichen Temperatursprung verursachen und erst ab 1988 erwärmend weiter wirken. Solche Gaseigenschaften gibt es nicht.

Wir stellen bisher fest:

Die CO₂-Kurve der Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Februartemperaturen keinerlei Ähnlichkeit. Ab 1988 bis heute handelt es sich um eine Zufallskorrelation.

Auch für den Temperatursprung im Jahre 1987 auf 1988 kann CO₂ nicht verantwortlich sein. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr Westwetterlagen bei positiven NAO-Werten).

Aus den Grafiken muss man schließen, CO₂ hat entweder gar keinen Einfluss auf die Temperaturen oder einen nur sehr unbedeutenden. Eine politisch gewollte und nun von die Grünen favorisierte teure CO₂-Reduzierung durch das im Boden Verpressen oder Versenken von Kohlendioxid im Meer ist völlig nutzlos, dazu umweltzerstörend und gefährlich für die Bodenorganismen.

Damit ist die gängige Definition von Klimawandel falsch, die ausschließlich Kohlendioxid und andere Treibhausgase für die Klimaerwärmung verantwortlich macht.

Merke: Die treibhausbasierte Klimahysterie ist eine Wissenschaft des finstersten Mittelalters. Da geht es nur ums Geld und einen CO₂-Ablaßhandel

Doch zurück zu den Februartemperaturreihen des Deutschen Wetterdienstes: Einzuwenden wäre, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren ganz anderen Temperaturermittlungen in der Wetterhütte mit den heutigen wärmeren Standorten nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit 220 gut doppelt so viele, was bedingt durch den erhöhten Wohlstand und Energieverbrauch erwärmend wirkte. Die DWD- Wetterstationen stehen heute in den von Menschen geschaffenen großflächigen Wärmeinseln, auch gab es einst typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei freistehenden Gutshöfen von Feudalherren.

Die Realität wäre: Die fallende Trendlinie von 1881 bis 1987 wäre noch mehr fallender. Der Temperatursprung wäre gleich. Die Erwärmungssteigung der Trendlinie ab 1988 bis heute wäre nicht so stark. Zum WI-effekt und zur Größeneinschätzung siehe weiter unten.

Wenn Kohlendioxid nicht erwärmt, was dann? Auf der Suche nach des Gründen des Februarverhaltens:

NAO = Nordatlantische Oszillation. Unter der NAO versteht man in der Meteorologie die Schwankung des Druckverhältnisses zwischen dem Islandtief im Norden und dem Azorenhoch im Süden

Dieses auffällige Temperaturverhalten in drei Phasen ähnelt grob dem des Januars und lässt sich sehr gut mit dem Verhalten der NAO und der an die NAO gekoppelten Häufigkeit der Großwetterlagen mit Westanteil erklären:

Abb. 4: Zentrierte, 11-jährige Gleitmittel der NAO und der Häufigkeit der im Februar meist milden Westwetterlagen. Man achte auf die relative Übereinstimmung, welche auch die in Abb.1 und 3 dargestellten Phasen erklärt. Die NAO als „Luftdruck-Schaukel“ zwischen Portugal/Azoren und Island beeinflusst die Häufigkeit und Intensität der wintermilden Westwetterlagen. Werte für 2024 noch nicht vorliegend, aber auch da zu viele W- und SW-Lagen. Der 2024er Februar war sehr wolkenreich (milde Nächte!)

Auch der DWD gibt als Hauptursache für den neuen Februartemperaturrekord nicht etwa den CO₂-Treibhauseffekt als Ursache an, sondern die milden Westwetterlagen, Abschnitt: „
Sehr milde Nächte und Tage bescheren neuen Temperaturrekord“ hier.

Der Mensch wirkt mit bei der Temperaturentwicklung durch zunehmende Wärmeinseleffekte (WI).

Klima verändert sich seit 4 Milliarden Jahren ohne Zutun des Menschen, es handelt sich um natürliche Klimaänderungen. In der Neuzeit wirkt der Mensch mit durch die ständige Ausbreitung der Wärmeflächen überall auf der Welt. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie grüne Vegetations-Fläche hinein erweitert, derzeit um 60 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was für die Politik ein Beleg für Naturschutz ist. Derzeit ist ein Siebentel der Gesamtfläche unseres Landes versiegelt. Jede Sekunde wird in der Bundesrepublik Deutschland 6,7 m2 Boden neu als Siedlungs- und Verkehrsfläche beansprucht. Das bringt die Wärme ins Umland der DWD-Wetterstationen. Siehe: hier.

Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs die Siedlungen und deren näheres Umfeld besonders bei windstillen, kalten Hochdruckwetterlagen auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und vor allem den Sommermonaten. Jede Straße wirkt vor allem im Sommer wie ein heißes Wärmeband in der Landschaft. Die Freisolaranlagen werden zeitweise bis zu 80°C heiß. Bäuerliche Trockenlegung der Agrarlandschaft in den letzten 50 Jahren und neuerdings auch im Wald sorgt auch im Sommer für erhöhte Bodentemperaturen außerhalb der Versiegelungsflächen, also auch in der freien Landschaft.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch anthropogene Nutzungsänderungen stark zugenommen und die Thermometer der Stationen messen diese vom Menschen erzeugte Zusatzwärme aus den sich ständig vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche ist in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf im Vergleich zum DWD wir in der Grafik 5 wiedergeben.

Abbildung 5: Die WI-arme Station Amtsberg – siehe blauer Graph mit violetter Trendline – im kleinen Teilort Dittersdorf steht noch so wie 1988, der Ort hat sich kaum verändert und der Stationsleiter erfasst die Temperaturen noch im Wetterhäuschen am unveränderten Standort, allerdings inzwischen digital.

Wir sehen: Auch bei der Privatstation Amtsberg war der Februar 2023 der wärmste, aber die Erwärmung seit 1988 ist nur minimal im Vergleich zu den DWD-Stationen an den neuen genormten Standorten mit der neuen Messerfassungsmethode

Weitere Februar-Besonderheiten, die dem CO₂-Treibhauseffekt widersprechen:

Höher gelegene Wetterstationen: Kaum Februarerwärmung seit 1988 – warum?

Auf das Phänomen der derzeitigen Höhen-Abkühlung, bedingt durch die verstärkte Advektion von Höhen-Kaltluft, hatten wir schon in unseren Januar-Beiträgen hingewiesen, hier und hier.

Es ist aber auch nicht unerheblich, dass die in den Wärmeinseln von Menschen erzeugte Warmluft nicht nach oben abfließen kann und wie in einer Warmluftglocke unterhalb 950 bis 1000 m Höhe eingesperrt bleibt.

Als Beispiel einer Wetterstation über 1000m NN sei der Brocken aufgeführt.

Abb.6: Die Wetterstation auf dem 1142 m hohen Brocken zeigt fast keine Februarerwärmung seit 1988. So ähnlich verhalten alle höheren Bergstationen. Und 2023 war mit 0,7°C nicht der wärmste Februar, sondern 2019 mit 1,1°C, siehe auch Grafik 7b.

Einordnung des Februars 2021 in einer längeren Zeitreihe, also vor 1881

  1. Die Wetterstation Berlin-Tempelhof

Die Aufzeichnungen beim einstigen Feudalherrengutshof begann bereits um 1700, jedoch noch sehr lückenhaft, seit 1756 sind sie regelmäßig, allerdings nur bedingt vergleichbar mit heute. Grund: Tempelhof war vor 250 Jahren ein großer Gutshof, angeordnet wie ein Tempel, daher der Name. Um den Gutshof herum waren bebaute Felder zur Nahrungsversorgung des damaligen viel kleineren Berlins. Das noch unbebaute Tempelhoffeld zwischen Berlin und dem Gutshof diente als Exerzier- und Ausbildungsplatz für die Truppen Friedrichs des Großen oder auch der sonntäglichen Erholung und Belustigung der damaligen Stadtbevölkerung.

Heute ist Tempelhof ein Stadtteil der Großstadt Berlin mit über 60 000 Bewohnern. Eigentlich handelt es sich beim Temperaturvergleich um zwei völlig verschiedene Orte am selben Fleck und noch mit demselben Namen. Trotzdem ist das Ergebnis auch ohne Wärmeinselbereinigung der Temperaturwerte erstaunlich.

Abb. 7a: Die Wetterstation beim einstigen tempelartig angeordneten Gutshof auf freiem Feld außerhalb Berlins im Vergleich zur heutigen Großstadtwetterstation Tempelhof zeigt fast keine Februarerwärmung in über 260 Jahren. (In den Sommermonaten ist der Unterschied früher zu heute gravierend wegen der viel stärkeren WI-Effekte im Sommerhalbjahr.

  1. Die Wetterstation auf dem Hohenpeißenberg, (HPB)

Wir erwähnten schon, dass 1881, der Beginn der DWD-Messreihen, in einer Kaltphase lag. Die Wetterstation auf dem Hohenpeißenberg geht 100 Jahre weiter zurück. Erwähnt werden muss lediglich, dass die Messstation bis 1936 an der Nordwand der unbeheizten Klosterkirche war, heute steht die Station frei im neu erbauten DWD-Zentrum. Allerdings sind die Wärmeinseleffekte im Winter recht gering, so dass die wärmende Standortverlegung weniger Einfluss auf die Temperaturerfassung hatte als etwa im Sommerhalbjahr.

Der Februar-Verlauf auf dem HPB ist erstaunlich. Kaum Erwärmung seit über 230 Jahren, trotz starker CO₂-Konzentrationszunahme und trotz Stationswechsels an einen wärmeren Standort. Erstaunlich auch, 2024 gab es keinen neuen Temperaturrekord, die Station liegt allerdings 977m hoch, da greift bereits die Höhenkaltluft.

Abb. 7b: Die Februartemperaturen der DWD-Wetterwarte Hohepeißenberg zeigen trotz CO₂-Zunahme und trotz der Standortverlegung 1936 und trotz des Temperatursprunges 1988 nur eine minimale Erwärmung seit fast 240 Jahren.

  1. Die Dale Enterprise Wetterstation mitten auf dem Land in Virginia/USA

Abb.7c: Die Station liegt bei einer Farm auf dem Land. Trotz starker CO₂-Zunahme seit 1880 hat sich der Monat Februar seit 145 Jahren kaum erwärmt. Der Verlauf über die Jahrzehnte ist jedoch anders als in Deutschland. Vor allem gibt es 1987 auf 1988 keinen Temperatursprung.

Wohin geht der zukünftige Februartrend in Deutschland?

Die langen Reihen zeigen: Kaum Erwärmung in einem langen Zeitraum trotz der gewaltigen wärmenden Landschaftsveränderungen mit den WI-effekten

Und nach dem Temperatursprung 1988 bis heute? Geringe Erwärmung bei WI-armen und Bergwetterstationen. Und zukünftig in Deutschland? Antwort: Sobald sich die Großwetterlagen wieder ändern. Wann wird das sein? Das weiß niemand.

Wir fragen uns: Ist vielleicht Deutschland in den letzten 37 Jahren eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Februar in den letzten 37 Jahren wärmer? Wir werfen einen Blick nach Zentralengland:

Abb. 8: Wie in Deutschland (vergleiche Abb.3) deutliche Februarabkühlung ab 1943, Temperatursprung 87/88 ca. 1,5 K,

 

Abb. 9: Bei unseren Nachbarn in den Niederlanden ein ähnliches Bild.

Werfen wir noch einen Blick auf Skandinavien. Weiter nördlich in Europa kühlt sich der Februar ab 1988 teilweise sogar ab.

 

Abb. 10a/b: Je weiter nördlich, desto größer der Temperatur-Sprung. Danach keine Weitererwärmung wie bei unseren Bergstationen.

Auch in Teilen Ostasiens (beispielhaft hier Sapporo) und in Teilen der USA blieb seit 1988 eine Februar-Erwärmung aus. Siehe dazu die vielen Kälteberichte auf EIKE aus aller Welt, insbesondere aus Zentralasien. z.B. hier.

Abb. 11: Februartemperaturen Sapporo mit Temperatursprung 87/88 von gut 1,5K

Fazit:

Die ständige Zunahme der Wärmeinseleffekte, die Schaffung großflächiger Wärmeregionen sind der mit Abstand größte menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO₂ gibt es nicht oder die Wirkung ist minimal, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.

Will der Mensch den menschengemachten Anteil an der Erwärmung bekämpfen, dann muss man die Wetterstationen entweder wieder raus in die Fläche stellen oder aber in den Städten und Gemeinden die Bebauung, Versiegelung der einst freien Landschaft und die Trockenlegung der Agrar-Landschaft rückgängig machen oder zumindest einstellen.

Eine Diskussion über die Reduzierung der menschenerzeugten WI-Effekte, also eine Diskussion zum Erhalt der Natur und Landschaft wäre zu begrüßen.

Politisch verordnete, teure CO₂-Einsparungen bewirken nichts. Es handelt sich um ein Ablasshandelsmodell ähnlich dem Ablasshandel im Mittelalter. Der Staat will uns ausplündern. Die Demokratie ist dadurch in höchster Gefahr.

CO₂ ist ein lebensnotwendiges Gas, genauso wie Sauerstoff und Wasser. Ohne CO₂ wäre die Erde kahl wie der Mond. Mehr CO₂ in der Atmosphäre wäre wünschenswert, denn es beschleunigt die Fotosynthese und lässt die Nahrungspflanzen schneller wachsen.

Wirklicher Natur- und Umweltschutz muss endlich in den Mittelpunkt des politischen Handelns gerückt werden und nicht das Geschäftsmodell Klimaschutz, das unser Land ruiniert und in das Privatleben der Bürger eingreift. Eine Gefahr für die Demokratie.

Die Februartemperaturreihen des Deutschen Wetterdienstes beweisen: Es gibt keinen Klimanotstand. Deshalb muss auch keiner bekämpft werden.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Matthias Baritz, Naturwissenschaftler und Naturschützer

 




400 Tiefsttemperatur-Rekorde in China gebrochen

Cap Allon

Vorbemerkung des Übersetzers: Wie aus allen bisherigen Kältereports dieses Jahres hervorgeht, ist in Ostasien allgemein und in China im Besonderen ein außerordentlich kalter Winter im Gange. Cap Allon hat hierzu in einem seiner Zusammenstellungen ausführlicher dazu Stellung genommen. Als Gegengewicht z. B. zu der wilden Propaganda des sehr milden Februars hierzulande werden diese Ausführungen hier übersetzt. – Ende Vorbemerkung

Die Einwohner der Stadt Shanghai haben gerade den kältesten Tag Ende Februar seit 43 Jahren (seit 1981) erlebt.

Die offizielle Temperatur zeigte am Samstag in Xujiahui 2,2°C an, als ein seltener Vorstoß von Luft arktischen Ursprungs die Metropole erfasste.

Am Samstagmorgen kam es in Shanghai zum ersten Mal in den über 150 Jahren meteorologischer Aufzeichnungen zu gefrierendem Regen.

Der Frost in China war wirklich sehr weitreichend und hat weit mehr Gebiete als nur Shanghai erfasst.

So sieht es in ganz China aus, und die Annalen zeigen es.

Nach der rekordverdächtigen Kälte in der vergangenen Woche, der bereits Ende Januar und Anfang Februar Kälteeinbrüche vorausgingen, haben weitere 400 Stationen die Tiefsttemperaturen für Ende Februar (Stand Sonntag) gebrochen, wobei 29 davon auch die Tiefstwerte für den gesamten Februar gebrochen haben.

Chinas arktischer Ausbruch war wirklich extrem und führte zu einem historischen Tiefststand im Süden.

Für eine Reihe von Orten wird dieser Monat als der kälteste Februar jemals in die Annalen eingehen.

Die AGW-Partei war – wie zu erwarten – auf „Schadensbegrenzung“ aus, wobei diejenigen Medien, die es wagten, Chinas Eiseskälte zu erwähnen, die landesweiten Extreme eifrig dem „Wohlstand im Westen“ (d. h. den CO₂-Emissionen) zuschrieben:

Diese Kälte stellt nicht nur einen Rekord für die niedrigste Tagestemperatur im Februar auf, sondern steht auch in krassem Gegensatz zu den normalerweise milden Winterbedingungen in der Stadt. Dieses Ereignis verdeutlicht laut lokalen meteorologischen Berichten die zunehmende Unvorhersehbarkeit von Wettermustern, eine wahrscheinliche Folge der weltweit zu beobachtenden Klimaveränderungen – bnnbreaking.com.

Die von der Xujiahui-Station aufgezeichneten Daten tragen nicht nur zu historischen Wetteraufzeichnungen bei, sondern dienen auch als wichtiger Analysepunkt für Wissenschaftler und Meteorologen, die versuchen, die sich verändernde Klimadynamik zu verstehen.

Während Shanghai nach dem kältesten Februartag seit über vier Jahrzehnten wieder auftaut, könnte dieses Ereignis ein deutlicher Ruf nach mehr Umweltbewusstsein und -maßnahmen sein, der sowohl die Einwohner als auch die politischen Entscheidungsträger dazu auffordert, die weiterreichenden Auswirkungen des Klimawandels und die dringende Notwendigkeit nachhaltiger Lebensweisen zu berücksichtigen.

Agenden stehen der Wahrheit im Weg, zumindest im Westen…

Die Winter in China sind in den letzten 6.000 Jahren milder geworden, ohne dass dies auf menschliche Aktivitäten zurückzuführen ist, so eine Studie einer Gruppe chinesischer Forscher. Mit Blick auf die Zukunft sagen die Wissenschaftler jedoch eine plötzliche und schwerwiegende Abkühlung voraus und weisen auf die ernsten Härten und Gefahren hin, die eine solche Episode mit sich bringen wird.

In der von prominenten chinesischen Wissenschaftlern geleiteten und im Online-Journal of Geophysical Research veröffentlichten Studie wird festgestellt, dass die Winde aus dem arktischen Sibirien seit Tausenden von Jahren schwächer geworden sind, dass sich die Baumgrenze der Nadelbäume nach Norden zurückgezogen hat und dass die biologische Vielfalt im Rahmen eines allgemeinen, bis heute anhaltenden Erwärmungstrends stetig zugenommen hat.

Diese Abschwächung des sibirischen Windes scheint nach Ansicht der Forscher nichts mit dem jüngsten Anstieg der Treibhausgase zu tun zu haben, der vermutlich mit der industriellen Revolution begann. Der leitende Wissenschaftler Dr. Wu Jing von der Chinesischen Akademie der Wissenschaften erklärte, die Studie habe keine Hinweise auf einen menschlichen Einfluss auf die Erwärmung der Winter in Nordchina ergeben.

„Zu den treibenden Kräften gehören die Sonne, die Atmosphäre und die Wechselwirkung mit dem Ozean“, erklärte Wu. „Wir haben keine Hinweise auf einen menschlichen Einfluss gefunden. Aber das bedeutet nicht, dass wir einfach nur entspannen und nichts tun können“.

Wu und ihre Kollegen befürchten, dass die Menschen in dem Maße, in dem sie vom Konzept der globalen Erwärmung indoktriniert werden, ein falsches Vertrauen in unsere Fähigkeit entwickeln werden, das Klima zu kontrollieren, was wir ihrer Meinung nach nicht können. Die Natur, so warnen die Wissenschaftler, wird uns wahrscheinlich austricksen und uns völlig unvorbereitet erwischen, was zu Chaos, Panik, Hungersnöten und sogar Kriegen führen kann.

Es gibt bereits besorgniserregende Anzeichen dafür, heißt es in der Studie.

Zunächst einmal haben Wu und ihre Kollegen herausgefunden, dass die Erwärmung des Winters in den letzten 6000 Jahren alles andere als linear verlaufen ist, mit heftigen Auf- und Abschwüngen, die etwa alle 500 Jahre auftreten.

Nach mehr als 13 Jahren engagierter Forschung an vulkanischen Seen in der Wildnis des Khingan-Gebirges in der Inneren Mongolei haben die Wissenschaftler Klimadaten gesammelt und ausgewertet, die bis zu 10 000 Jahre zurückreichen.

Ihre Ergebnisse bestätigten eine frühere Studie eines anderen Teams chinesischer Wissenschaftler, die 2014 veröffentlicht wurde und in der erstmals das 500-jährige zyklische Muster des chinesischen Sommermonsuns entdeckt und mit der Sonnenaktivität in Verbindung gebracht wurde.

Diese Studie aus dem Jahr 2014, die sich auf Proxydaten aus 5000 Jahren stützte, deutete darauf hin, dass die derzeitige warme Phase innerhalb der nächsten Jahrzehnte enden und eine brutale 250-jährige Abkühlungsphase (auch bekannt als „Super Grand Solar Minimum“) einleiten würde.

Wu sagte, dass ihre jüngste Studie nicht nur dazu beigetragen hat, den 500-Jahres-Zyklus zu konkretisieren, sondern auch einen bisher unbekannten Prozess hinter dem Phänomen aufgedeckt hat, der zeigt, dass der Einfluss der Sonne auf das Klima der Erde weitaus größer ist als bisher angenommen.

Wie Wu ausführte, reichten die Schwankungen der Sonnenaktivität allein in der Regel nicht aus, um die raschen Veränderungen der Vegetation hervorzurufen, die das Forschungsteam in den Sedimentkernen der Vulkanseen beobachtete. Stattdessen fanden die Wissenschaftler heraus, dass die Auswirkungen durch eine massive Wechselwirkung zwischen dem Meerwasser an der Oberfläche und der Atmosphäre im Pazifischen Ozean verstärkt wurden, die als „El Nino-Southern Oscillation bekannt ist (mit anderen Worten: Das Klimasystem ist komplex – viel komplexer als die AGW-Partei uns glauben machen will).

Aufgrund ihrer Ergebnisse sagte Wu, dass sie sich nun mehr Sorgen über die globale Abkühlung als über die globale Erwärmung mache.

„Ein starker Temperaturrückgang nützt niemandem“, sagte sie. „Das größte Problem ist, dass wir wissen, dass er kommen wird, aber wir wissen nicht genau, wann“.

Lassen Sie sich nicht von den Märchen täuschen, die von den herrschenden Eliten der Welt gesponnen werden. Diese zwielichtigen Mächte wollen, dass wir verängstigt, mittellos und krank sind. Der beste Weg, sich auf den „Klimawandel“ vorzubereiten, besteht darin, davon auszugehen, dass es kälter wird – das Leben hat mit der Kälte zu kämpfen, das war schon immer so, und wir Menschen sind trotz unserer modernen technischen Errungenschaften alles andere als immun.

Link: https://electroverse.substack.com/p/china-breaks-400-low-temperature (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Neue Studien widerlegen zentrale Behauptungen zum Klimawandel

Der Klima-Aktivismus ist zur neuen Religion des 21. Jahrhunderts geworden – Ketzer sind nicht willkommen, und es dürfen keine Fragen gestellt werden“, sagt der Astrophysiker Willie Soon.

Alex Newman

Temperaturaufzeichnungen, die von Klimawissenschaftlern und Regierungen verwendet werden, um Modelle zu erstellen, die dann gefährliche Auswirkungen der vom Menschen verursachten globalen Erwärmung vorhersagen, weisen ernsthafte Probleme und sogar Fälschungen in den Daten auf, so mehrere Wissenschaftler gegenüber The Epoch Times, die kürzlich Studien zu diesem Thema veröffentlicht haben.

Die Regierung Biden stützt sich auf ihren jüngsten Bericht über die nationale Klimabilanz als Beweis dafür, dass die globale Erwärmung durch menschliche Aktivitäten beschleunigt wird. In dem Dokument heißt es, dass die menschlichen Emissionen von „Treibhausgasen“ wie Kohlendioxid die Erde in gefährlicher Weise erwärmen.

Der IPCC vertritt die gleiche Ansicht, und seine führenden Vertreter drängen daraufhin auf umfassende Änderungen der globalen Politik.

Doch wissenschaftliche Experten aus aller Welt und aus den verschiedensten Disziplinen wehren sich dagegen. In von Fachleuten begutachteten Studien weisen sie auf eine Vielzahl von Mängeln bei den globalen Temperaturdaten hin, die für die düsteren Schlussfolgerungen herangezogen wurden; sie sagen, es sei an der Zeit, die gesamte Darstellung zu überdenken.

Zu den Problemen mit den Temperaturdaten gehören der Mangel an geographisch und historisch repräsentativen Daten, die Kontaminierung der Aufzeichnungen durch Wärme aus städtischen Gebieten und die Verfälschung der Daten durch einen als „Homogenisierung“ bezeichneten Prozess.

Die Mängel sind so gravierend, dass sie die Temperaturdaten – und die darauf basierenden Modelle – im Grunde unbrauchbar oder sogar noch schlimmer machen, erklärten drei unabhängige Wissenschaftler des Center for Environmental Research and Earth Sciences (CERES).

Die Experten sagten, dass die vermeintliche, angeblich durch menschliche Aktivitäten verursachte „Klimakrise“ verschwindet, wenn man die Datenverfälschung berücksichtigt. Stattdessen biete die natürliche Klimavariabilität eine viel bessere Erklärung für die Beobachtungen, so die Experten.

Experten: Fixierung auf CO₂ ignoriert wahren Treiber der Temperatur

Einige Experten erklärten gegenüber der Epoch Times, dass es sich offenbar um vorsätzlichen Betrug handele, während andere eher harmlose Erklärungen anführten.

Doch unabhängig von der Ursache der Probleme können die Auswirkungen der Ergebnisse kaum überschätzt werden.

Wenn es keine Klimakrise gibt, fällt die Rechtfertigung für Billionen von Dollar an Staatsausgaben und kostspielige Änderungen der öffentlichen Politik zur Begrenzung der Kohlendioxid (CO₂)-Emissionen in sich zusammen, erklärten die Wissenschaftler in einer Reihe von Interviews über ihre Forschung.

In den letzten 35 Jahren wurden die Worte des IPCC als Evangelium betrachtet“, so der Astrophysiker und CERES-Gründer Willie Soon. Bis vor kurzem arbeitete er als Forscher am Center for Astrophysics, Harvard & Smithsonian. „Und tatsächlich ist der Klima-Aktivismus zur neuen Religion des 21. Jahrhunderts geworden – Ketzer sind nicht willkommen, und es dürfen keine Fragen gestellt werden. Gute Wissenschaft verlangt aber, dass Wissenschaftler ermutigt werden, das Dogma des IPCC in Frage zu stellen. Die angebliche Reinheit der globalen Temperaturaufzeichnungen ist eines der heiligsten Dogmen des IPCC.“

Im jüngsten Bericht der US-Regierung über die nationale Klimabilanz heißt es: „Menschliche Aktivitäten verändern das Klima. Die Beweise für eine Erwärmung in vielen Bereichen des Erdsystems sind unbestreitbar, und die Wissenschaft ist sich einig, dass die Zunahme der atmosphärischen Treibhausgase für viele der beobachteten Trends und Veränderungen verantwortlich ist.“

Dem Bericht zufolge ist dies vor allem auf menschliche Aktivitäten wie die Verbrennung fossiler Brennstoffe für Verkehr, Energie und Landwirtschaft zurückzuführen.

Ein Blick auf die Zeitskala macht die großen Probleme mit dieser Darstellung deutlich, so Soon: „Wenn die Leute nach der globalen Erwärmung oder dem Klimawandel fragen, ist es wichtig zu fragen: ‚Seit wann? Die Daten zeigen, dass es sich seit den 1970er Jahren erwärmt hat, aber dass dies auf eine Abkühlungsphase seit den 1940er Jahren folgte.“

Zwar ist es jetzt „definitiv wärmer“ als im 19. Jahrhundert, sagte Soon, doch zeigen die Proxy-Temperaturdaten, dass das 19. Jahrhundert „außergewöhnlich kalt war. Es war das Ende einer Periode, die als Kleine Eiszeit bekannt ist“, sagte er.

Daten von Temperaturstationen in ländlichen Gebieten, Ozeanmessungen, Wetterballone, Satellitenmessungen und alternative Temperaturdaten wie Baumringe, Gletscher und Seesedimente „zeigen, dass sich das Klima immer verändert hat“, sagte Soon. „Sie zeigen, dass das derzeitige Klima außerhalb der Städte nicht ungewöhnlich ist“ und fügte hinzu, dass die Wärme aus städtischen Gebieten die Daten unzulässig beeinflusst.

Wenn wir die Temperaturdaten aus den Städten herausnehmen, die nur 3 Prozent des Planeten ausmachen, erhalten wir ein ganz anderes Bild des Klimas.“

Homogenisierung

Ein Problem, das nach Ansicht der Wissenschaftler die Daten verfälscht, ist ein obskurer Prozess, der als „Homogenisierung“ bekannt ist.

Nach Angaben von Klimawissenschaftlern, die mit Regierungen und der UNO zusammenarbeiten, sind die für die Homogenisierung verwendeten Algorithmen darauf ausgelegt, verschiedene, in den rohen Temperaturdaten möglicherweise vorhanden Verzerrungen so weit wie möglich zu korrigieren.

Zu diesen Verzerrungen gehören u. a. die Verlegung von Temperatur-Messstationen, Änderungen in der zur Datenerfassung verwendeten Technologie oder Veränderungen in der Umgebung eines Thermometers, die sich auf dessen Messwerte auswirken könnten.

Wenn beispielsweise eine Temperaturmessstation ursprünglich auf einem leeren Feld platziert war, dieses Feld aber inzwischen zu einem Parkplatz umgewandelt wurde, würde die Aufzeichnung viel höhere Temperaturen anzeigen. Daher wäre es sinnvoll, zu versuchen, die erfassten Daten zu korrigieren.

Praktisch niemand bestreitet, dass eine gewisse Homogenisierung erforderlich ist, um verschiedene Faktoren zu berücksichtigen, welche die Temperaturdaten kontaminieren können.

Eine genauere Untersuchung des Prozesses, wie er jetzt abläuft, gibt jedoch Anlass zu großen Bedenken, sagte Ronan Connolly, ein unabhängiger Wissenschaftler bei CERES. „Während die wissenschaftliche Gemeinschaft süchtig danach geworden ist, diese Computerprogramme blind zu benutzen, um die Datenverzerrungen zu korrigieren, hat sich bis vor kurzem niemand die Mühe gemacht, unter die Haube zu schauen, um zu sehen, ob die Programme funktionieren, wenn sie auf reale Temperaturdaten angewandt werden“, sagte er gegenüber The Epoch Times.

Seit Anfang der 2000er Jahre verlassen sich verschiedene staatliche und zwischenstaatliche Organisationen, die globale Temperaturaufzeichnungen erstellen, auf Computerprogramme zur automatischen Anpassung der Daten.

Soon, Connolly nebst einem Team von Wissenschaftlern aus der ganzen Welt haben sich jahrelang mit diesen Programmen beschäftigt, um herauszufinden, wie sie funktionieren und ob sie zuverlässig sind.

Einer der an der Analyse beteiligten Wissenschaftler, Peter O’Neill, hat die Daten der National Oceanographic and Atmospheric Administration (NOAA) und ihres Global Historical Climatology Network seit 2011 täglich verfolgt und heruntergeladen. Er fand heraus, dass die NOAA jeden Tag andere Anpassungen an den Daten vornimmt.

Sie verwenden dasselbe Computerprogramm zur Homogenisierung und führen es etwa alle 24 Stunden erneut aus“, so Connolly. „Aber jeden Tag sind die Anpassungen der Homogenisierung anders, die sie für jede Temperaturaufzeichnung berechnen. Das ist sehr bizarr. Wenn die Anpassungen für eine bestimmte Wetterstation irgendeine Grundlage in der Realität haben, dann würden wir erwarten, dass das Computerprogramm jedes Mal die gleichen Anpassungen berechnet. Wir haben festgestellt, dass dies nicht der Fall ist.“

Diese Bedenken waren der Auslöser für die internationale Untersuchung des Themas durch Soon et al.

Da die NOAA keine historischen Informationen über ihre Wetterstationen aufbewahrt, wandten sich die CERES-Wissenschaftler an europäische Wissenschaftler, welche die Daten für die von ihnen betreuten Stationen zusammengestellt hatten.

Sie fanden heraus, dass nur 17 Prozent der NOAA-Anpassungen konsequent angewendet wurden. Und weniger als 20 Prozent der NOAA-Anpassungen waren eindeutig mit einer dokumentierten Änderung der Stationsbeobachtungen verbunden. „Als wir unter die Motorhaube schauten, stellten wir fest, dass statt eines Motors ein Hamster im Rad lief“, sagte Connolly. „Es scheint, dass bei diesen Homogenisierungsprogrammen das Heilmittel schlimmer ist als die Krankheit“.

Ein Sprecher der Nationalen Zentren für Umweltinformationen der NOAA spielte die Bedeutung herunter, sagte aber, dass die Behörde daran arbeite, die in den Dokumenten angesprochenen Probleme zu lösen.

Die NOAA verwendet den gut dokumentierten paarweisen Homogenisierungs-Algorithmus jeden Tag für die GHCNm (monatlich)-Version 4, und die Ergebnisse spezifischer Anpassungen einzelner Stationsreihen können sich von Lauf zu Lauf unterscheiden“, sagte der Sprecher und fügte hinzu, dass die fraglichen Arbeiten nicht die Ansicht unterstützten, dass die Bedenken über die Homogenisierung der Daten diese unbrauchbar oder schlechter machten. „Die NOAA wird die in diesen beiden Arbeiten aufgeworfenen Fragen in einer zukünftigen Version des GHCNm-Temperaturdatensatzes und der dazugehörigen Dokumentation behandeln.“

Städtische Wärmeinseln

Einer der größten Fehler in den Temperaturdaten, der eine Homogenisierung überhaupt erst notwendig macht, ist der so genannte städtische Wärmeinseleffekt (UHI).

Im Wesentlichen sind die Temperaturstationen, die sich früher in ländlichen Gebieten befanden, heute in vielen Fällen von Straßen, Gebäuden, Flughäfen und Städten umgeben. Dies führt zu einer zusätzlichen lokalen Erwärmung in der Umgebung des Thermometers, was den Anschein einer drastischen „globalen Erwärmung“ erweckt, wenn viele ähnliche Stationen zusammen untersucht werden.

Der Weltklimarat hat den städtischen Wärmeinseleffekt und die Kontaminierung der Daten anerkannt, doch nach Ansicht der Wissenschaftler, die mit The Epoch Times sprachen, hat die UN-Organisation fälschlicherweise angenommen, es handele sich um ein geringfügiges Problem.

In einer neuen, von Experten begutachteten Studie schätzt die Koalition von Wissenschaftlern, dass bis zu 40 Prozent der beobachteten Erwärmung seit dem 19. Jahrhundert, die vom IPCC verwendet wird, tatsächlich das Ergebnis dieser städtischen Wärmeverzerrung ist – und nicht eines der CO₂-getriebenen globalen Erwärmung.

Wenn wir uns die nicht-städtischen Temperaturdaten für das Land, die Ozeane und andere Temperaturaufzeichnungen ansehen, ist die Erwärmung viel weniger dramatisch und scheint anderen Warmzeiten vor der industriellen Revolution zu ähneln“, sagte Connolly. „Der IPCC berücksichtigt den städtischen Wärmeinseleffekt nicht“.

Als Connolly und andere Wissenschaftler eine Temperaturreihe erstellten, bei dem nur ländliche Temperaturstationen verwendet wurden, verschwand fast die Hälfte der von der UNO unterstellten globalen Erwärmung. In der Tat stimmen die Datensätze, die nur für den ländlichen Raum gelten, viel besser mit den Daten von Wetterballonen und Satelliten überein.

Insgesamt zeigen die nur für den ländlichen Raum geltenden Aufzeichnungen, dass die mäßige Erwärmung wahrscheinlich nur eine Erholung von der Kleinen Eiszeit von etwa 1300 bis 1900 n. Chr. ist, die wiederum auf die mittelalterliche Warmzeit von etwa 800 bis 1200 n. Chr. folgte, in der die Wikinger in Grönland Landwirtschaft betrieben.

„Die mittelalterliche Warmzeit scheint in etwa so warm gewesen zu sein wie die moderne Warmzeit, aber nur, wenn wir die Aufzeichnungen nur für den ländlichen Raum verwenden“, sagte Connolly. „Während es seit dem Ende der Kleinen Eiszeit eine globale Erwärmung gegeben hat, zeigen alle primären globalen Temperaturschätzungen, dass der Planet zwischen Phasen der Erwärmung und der Abkühlung wechselt, wenn die städtischen Datensätze ausgeschlossen werden“, sagte er.

Die derzeitige Erwärmung begann in den 1970er Jahren, als die Wissenschaftler noch vor der angeblich vom Menschen verursachten globalen Abkühlung warnten, die in den 1940er Jahren eingesetzt hatte.

Michael Connolly, ein weiterer unabhängiger Wissenschaftler bei CERES und Vater von Ronan Connolly, stellte fest, dass die Erwärmung in den etwa 3 Prozent der Landoberfläche der Erde bedeckenden Städten tatsächlich zu einem „großen Problem“ wird, das angegangen werden sollte.

Aber es kann nicht durch Treibhausgaspolitik gelöst werden“, sagte er. „Stattdessen sollten wir mehr in die Begrünung der Städte und andere Maßnahmen investieren, um die Hitzewellen in den Städten zu reduzieren.“

Vermischung von Daten aus ländlichen und städtischen Gebieten

Ein anderes Problem mit Homogenisierungs-Algorithmen wurde in einer anderen Studie untersucht, die letztes Jahr im Journal of Applied Meteorology and Climatology veröffentlicht wurde.

Das Problem, das Ronan Connolly und seine Kollegen als „Urban Blending“ [urbane Vermischung] bezeichnen, betrifft die Vergleiche zwischen den Temperaturaufzeichnungen einer Station und anderen in der Umgebung.

Wenn die Daten einer Station nicht mit den anderen übereinstimmt, geht das Programm davon aus, dass es sich um eine nichtklimatische Abweichung handelt, die korrigiert werden sollte.

Das vielleicht größte Problem dabei ist, dass die Erwärmung in den Städten die gesamte Temperaturaufzeichnung kontaminieren kann, indem sie mit Daten aus dem ländlichen Raum vermischt wird.

Das Ergebnis ist, dass städtische und ländliche Daten miteinander vermischt werden, so dass ein Teil der städtischen Erwärmung in die ländlichen Daten hinein gemengt wird, obwohl das Problem bei diesen nicht auftritt.

Eine nützliche Analogie ist, dass wenn man Erdbeeren und Bananen in einem Mixer mischt, man am Ende eine homogene Mischung hat, die weder aus Erdbeeren noch aus Bananen besteht“, sagte Ronan Connolly. „Betrachtet man die Temperaturdaten, bedeutet dies, dass die homogenisierten ländlichen Aufzeichnungen ebenfalls die städtische Erwärmung enthalten.“

Die angeblich „ungewöhnliche“ globale Erwärmung, auf die sich der IPCC und andere Quellen berufen, sei nur in den städtischen Daten zu finden, die durch die mit den Städten verbundene Wärme kontaminiert seien, sagte er. Aber durch die Verwendung der homogenisierten Daten werden alle Daten durch den städtischen Wärmeeffekt künstlich verzerrt.

Wenn wir uns die Temperaturdaten ansehen, die nicht durch die Erwärmung in den Städten kontaminiert wurden, scheint es, dass die Temperaturveränderungen seit der Zeit vor der industriellen Revolution fast zyklisch verlaufen sind – Abkühlungsperioden gefolgt von Erwärmungsperioden“, so Ronan Connolly. „Dies lässt sich nicht mit dem Anstieg der Treibhausgase erklären, da diese nur nach oben gehen. Stattdessen deutet es darauf hin, dass die Wissenschaftler, die fälschlicherweise die Erwärmung in den Städten mit den Temperaturveränderungen außerhalb der Städte vermischt haben, mit ihrer Überzeugung, dass CO₂ der Haupttreiber des Klimas ist, einem Ablenkungsmanöver hinterherlaufen.“

Allerdings ist nicht jeder davon überzeugt, dass diese Probleme so bedeutsam sind, wie die CERES-Wissenschaftler behauptet haben.

Professor Robert Lund, ein anerkannter Experte auf diesem Gebiet und Lehrstuhlinhaber für Statistik an der Universität von Kalifornien-Santa Cruz, erklärte gegenüber der Epoch Times, dass ihn die von Herrn Soon und seinen Kollegen vorgebrachten Argumente „erschaudern“ ließen.

Es stimmt, dass viele Klimawissenschaftler im Allgemeinen nicht die besten Methoden verwenden, um die Daten zu bereinigen“, sagte Lund. „Aber die Behauptung der CERES-Wissenschaftler, dass die Rückschlüsse auf die Erwärmung, die wir machen, wegen der Veränderungen der Messgeräte und der Verlegung der Messstationen und ihrer suboptimalen Behandlung in den Homogenisierungsverfahren falsch sind, ist einfach nicht wahr“, sagte er. „Unabhängig davon, wie man mit der Frage der Veränderungspunkte umgeht, weisen alle global gemittelten Reihen (wie die IPCC-Reihen) starke Aufwärtstrends auf. So einfach ist das. Das Homogenisierungsproblem könnte vielleicht 0,1 oder 0,2 Grad Celsius pro Jahrhundert von den 1,3 [Grad Celsius] ausmachen, die wir global erwärmen, aber nicht mehr“.

Er warf den CERES-Wissenschaftlern vor, dass sie „versuchen, jede Menge Unsicherheit einzuführen, diese zu potenzieren und alles zu diskreditieren“.

Auf die Frage, ob er vorhabe, ihre Studien in einer eigenen Arbeit zu widerlegen, sagte Lund, dass er und andere auf diesem Gebiet des Kampfes gegen Wissenschaftler überdrüssig geworden seien, die vor allem daran interessiert seien, das Klimanarrativ zu diskreditieren.

Eine Reihe anderer Wissenschaftler auf beiden Seiten der Debatte reagierte nicht auf Bitten um Kommentare.

Mehrere Kritiker der vom Menschen verursachten globalen Erwärmung baten darum, sich inoffiziell zu äußern, da sie Vergeltungsmaßnahmen seitens ihrer Institutionen, Kollegen, Zeitschriften oder Geldgeber befürchteten.

[Hervorhebung vom Übersetzer]

Weitere Probleme

Vor den 1970er Jahren gibt es eigentlich keine historischen Temperaturdaten, was jede Art von Langzeitstudie erschwert. Und außerhalb Europas und Nordamerikas gibt es nur sehr wenige Daten.

Bis vor kurzem waren die Daten aus den Ozeanen – die mehr als zwei Drittel der Erdoberfläche ausmachen – ebenfalls spärlich und beschränkten sich hauptsächlich auf gelegentliche Messungen an den Haupt-Schifffahrtsrouten der nördlichen Hemisphäre.

Die NOAA wurde dafür kritisiert, dass mehr als 90 Prozent ihrer Klimastationen von der städtischen Wärmeverzerrung betroffen sind, berichtete die Epoch Times im Januar unter Berufung auf Wissenschaftler und eine separate Studie, in welcher die Temperaturaufzeichnungen der NOAA separat untersucht wurden.

Eine Studie des Meteorologen Anthony Watts ergab, dass im Jahr 2022 rund 96 Prozent der Stationen die Zuverlässigkeitsstandards der Behörde nicht erfüllen werden.

Michael Connolly wies darauf hin, dass die Wetterstationen ursprünglich zur Überwachung des täglichen Wetters und nicht zur Beobachtung langfristiger Klimaveränderungen eingerichtet worden seien. „Die meisten Wissenschaftler, mit denen ich persönlich spreche, geben zwar zu, dass sie Vorbehalte gegen bestimmte Aspekte der derzeitigen Darstellung des Klimawandels haben, aber sie sagen, dass ihre Institutionen darunter leiden würden, wenn sie sich äußern würden“, sagte er.

[Hervorhebung vom Übersetzer]

Soon räumte ein, dass die Messung des Klimawandels ein „sehr schwieriges wissenschaftliches Problem“ sei, vor allem weil die Daten unvollkommen seien. Aber Wissenschaftler haben die Pflicht, in dieser Hinsicht ehrlich zu sein. „Viele Forschungsgruppen scheinen in der Hektik, Zuschüsse zu erhalten und ihre Arbeit zu veröffentlichen, die schwerwiegenden Probleme der von ihnen verwendeten Daten zu übersehen“, sagte er und fügte hinzu, dass viele Wissenschaftler um ihre Arbeitsplatzsicherheit besorgt seien und sich nicht trauten, ihre Meinung zu sagen.

[Hervorhebung vom Übersetzer]

Aber einige Analysten, die sich mit dieser Problematik auseinander gesetzt haben sagen, dass es sich um vorsätzlichen Betrug handelt.

Der Wissenschaftler und Ingenieur Tony Heller von der Website Real Climate Science sagte, dass die Temperaturdaten – sowohl die historischen als auch die geographischen – „völlig unzureichend“ seien.

Die Bedenken über Homogenisierung und Vermischung wiederholend sagte er der Epoch Times, dass „die Theorie zu sein scheint, dass das Mischen einer Menge sehr schlechter Zutaten eine gute Suppe ergibt“.

Heller beschuldigt die NOAA, ihre Daten zu manipulieren, um den „Anschein einer Erwärmun“ zu erwecken, und nennt die globalen und US-amerikanischen Temperaturaufzeichnungen „Propaganda, nicht Wissenschaft“.

Die irreführenden Anpassungen der Daten und die allgemeine Täuschung seien „absolut vorsätzlich“, sagte er. „Billionen Dollar werden in die Propagierung der globalen Erwärmung und des Klimawandels gesteckt.“

Bislang wurden die Studien von Soon und anderen in keiner von Fachleuten überprüften Literatur widerlegt. Einige prominente Wissenschaftler, die für die Bundesregierung und andere mit der Klimabewegung verbundene Einrichtungen arbeiten, haben die Autoren jedoch lächerlich gemacht und beleidigt, wie die Epoch Times im Oktober 2023 berichtete.

Weder der IPCC noch der führende NASA-Klimaforscher Gavin Schmidt reagierten auf die Bitte um Stellungnahme.

————————-

Übersetzt von Christian Freuer für das EIKE

Dieser Beitrag ist per E-Mail übermittelt worden, so dass kein expliziter Link angegeben werden kann. Wer die Übersetzung überprüfen will, kann das mit dem DOC-Dokument im Anhang tun.

Außerdem ist die gesamte Studie von Soon et al. im PDF beigefügt.

AlexNewman24-Feb28-TextoftheArticle-SoonCERES022824

AlexNewman24-Feb28-New Studies Undercut Key Climate Change Claims




Breitenkreisspezifische Temperaturen bei Strahlungsgleichgewicht

Angeregt von den Kommentaren und zu U.Webers Berichten über die Tagestemperaturen, die von einer direkten Sonneneinstrahlung erzeugt werden, versuchen manche Leser dies anhand von imaginierten Versuchen, anhand der Wirksamkeit des S-B Gesetzes, zu ergründen. Dies ist der einzige Möglichkeit der Wahrheit näher zu kommen. Hier ein Versuch, der einiges davon – allein mittels Strahlungstemperaturen – untersucht.

von Michael Mechtel

Zielsetzung und Motivation

Die Lebensbedingungen auf unserem Planeten Erde lassen sich letztlich auf die Einstrahlung von Energie durch die Sonne zurückführen. Diese Energie unterliegt vielfachen Umwandlungs- und Transportprozessen, an denen neben physikalischen auch chemische und biologische Vorgänge beteiligt sind. Nicht zuletzt die klimatischen Bedingungen, die wir vorfinden, gehen auf solche Prozesse zurück, und ein wichtiger, heutzutage häufig bemühter Parameter zur Charakterisierung des Klimas ist die Temperatur, sei es als regionale Temperatur mit ihren charakteristischen Schwankungen, sei es als zeitlicher und/oder räumlicher Mittelwert.

Zielsetzung dieses Artikels ist es, ein örtliches Temperaturniveau für die Regionen der Erde herauszuarbeiten, wenn allein der primäre Strahlungseinfluss der Sonne berücksichtigt wird und alle sekundären Nachfolgeeffekte (Transport und Umwandlung von Energie) beiseite gelassen werden. Die Anregung hierzu erfolgte durch die Artikel des Autors Uli Weber, der hier sein ‘hemisphärisches Stefan-Boltzmann-Modell‘ mehrfach vorgestellt hat. Die Schlussfolgerungen seines Modells werden aber nicht geteilt!

Beschreibung des Modells

Die genannte Zielsetzung und die Begrenzung des Rechenaufwandes erfordert ein sehr vereinfachtes Modell der Erde, das selbstverständlich nicht mehr die Realität abbildet, aber sehr wohl eine Basis für das Verständnis unserer Realität abgeben kann.

Zunächst erfordert es die Begrenzung des Rechenaufwandes, dass wir einen ideal kugelförmigen, homogenen Erdkörper voraussetzen, der auf einer exakten Kreisbahn in genau 365 Tagen die Sonne umkreist.

Um die genannten Sekundärprozesse von Energieumwandlung und –transport auszuschließen, sind auch einige physikalische Voraussetzungen erforderlich:

– Keine Atmosphäre vorhanden, damit also keine Luftströmungen

– Kein Wasser, damit also keine ozeanischen Strömungen und keine Phasenumwandlungen (Verdunsten, Kondensieren, Gefrieren, Schmelzen)

– Wärmeleitung vernachlässigbar klein

– Andere Energiequellen wie Restwärme aus dem Erdinneren oder die kosmische 3-K-Hintergrundstrahlung werden ebenfalls vernachlässigt.

Schließlich fordern wir noch eine schnelle Rotation dieser Modellerde, so dass sich keine nennenswerten Tag-Nacht-Unterschiede der Temperatur herausbilden können. Das bedeutet, dass jeder Punkt der Erdoberfläche zu jedem Zeitpunkt einzeln für sich im Strahlungsgleichgewicht mit der pro Erdumdrehung zugestrahlten Sonnen-Energie steht.

Weil die Erde um die Sonne umläuft, werden sich die Strahlungsbedingungen von Tag zu Tag ändern („Tag“ meint hier den bekannten Erdentag, also ein 365-stel Jahr). Da aber Wärmeleitung keine Rolle spielen soll, müssen wir keine Speichereffekte berücksichtigen, denn es wird nur eine dünne Oberflächenschicht an diesem Strahlungshaushalt beteiligt sein. Diese dünne Schicht kann sich schnell genug der sich ändernden Strahlungssituation anpassen, so dass das Strahlungsgleichgewicht von Tag zu Tag erhalten bleibt.

Auf dieser Voraussetzung beruhend, lässt sich die lokale Temperatur eines Oberflächenpunktes aus der momentanen Einstrahlung unter Anwendung des Stefan-Boltzmann-Gesetzes bestimmen. Es zeigt sich, dass diese Temperatur allein vom Breitenkreis und der Position der Erde auf ihrer Umlaufbahn abhängt. Jeder Breitenkreis weist damit einen eigenen Jahresgang der Temperatur auf.

Weitere Annahmen unseres Modells, angelehnt an unsere Realität:

– Albedo a = 0.3, selbstverständlich homogen auf der ganzen Oberfläche,

– Emissivität im Infraroten  = 0.95 (die Erde also nicht als schwarzer, sondern als dunkelgrauer Körper)

– Die Schrägstellung der Erdachse wird berücksichtigt.

Die breitenkreisspezifischen Temperaturverläufe wurden für diese Modellerde berechnet und sollen im folgenden dargestellt werden. Der Rechengang selber ist für Interessierte im Anhang skizziert.

Ergebnisse

Mit der extraterrestrischen Solarkonstante I0 = 1361 W/m² und der genannten Albedo ergibt sich die maximal absorbierbare Intensität an der Oberfläche zu Imax = 953 W/m², was einer maximal möglichen Gleichgewichtstemperatur von 365 K = 92 oC entspricht (gerundete Werte).

1. Jahresgänge der Temperatur bei 23,45 Grad Achsneigung

Die Schrägstellung der Erdachse gegenüber der Erdbahnebene beträgt 23.45 Grad. Der damit sich ergebende Jahresgang der Temperatur unserer Modellerde auf verschiedenen Breitenkreisen der Nordhalbkugel ist in Abb. 1 dargestellt (für die Südhalbkugel gelten entsprechende Kurven, nur unter Vertauschung von Sommer- und Winterhalbjahr).

Jahresgänge_Breitenkreistemperatur

Auf der x-Achse ist die Tagesnummer aufgetragen, d.i. die Nummer des konventionellen Erdentages, beginnend mit Frühlingsanfang (21. März). Die Skala reicht bis 380, ein Jahr ist mit Nr. 365 beendet.

Auf der y-Achse ist die Absolut-Temperatur in der Kelvin-Skala aufgetragen, beginnend bei 0 K. Die gestrichelte Linie in den Diagrammen markiert den Nullpunkt der Celsius-Skala (273,15 K).

Bild a) gilt für den Breitenkreis 30 Grad.

Bild b) gilt für den Breitenkreis 50 Grad, das entspricht der Lage der Stadt Mainz. Man erkennt, dass der Unterschied zwischen Sommer- und Winterhalbjahr deutlich ausgeprägter ist als am 30. Breitengrad.

Bild c) gilt für den Breitenkreis 70 Grad. Diese Breite liegt nördlich des Polarkreises, deshalb tritt hier im Sommer Mitternachtssonne und im Winter Polarnacht auf. In der Polarnacht haben wir keine Sonneneinstrahlung, so dass die Temperatur rasch auf den absoluten Nullpunkt sinkt (würden wir die kosmische Hintergrundstrahlung in Betracht ziehen, lägen wir bei 3 K.)

Bild d) gilt für den „Breitenkreis“ 90 Grad, also den Nordpol. Hier haben wir ein halbes Jahr Mitternachtssonne (wechselnder Höhe) und ein halbes Jahr Polarnacht.

Insgesamt ist festzustellen, dass durchwegs, selbst in äquatornahen Gebieten, die Null-Grad-Celsius-Grenze kaum je überschritten wird, allenfalls um wenige Grad in den Sommermonaten. Zum Zweiten fällt in Regionen, die nicht von der Sonne beschienen sind, die Temperatur schnell sehr tief ab. Das macht sich in der zunehmenden Ausbeulung der Kurven nach unten im Winterhalbjahr bemerkbar, je weiter man sich vom Äquator weg in polnahe Regionen bewegt. Extrem wird es dort, wo Polarnächte auftreten.

2. Abhängigkeit des Temperaturganges von der Neigung der Erdachse

Man kann sich die Frage stellen, wie die Neigung der Erdachse sich auf den Verlauf der Temperaturwerte auswirkt. Dies wurde für den bereits in Abb. 1 aufgeführten 50. Breitengrad Nord untersucht, der exemplarisch für Deutschland stehen kann. Ergebnisse siehe Abb. 2.

Jahresgänge_Breitengrad_50

Die x- und y-Achsen sind die gleichen wie in Abb. 1.

Fall a) gilt für den Neigungswinkel 0 Grad. Hier steht die Erdachse senkrecht auf der Erdumlaufbahn. Damit ändert sich im Jahresverlauf nichts, es gibt keine Jahreszeiten (Annahme: die Sonne strahlt gleichmäßig in alle Richtungen).

Fall b) gilt für den Neigungswinkel 30 Grad. Der ist etwas größer, als es der Realität entspricht, die Jahreszeiten sind also etwas stärker ausgeprägt. Die Graphik ist mit der in Abb. 1 b) zu vergleichen, wobei sich zeigt, dass die Maximaltemperatur im Sommer leicht erhöht, die Winterdelle jetzt aber deutlich tiefer ausgeprägt ist.

Fall c) gilt für den Neigungswinkel 60 Grad. Der Polarkreis liegt dann bei 30 Grad, und das bedeutet, dass wir in Deutschland bereits Mitternachtssonne und Polarnacht erleben.

Fall d) gilt für den Neigungswinkel 90 Grad. Zur Sommersonnenwende zeigt die Erdachse also genau in Richtung Sonne, die Sonne steht über dem Nordpol, die höchsten Temperaturen treten auf. Beachte: auf der weiteren Umlaufbahn der Erde bleibt die Erdachse raumfest liegen! Das bedeutet: bei Herbstanfang liegt sie (ebenso wie bei Frühlingsanfang) tangential zur Erdbahn, und die Sonne steht nicht über dem Pol, sondern wandert über den Äquator. Beide Pole liegen auf der Grenze der beschienenen Erdhälfte. Im weiteren Verlauf wandert der Nordpol in die Polarnacht und der Südpol in die Mitternachtssonne. Auch die polnahen Gebiete der Nordhalbkugel erfahren eine Polarnacht.

Insgesamt fällt auf, dass die Stellung der Erdachse Einfluss auf die Höchsttemperatur im Sommer hat. Diese steigt, je größer der Neigungswinkel ist, weil dann die Sonne immer steiler über dem Horizont steht.

Dies kann jedoch nicht darüber hinwegtäuschen, dass die Minimaltemperatur im Winter immer tiefer fällt und damit die Jahresmitteltemperatur nach unten zieht, je schräger die Erdachse liegt.

Das Temperaturniveau liegt in allen Fällen sehr tief und selbst bei Neigungswinkel 0 Grad unterhalb der Null-Grad-Celsius-Marke. Dies soll zum Anlass genommen werden, Mitteltemperaturen näher zu untersuchen.

3. Extremal- und Mitteltemperaturen

Wir werfen einen Blick auf die mit dem Jahresgang verbundenen Maximal-, Minimal- und Mitteltemperaturen und beginnen wieder mit der Achsneigung 23.45 Grad aus Abb. 1. Ergebnisse siehe Tabelle 1 (gerundete Werte).

 

Extremale und mittlere Breitengrad-Temperaturen [K]
bei Neigung der Erdachse um 23,45 Grad
Breitengrad: 30 50 70 90
Maximum 283 284 286 290
Minimum 231 181 0 0
Jahresmittel 261 239 177 124

Tabelle 1

Die sommerlichen Maximalwerte nehmen mit dem Breitengrad etwas zu (von 10 auf 17 oC). Dies liegt daran, dass die Dauer der Nachtzeit abnimmt.

Die Jahresmittelwerte werden jedoch durch die winterlichen Minima umso mehr in die Tiefe gezogen, je weiter man nach Norden kommt. Sie liegen in der Tabelle zwischen -12 und -149 oC, auf dem 50. Breitengrad bereits bei ungemütlichen -36 oC. Es ist offensichtlich, dass wir hiermit weit entfernt sind von den realen Gegebenheiten, die wir kennen.

Angelehnt an Abb. 2 betrachten wir nun die Temperaturen in Abhängigkeit von der Neigung der Erdachse:

 

Extremale und mittlere Breitengrad-Temperaturen [K]
am 50. Breitengrad
Achsneigung: 0 30 60 90
Maximum 246 293 330 352
Minimum 246 151 0 0
Jahresmittel 246 235 198 194

Tabelle 2

Man erkennt einen Anstieg der sommerlichen Höchsttemperatur mit wachsender Achsneigung, was auf den immer steileren Sonnenstand und die zunehmende Sonnenscheindauer zurückzuführen ist. Der Bereich erstreckt sich von -27 bis +79 oC.

Aber auch hier zieht die zunehmende Nachtperiode die Jahres-Mitteltemperatur nach unten, der Bereich geht von -27 bis auf -79 oC.

Haben wir bisher breitenkreisspezifische Temperaturen und zusätzlich deren zeitliche Mittelung übers Jahr betrachtet, so wollen wir uns nun an eine räumliche Mittelung über die gesamte Oberfläche wagen. Diese lässt sich hier am Modell, im Gegensatz zur realen Erde, rechnerisch exakt durchführen. Exemplarisch zeigen wir den Jahresverlauf der globalen Mitteltemperatur am 50. Breitengrad für verschiedene Achsneigungen:

JG_Globaltemperatur_bei_Achsneigung

Abb.3: Halbjahresverlauf der globalen Mitteltemperatur am 50. Breitengrad

Bei Abb. 3 ist zu beachten, dass sie nur den Verlauf über ein halbes Jahr zeigt! Das nächste Halbjahr verläuft aus Symmetriegründen exakt genauso, wobei nur die Rolle von Nord- und Südhalbkugel vertauscht sind. Die x-Achse zeigt wieder die Tagesnummer, beginnend bei 0 (Frühlingsanfang) bis zur Tagesnummer 200, wobei das Halbjahr bei Nummer 182,5 (Herbstanfang) abgeschlossen ist.

Zunächst ist bemerkenswert, daß die Globaltemperatur überhaupt einen Jahresverlauf zeigt. Dieser ist besonders ausgeprägt bei 90 Grad Achsneigung und soll nun diskutiert werden. An den Äquinoktien (Frühlings- und Herbstanfang) ist die Globaltemperatur am höchsten und unabhängig von der Achsneigung. Die Sonne hat dann ihren Höchstand zur Mittagszeit senkrecht über dem Äquator, und kein Teil der Erde bleibt im Laufe einer Umdrehung unbesonnt, mit Ausnahme der beiden Pole, die aber nur punktförmig sind.

Das andere Extrem sind die Sommer- und die Wintersonnenwende: hier liegt ein Teil der Erde in der Polarnacht, am ausgeprägtesten bei 90 Grad Achsneigung, dann nämlich eine volle Erdhälfte. Da sich in der Polarnacht die Temperatur auf dem absoluten Nullpunkt einstellt, wird der globale Mittelwert stark nach unten gezogen, wie wir das auch schon in den Abschnitten 1 und 2 festgestellt haben.

Die Extremal- und Mittelwerte zu Abb. 3 sind in Tabelle 3 zusammengestellt. Wir erkennen wieder das Fehlen von Jahreszeiten bei Senkrechtstellung der Erdachse (0 Grad Neigung). Das globale Jahresmittel liegt hier – oh Wunder – bei den altbekannten (fast) 255 K. Dass es etwas mehr als 255 K sind, liegt daran, dass wir die Erde nicht als schwarzen, sondern als dunkelgrauen Körper behandeln (s.o.).

Sobald sich die Erdachse neigt, verschlimmert sich die Situation sogar noch: bei 23,45 Grad Neigung haben wir nur noch 250 K oder -23 oC Mitteltemperatur, und das senkt sich bei 90 Grad Achsneigung bis auf -70 oC ab.

Globale Mitteltemperatur [K]
in Abhängigkeit von der Achsneigung
Achsneigung: 0 Grad 23,45 Grad 60 Grad 90 Grad
Maximum 257 257 257 257
Minimum 257 244 192 145
Jahresmittel 257 250 221 203

Tabelle 3

Eine andere Erkenntnis lässt sich ebenfalls aus Tabelle 3 ziehen: in all den dort aufgeführten Fällen erhält die Erde als Ganze über eine Umdrehung hinweg zweifellos die gleiche Energie von der Sonne geliefert, nämlich genau den Energiebetrag, den sie während der Umdrehungszeit auf die Tagseite einstrahlt. Trotzdem unterscheiden sich die Globaltemperaturen! Berechnet man die Mitteltemperatur einfach aus der mittleren globalen Einstrahlung, wie es oft getan wird, kommt man in all diesen Fällen auf den gleichen Wert von 257 K.

Dass der aus der Globaleinstrahlung berechnete Wert i.d.R. nicht zutreffend ist – außer im Spezialfall senkrecht stehender Erdachse – liegt an der T-hoch-4-Abhängigkeit des Stefan-Boltzmann-Gesetzes. Dieser nichtlineare Zusammenhang hat zur Folge, dass es einen Unterschied macht, ob man wie hier Einzeltemperaturen berechnet und direkt über diese mittelt, oder ob man über die Einstrahlung mittelt und daraus eine Temperatur berechnet.

Der Fehler, den man mit letzterem Vorgehen macht, lässt sich anhand der Tabelle 3 quantifizieren: bei unserer Achsneigung von 23,45 Grad beträgt er +7 K oder, relativ ausgedrückt: 7/273 = 2,5 %.

Bei 90 Grad Achsneigung beträgt der Fehler (257 – 203) K = 54 K oder 54/273 = 19,9 %. Er ist deswegen größer, weil auch die Temperaturspanne, über die gemittelt wird, größer ist (vgl. Abb 1 b mit Abb. 3 c).

Zusammenfassung und Diskussion

Wir haben die Temperaturen untersucht, die sich auf der Erdoberfläche einstellen, wenn wir alle sekundären Einflußfaktoren ausschalten und uns allein auf die Sonne als primäre Energiequelle und das Strahlungsgleichgewicht der Erde mit ihr bzw. dem Weltall konzentrieren.

Zusammenfassend fällt dabei ins Auge, dass die Oberflächentemperaturen, die uns die Sonne unter diesen Umständen spendieren kann, weit unter dem Temperaturniveau liegen, welches wir real auf unserer Erde vorfinden! In Deutschland würden selbst im Hochsommer maximal nur rund 10 oC erreicht. Das liegt daran, dass wir in unserem Modell eine ungehinderte Abstrahlung ins Weltall haben und keinerlei Puffer- und Ausgleichseffekte für die Wärme.

Daraus wird ersichtlich, welch große Rolle all die Sekundäreffekte spielen, die wir im Modell ausgeschlossen haben: an vorderer Stelle zweifellos die riesige Wärmespeicherung in den Ozeanen und die Ausgleichsprozesse durch Wärmetransport in den Meeres- und Luftströmungen. Und nicht zuletzt müssen wir der Atmosphäre eine erhebliche Schutzfunktion gegenüber der Auskühlung zugestehen. Die kann nur in einer Behinderung der Abstrahlung bestehen, die landläufig unter dem Stichwort Treibhauseffekt bekannt ist.

Oft wird dagegen eingewandt, dass der Erdboden direkt von der Sonne erwärmt wird und die kühle Atmosphäre nicht den warmen Erdboden noch weiter erwärmen könnte. Doch, sie kann! Indem sie nämlich als Hindernis für die Abstrahlung fungiert. Das lässt sich vergleichen mit dem Anziehen einer Wollmütze im Winter. Kann die kühle Wollmütze die warme Kopfhaut erwärmen? Ja, sie kann es indirekt. Die eigentliche Heizquelle für die Kopfhaut ist natürlich der warme Blutkreislauf. Aber die Wollmütze stellt ein Hindernis für die Wärmeabgabe nach draußen dar, und das beschert der Kopfhaut eine höhere Temperatur und dem Träger ein wohliges Gefühl. Anderes Beispiel: Jeder Bauphysiker weiß, dass die Außendämmung einer Hauswand bei gegebener Heizleistung im Inneren die Wandtemperatur anhebt.

Auf die einzelnen Mechanismen des Treibhauseffektes und die beteiligten atmosphärischen Komponenten einzugehen, lag nicht in der Zielsetzung dieser Arbeit. Insbesondere die Rolle des CO2 wird nicht behandelt. Als gute Quelle hierfür lässt sich der Vortrag von Prof. Ganteför heranziehen, der kürzlich von EIKE präsentiert wurde: https://eike-klima-energie.eu/2024/02/24/treibhauseffekt-und-waermestau-auf-der-erde/

Bei der Untersuchung hat sich gezeigt, dass die Neigung der Erdachse ebenfalls die Oberflächen-Temperaturen beeinflusst, und zwar sowohl den Jahresverlauf als auch den Mittelwert.

Nachbemerkung

Schließlich noch eine allgemeine Bemerkung zur Temperaturmittelung: es wurde hoffentlich klar, dass dieses Verfahren seine Berechtigung hat. In Deutschland leben wir auf mittleren Breiten in einer gemäßigten Klimazone. Wir haben ein allgemeines Temperaturniveau von geschätzt etwa 10 oC, um das sich die tatsächlichen Temperaturen übers Jahr gruppieren. Man bemerke, dass insoweit noch nicht von Mittelung die Rede ist (auch wenn Meteorologen einen auf Messreihen beruhenden Mittelwert nennen, der nicht weit von diesen 10 oC entfernt ist). Vergleicht man nun dieses Temperaturniveau mit dem breitengradtypischen Mittelwert von 239 K oder -34 oC aus unserem Modell (Tabelle 1), so sollte auch dem hartgesottensten Mittelungsskeptiker einleuchten, dass diesem Parameter eine Aussagekraft zukommt. Im vorliegenden Fall die, dass das Modell nicht die Realität beschreibt.

Im Prinzip ist der Parameter auch zur Beurteilung von IPCC-Modellen brauchbar, wenn sich eine Möglichkeit findet, deren Ergebnisse mit der Empirie abzugleichen.

Anhang: Berechnungsmethode

Grundlage für die Berechnung der Temperatur im Strahlungsgleichgewicht ist die an der Oberfläche absorbierte Energie-Flussdichte , auch Intensität genannt und meist in W/m² angegeben. Deren Wert für senkrechte Einstrahlung haben wir mit max = 953 W/m² angesetzt. Bei Schrägeinstrahlung unter dem Winkel h erhält man
 = max * sin(h). h ist eine Koordinate im Horizontsystem und wird auch als Elevation der Sonne bezeichnet.

Zur Erklärung astronomischer Koordinaten sei auf die Fachliteratur verwiesen, s. z.B. die Quellenangaben.

Die Bestimmung von h im Jahres- und Tagesverlauf gelingt durch Rückgriff auf das ruhend-äquatoriale Koordinatensystem (, t). Dafür gibt es die grundlegende Gleichung [1], [2]

sin(h) = sin() * sin() + cos() * cos() * cos(t). ()

 ist der betrachtete Breitengrad, die ruhend-äquatorialen Koordinaten sind  und t, also Deklination und Stundenwinkel der Sonne. Alle Winkel sind im Bogenmaß zu verstehen.

sin wiederum hängt von der Position der Erde auf ihrer Umlaufbahn (hier: Kreisbahn) ab. Numeriert man die Tage ab Frühlingsanfang mit der Tagesnummer TNR, dann ist der zugehörige Ekliptikwinkel der Erde auf ihrer Kreisbahn, von der Sonne aus betrachtet,  = TNR/365 * 2. Damit und mit dem Neigungswinkel  der Erdachse gegen die Erdbahnebene (Schiefe der Ekliptik) erhält man sin() = sin() *sin() [3].

Um die mittlere Intensität  auf Breitengrad  am Tag TNR zu bestimmen, muss man (h) unter Einsetzen von Gleichung () über eine Erdumdrehung integrieren und das Ergebnis auf die zu  gehörige Ringfläche verteilen. Für die Integrationsgrenzen wird der Stundenwinkel t0 der Sonne bei Sonnenaufgang benötigt.

Bei der Bestimmung von t0 ist eine Fallunterscheidung erforderlich: man erhält t0 durch Nullsetzen von Gleichung () für Breitengrade unterhalb der Polarregion, wo weder Mitternachtssonne noch Polarnacht herrschen. Der Grenzbreitengrad, der die Polarregion vom Rest abtrennt, hängt natürlich vom Datum ab und bestimmt sich zu grenz = /2 – ||. Oberhalb grenz ist t0 =  zu setzen.

Die zu  gehörige Gleichgewichtstemperatur berechnet man schließlich nach Stefan-Boltzmann zu

T = ( / ( * ))^0.25. Für einen schwarzen Körper wäre die Emissivität  = 1, wir haben uns aber für den Wert 0,95 entschieden.  = 5,67E-8 W / (m² * K4) ist die Stefan-Boltzmann-Konstante.

Für die Jahresgänge der Abb. 1 und 2 wurden nach diesem Schema die täglichen Temperaturen über ein Jahr berechnet. Hierfür wurde die Mathematik-Software Mathcad 2000 Professional verwendet.

Die Globaltemperatur-Kurven der Abb. 3 wurden mit Hilfe von Microsoft EXCEL gewonnen, indem für eine Anzahl von Stütztagen die Gleichgewichts-Temperatur aller Breitenkreise mit Schrittweite 1 Breitengrad berechnet und daraus der Mittelwert gebildet wurde. Die dargestellten Kurven sind zwischen den Stütztagen interpoliert. Die globalen Mittelwerte aus Tabelle 3 wurden näherungsweise ebenfalls mittels Stütztagen abgeschätzt.

Quellen

[1] Keller, H.-U.: Astrowissen, Stuttgart 1994

[2] https://de.wikipedia.org/wiki/Astronomische_Koordinatensysteme

[3] E. Boeker, R. v. Grondelle: Physik und Umwelt, Braunschweig 1997

 




Habecks Wetterwenden: Was, wenn Kernenergie wieder salonfähig wird?

Die Bundesegierung hat es sich angewöhnt, die alten Brunnen zuzuschütten, bevor es neue gibt. Jetzt erlaubt sie die bisher verteufelte CO2-Deponierung – und was ist, wenn die Kernenergie wiederkehren soll?

von Manfred Haferburg

Die Politiker sind so begeistert von ihren Beglückungsideen, dass sie gar nicht auf die Idee kommen, dass sie gelegentlich nicht funktionieren könnten. Also werden auf allen möglichen Gebieten die Brücken hinter sich zerstört, bevor die großen Pläne aufgehen. Das gilt für den Kernkraftausstieg, den Kohleausstieg, den Netzausbau, die Gaskraftwerksstrategie und die Wasserstoffstrategie. Bis vor Kurzem galt das auch für CCS, die Kohlendioxidabtrennung und -speicherung.

CCS ist die englische Abkürzung für „Carbon Dioxide Capture and Storage“. Das ist die Abscheidung und unterirdische Speicherung von „klimaschädlichem“ Kohlendioxid (CO2), das beispielsweise in Industrieanlagen und bei der Verbrennung von Öl, Gas und Kohle entsteht. Das CO2 wird eingefangen, verflüssigt und dann tief in den Untergrund gepresst und eingelagert. Das soll verhindern, dass das CO2 in die Atmosphäre gelangt.

Doch manchmal werden die Transformationsbeseelten von der Realität umstellt, so dass eine Brücke zurück ganz nützlich sein könnte. Nun doch über voreilig getanes Zerstörungswerk reden und Fehler zugeben? Lieber nicht, der Heiligenschein könnte über dem Wuschelhaar verrutschen. Herr Dr. Habeck verkündet einfach eine neue CCS-Strategie, und kaum einer merkt, das dies exakt das Gegenteil von dem ist, was er noch gestern verkündete und durchzog. Grüne nennen so etwas „360-Grad-Wende“.

Habeck plötzlich für CCS

Wirtschaftswoche: „Um die Klimaziele zu erreichen, soll schädliches CO2 in Deutschland künftig auch im Boden gespeichert werden – zumindest in der Nordsee. Es gehe vorrangig darum, Emissionen aus Branchen abzufangen, die nach aktuellem Stand nur schwer oder gar nicht klimaneutral werden könnten, sagte Wirtschaftsminister Robert Habeck (Grüne) am Montag. Dazu gehören zum Beispiel die Zement- und die Kalkindustrie. Doch die sogenannte CCS-Technik soll auch für die Energieproduktion in Gaskraftwerken erlaubt werden, …“

Wie jetzt, Herr Dr. Habeck ist neuerdings für CCS? Interessant, war doch bis vor einer Woche das genaue Gegenteil der Fall. Und nun die Wende, ohne ein einziges Wort des Bedauerns eines Irrtums zu bemühen. War es doch derselbe Herr Dr. Habeck, der vor zehn Jahren das CCS-Verbot in Deutschland initiierte und viele leichtgläubige Bürger bei Demonstrationen gegen diese Technologie auf die Straße brachte. Wenn diese Demonstranten ein Gedächtnis hätten, könnten sie sich leicht als nützliche Idioten von Herrn Habeck missbraucht fühlen.

Professor Fritz Vahrenholt hat das von Habeck initiierte CCS-Verbot von 2014 in einem Achse Artikel so beschrieben: „Maßgeblicher Drahtzieher des 2014 beschlossenen CCS-Verbots in Deutschland war der damalige schleswig-holsteinische Energiewendeminister Robert Habeck 2014: „Wir wollen kein CCS als Reinwasch-Technologie für die klimaschädliche Kohleverbrennung.”

Viel ist seit dem Verbot geschehen. Schon bestehende CCS-Anlagen wurden abgerissen und ins Ausland verkauft. Die Forschung an der CCS-Technologie in Deutschland wurde zwar nicht mitverboten, aber die Weiterentwicklung sinnlos gemacht. Wer forscht denn an einer verbotenen Technologie? Andere Länder entwickelten sie weiter, und in Norwegen ist sie nun sogar für neue Gaskraftwerke obligatorisch. Deutschland hingegen fiel in Sachen CCS auf den Stand eines Entwicklungslandes zurück. Nun ist alles anders, und das Zerstörte muss mühselig wieder aufgebaut werden.

Was geschieht, wenn Habeck die Kernenergie neu bewertet?

So wie die CCS-Technologie wurde in Deutschland auch die Kernenergie behandelt – verkomplizieren, verteuern, verbieten. 17 Kernkraftwerke wurden abgeschaltet, die eigentlich noch viele Jahre günstigen Strom hätten liefern können, unabhängig von Russland und ohne das so verschriene CO2. Doch nun sollen sie nach dem Willen der Grünen so schnell wie möglich zerstört – rückgebaut – werden. Kühltürme wurden medienwirksam gesprengt. Aber einen Kühlturm kann man in einem Jahr neu errichten. Ein Kernkraftwerksbau hingegen dauert fast zehn Jahre, um dann 80 Jahre Strom zu liefern.

Sind nach der Stilllegung erst mal die Trennschleifer am Druckgefäß, gibt es kein Zurück mehr. Dann wird Deutschland wirklich für die nächsten fünf Legislaturperioden zum kerntechnischen Entwicklungsland.

Es ist eine Binsenweisheit. Ich habe trotzdem in Dutzenden Artikeln und Vorträgen darauf hingewiesen, dass man existierende Brunnen erst zuschütten darf, wenn die neuen Brunnen Wasser geben. Dass es falsch ist, die Brücken hinter sich in Brand zu stecken, weil es dann keinen Weg zurück mehr gibt. Doch unbeirrt zertrampeln fanatische Kernenergiegegner einen ganzen Industriezweig, in dem Deutschland noch vor 15 Jahren an der Weltspitze agierte.

In zwei Jahren wird Habeck wahrscheinlich kein Minister mehr sein. Aber es ist völlig egal, wer dann an den Schalthebeln der Macht sitzt, der Weg zurück ist für die nächsten 25 Jahre versperrt. Die Energiepolitik wird alternativlos gemacht. Zum Schaden Deutschlands.

Deutschland ist kurz vor dem Fadenriss

Wenn das letzte deutsche Kernkraftwerk fällt, fällt die ganze Nukleartechnologie in Deutschland. Dann ist der Fadenriss komplett. Weil mit dem letzten Kernkraftwerk eine ganze nationale Infrastruktur den Bach runtergeht.

Die Behörden werden verlernen, Kernkraftwerksaufsicht zu führen und Kernkraftwerksneubauten zu genehmigen.

Die Betreiber verlernen, Kernkraftwerke zu betreiben und zu managen. Die Management-Systeme beim Betrieb eines Kernkraftwerkes sind genauso komplex wie die Kernenergietechnologie.

Die Fach- und Hochschulen verlernen, Kernenergetiker und Kerntechnikingenieure auszubilden, und es wird auch keine jungen Menschen mehr geben, die einen einschlägigen Ausbildungsweg einschlagen. Auch die Spezialausbildungsstätten wie KSG/GfS wird es nicht mehr geben. Die Kraftwerkssimulatorgesellschaft KSG in Essen Kupferdreh betrieb eine Simulatorschule GfS mit 17 Kernkraftwerkssimulatoren unter einem Dach und vielen Dutzend Ausbildern, war somit das größte KKW-Ausbildungszentrum der Welt und absolut führend auf ihrem Gebiet. Am Jahresende werden die letzten Simulatoren verschrottet und KSG/GfS liquidiert.

Die Herstellerfirmen und die auf Kerntechnikinstandhaltung ausgerichteten Firmen orientierten sich anderweitig und verlernen, Kernkraftwerke und ihre Teile zu konstruieren und zu bauen oder instandzuhalten.

Deutschland verliert den Anschluss an die internationale Entwicklung der Kernkrafttechnologie, weil es niemanden mehr gibt, der sich darum kümmert.

Das Verlernen hat schon eingesetzt und schreitet mit höchster Geschwindigkeit voran. Das geschieht so schnell, weil die noch vorhandenen Fachleute sich umgehend anders orientieren müssen oder ins Ausland abwandern.

Energiepolitik denkt man nicht in Wahlperioden, sondern in mehreren Dekaden

Der Niedergang der Kernenergie in Deutschland ist von grünen Politikern aller Parteien gewollt und beabsichtigt. Sie wollen dem Land eine Rückkehr in diese Technologie so schwierig wie möglich machen, auch wenn sie nicht mehr in der Regierung sind.

Deutschland steckt mitten in einer hausgemachten Energiekrise, die noch durch den Ukrainekrieg verschärft wurde. Modernste Kohlekraftwerke werden zerstört, stattdessen sollen für Unsummen Gaskraftwerke gebaut werden. Wo ist der Unterschied? Beide Kraftwerke produzieren CO2, und grüner Wasserstoff ist eine reine Fata Morgana. Das Stromnetz ist am Limit, Versorgungsstörungen zeichnen sich ab. Die exorbitanten Strompreise vertreiben die Industrie, verarmen die Leute und kennen nur eine Richtung – nach oben. Die Zerstörung der besten Kernkraftwerke der Welt unter den Bedingungen einer Energiekrise ist ein Akt von Wirtschaftssabotage.

Was aber ist, wenn sich in der Politik die Erkenntnis durchsetzt, dass der Ausstieg aus der Kernenergie und die absichtliche Zerstörung von Stromerzeugungskapazität Deutschlands ein gigantischer Irrtum war? Was ist, wenn Herr Dr. Habeck oder sein Nachfolger sich in einem oder zwei Jahren umentscheiden müssen? Was ist, wenn eine neue Regierung gewählt wird, die die Energiewende anders sieht?

Nach der Zerstörung des energetischen Rückgrats der Volkswirtschaft müssen alle deutschen Bürger ein tiefes und langes Tal der Tränen durchschreiten. Niemand wird kommen und einen Energie-Marshall-Plan anbieten. Die Deutschen können dann für Unsummen amerikanische, koreanische, französische oder russische Kernkraftwerke kaufen und vom Hersteller betreiben lassen. Dieses Modell funktioniert in Entwicklungsländern. Arme werden noch ärmer werden, Mittelständler werden verarmen, Sozialsysteme müssen eingeschränkt werden, der Wohlstand fließt ab. Der Staat wird versuchen müssen, an die Vermögen der Bürger zu kommen.

Wer gut ausgebildet ist oder genug Geld hat, wird flüchten. Nur sehr Wohlhabende und Ex-Politiker werden es sich mit ihren Ministerpensionen wohlergehen lassen können. Es ist immer so: „Generäle fallen nicht in der Schlacht“.

Der Rückbau der Kernkraftwerke ist Ländersache

Das Atomgesetz ist Bundesrecht und verbietet derzeit die kommerzielle Stromerzeugung mittels Kernenergie. Auch wenn eine Mehrheit der Wähler inzwischen für den Weiterbetrieb der Kernenergie ist, kommt mit den Kadern der Parteien der Grünen, SPD, FDP, CDU/CSU wohl kaum eine Mehrheit zur Änderung dieses Gesetzes zustande. Zu tief sind die Politiker dieser Parteien in die Historie der Fehlentwicklung verstrickt. Ein kurzfristiges Wiederanfahren der Kernkraftwerke ist eher unwahrscheinlich.

Jedoch der Rückbau der KKW ist Ländersache und kann lokal verzögert werden. Das kostet auch Geld, aber dann ist im Falle einer Umkehr das Tal der Tränen nicht 25 Jahre lang, sondern nur drei. Und die Kosten der Verzögerung des Verschrottens von Kraftwerken stehen in keinem Vergleich mit den Kosten und der benötigten Zeit für Neubauten.

Die Bundesländer können die endgültige Zerstörung der letzten KKW wenigstens bis zur nächsten Bundestagswahl aufschieben. Dann werden die Karten neu gemischt. Und die Frage nach der Verantwortung wird gestellt werden.

Warum sollte der Freistaat Bayern dem Wunsch von Berliner Grünen (die noch nicht einmal in Bayern mitregieren) entsprechen, das beste Kernkraftwerk der Welt einfach zu zersägen und die bayerische Landschaft mit ineffizienten Windradmonstern zu verschandeln, die nicht einmal die Versorgung gewährleisten können?

Noch ist es nicht zu spät. Liebe Bayern, rettet euer grundsolides Kernkraftwerk ISAR 2. Es ist eine Sünde, es zu zerstören. Es hat einen Wert von mehreren Milliarden Euro. Es kann euch und euren Kindern noch 30 Jahre lang gute Dienste leisten.

Auch andere Bundesländer könnten die letzten Kernkraftwerke, z.B. Emsland und Neckarwestheim 2, vor Philosophen vom Typus Dr. Habeck, Politikwissenschaftlern wie Svenja Schulze und Rechtsanwälten wie Olaf Scholz bewahren. Von Energiesystemen verstehen diese Politiker leider nicht viel. Sie haben sich mit ja-sagenden Beamten und ihnen zustimmenden Mietwissenschaftlern umgeben, von denen keine abweichende Meinung zu erwarten ist. So wird jede Diskussion über eventuelle Irrwege der Energiewende mit Hilfe willfähriger Medien unterdrückt.

Vielleicht rettet man sogar noch die drei weiteren KKW, die im Jahr 2022 abgeschaltet wurden. Wenn sie schon nicht gleich wieder hochgefahren werden können, so könnte wenigstens ihre irreversible Zerstörung verzögert werden. Dann kann bei der Bundestagswahl das Volk neu über die Energiepolitik entscheiden. Die Entscheidung kann so oder so ausfallen. Aber den Rückweg durch eine Taktik der verbrannten Erde zu versperren, ist zutiefst undemokratisch.

Der Beitrag erschien zuerst bei ACHGUT hier