Kältestes „Sommer“-Wochenende jemals in Atlantic City

Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

Millville brach auch einen Rekord für die niedrigste Maximaltemperatur am Sonntag – das Thermometer kletterte auf nur 11 Grad.

Nach Recherchen von The Press of Atlantic City war es das kühlste Samstag- und Sonntagswochenende während der „Sommer“-Saison – die vom Freitag vor dem frühestmöglichen Memorial Day, dem 22. Mai, bis zum spätestmöglichen Labor Day, dem 7. September, für A.C. Airport und Millville reicht.

In den Vereinigten Staaten hat das Jahr bisher insgesamt 19.510 neue tägliche KÄLTE-Rekorde im Vergleich zu nur 15.291 für HITZE-Rekorde geliefert – und das laut den Alarmisten der NOAA mit ihrer Historie der Datenmanipulation.

Außerdem sind insgesamt 921 monatliche KÄLTE-Rekorde gefallen gegenüber nur 365 für die HITZE.

Und noch bezeichnender ist, dass in diesem Jahr insgesamt 222 KÄLTE-Rekorde gefallen sind, gegenüber nur einem für WÄRME.

Die leichte Erwärmung, die in den letzten Jahrzehnten beobachtet wurde, kann auf die hohe Sonnenaktivität zurückgeführt werden.

In den letzten Jahren ist die Sonnenaktivität jedoch (relativ) stark zurückgegangen, und jetzt, nach einer Verzögerung von etwa zehn Jahren, reagieren die globalen Temperaturen darauf.

Alle offiziellen Datensätze greifen die starke Abkühlung auf, die seit 2016 beobachtet wurde, denn im Gegensatz zur AGW-Theorie ist dies keine Fantasie, und wir können getrost reale Beobachtungen verwenden, um eine Abkühlung des Planeten zu unterstützen – es sind keine peinlichen, unlogischen Erklärungen notwendig.

Trends ändern sich (sorry IPCC).

Das Klima ist zyklisch, niemals linear (such dir ein anderes Steckenpferd, Greta).

Und es wird jetzt immer schwieriger für die Regierungsbehörden, die sich verstärkende globale Abkühlung zu verbergen/zu erklären. Die NOAA und die NASA haben alle Tricks der Datenfälschung, des Ignorierens von UHI und der Rosinenpickerei angewandt, die sie haben, aber ihre globalen Temperaturdaten zeigen immer noch eine deutliche ABKÜHLUNG.

Die beiden Diagramme unten zeigen den berechneten linearen jährlichen globalen Temperaturtrend für die letzten 5, 10, 20, 30, 50, 70 oder 100 Jahre, mit freundlicher Genehmigung von climate4you.com.

Das erste Diagramm zeigt die Satelliten-Temperaturtrends für die am häufigsten zitierten UAH- und RSS-Datensätze:

Diagramm, das den jüngsten linearen jährlichen globalen Temperaturtrend über 5, 10, 20 und 30 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für zwei satellitenbasierte Temperaturschätzungen (UAH MSU und RSS MSU). Letzter in die Analyse einbezogener Monat: Januar 2021.

Die zweite Grafik zeigt die Oberflächentemperaturaufzeichnung für GISS, NCDC und HadCRUT4:

Diagramm, das den letzten linearen jährlichen globalen Temperaturtrend über 5, 10, 20, 30, 50, 70 und 100 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für drei oberflächenbasierte Temperaturschätzungen (HadCRUT4 und GISS + NCDC). Letzter in die Analyse einbezogener Monat: Januar 2021.

Beachten Sie den starken Abkühlungstrend, der von allen fünf Datensätzen in den letzten fünf Jahren beobachtet wurde.

Beachten Sie auch den Unterschied zwischen satelliten- und oberflächenbasierten Temperaturen, wobei die zuverlässigeren Satelliten einen größeren Temperaturrückgang anzeigen.

Das Diagramm unten zeigt den für die letzten 5 Jahre berechneten Trend:


Eindeutig ist erkennbar, dass die mittlere Temperatur der Erde während der letzten paar Monate im Sinkflug begriffen ist.

Weitere Details gibt es hier.

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

Übersetzt von Chris Frey EIKE




Der „Neue Stillstand“ verlängert sich um weitere 2 Monate auf nunmehr 6 Jahre 2 Monate

HadCRUT4 hat nach einigem Hin und Her seinen monatlichen Datensatz mit drei Monaten neuer Daten aktualisiert, was uns bis März 2021 bringt. Der neue Stillstand in den HadCRUT4-Daten hat sich auf 7 Jahre und 1 Monat verlängert:

Wie haben sich nun also die Daten der realen Welt im Vergleich zu den Prophezeiungen der Modelle gemacht, wie sie vom IPCC (1990) verbreitet worden waren? Die IPCC-Prophezeiung sah so aus:

Da die Vorhersage des IPCC von 1,8 C° anthropogener Erwärmung mit der vorindustriellen Temperatur verglichen wird, muss man die HadCRUT4-Erwärmung von 0,54 C° von 1850 bis April 1991 abziehen. Die Vorhersage des IPCC belief sich also auf 1,26 C° bis 2030.  UAH zeigt jedoch nur 0,46 C° in 30 Jahren, was etwa 0,61 C° bis 2030 entspricht, wovon 70%, also nur 0,43 C°, anthropogen sind (Wu et al. 2019):

Daher hat sich die Vorhersage des IPCC aus dem Jahr 1990, auf der die Angst vor der globalen Erwärmung beruhte – die von Professor Lindzen in einem ausgezeichneten Vortrag vor kurzem zu Recht als „absurd“ bezeichnet wurde – als eine fast dreifache Übertreibung im Vergleich zur nüchternen Realität erwiesen.

Hier ist der Grund dafür. Die heutige globale mittlere Oberflächentemperatur beträgt 288,6 K, bestehend aus 255,2 K Emissionstemperatur und 33,4 K Treibhauseffekt. Die 33,4 K setzen sich zusammen aus 7,2 K direkter Erwärmung durch natürliche (6,2 K) und anthropogene (1 K) Treibhausgase und 26,2 K Rückkopplungseffekt. Von diesen 26,2 K sind 25,5 K Rückkopplungsreaktion auf die Emissionstemperatur und 0,7 K auf die direkte Erwärmung durch Treibhausgase. Von diesen 0,7 K sind 0,6 K Rückkopplungsreaktion auf natürlich vorkommende und 0,1 K auf anthropogene Treibhausgase.

Der heutige System-Gain-Faktor, das Verhältnis der Gleichgewichtstemperatur nach der Rückkopplung zur Referenztemperatur vor der Rückkopplung, beträgt also 288,6 / (255,2 + 7,2), also 1,1. Die Referenzsensitivität gegenüber verdoppeltem CO2 ist das Produkt aus dem 3,52 W/m² verdoppelten CO2-Antrieb (Zelinka et al. 2020) und dem Planck-Parameter 0,3 K/Wm²: also 1,05 K. Die Gleichgewichts-Sensitivität gegenüber verdoppeltem CO2, das Produkt aus 1,05 K und dem System-Gain-Faktor 1,1, beträgt also etwa 1,15 K – das entspricht in etwa der anthropogenen globalen Erwärmung, die wir über das gesamte 21 Jahrhundert erwarten können.

Folglich ist die mittlere mittlere Vorhersage von 3,9 K in den Modellen der neuesten Generation (CMIP6) (Zelinka et al. 2020) eine mehr als dreifache Übertreibung, die auf der Vorstellung der Klimaforscher beruht, dass es keine Rückkopplung auf die Emissionstemperatur gibt. Ihr Systemverstärkungsfaktor 26,2 / 6,2, also 4,2, übersteigt den realen Wert von 1,1 fast um das Vierfache.

Kommt schon, Leute! Wann merkt ihr endlich, dass die Sonne scheint? Es ist die Sonne, die für fast alle Rückkopplungsreaktionen im heutigen Klima verantwortlich ist. Referenz- und Gleichgewichts-Sensitivität sind ungefähr gleich, und man kann die Rückkopplungsreaktion bei der Ableitung der Gleichgewichts-Sensitivität ohne signifikanten Fehler ganz vernachlässigen. Referenzsensitivitäten sind alles, was man braucht. Und damit ist der Klimanotstand beendet.

Link: https://wattsupwiththat.com/2021/06/02/the-new-pause-lengthens-by-another-2-months-to-6-years-2-months/

Übersetzt von Chris Frey EIKE

 




Die Mai-Bundesliga-Tabelle – Vorschlag einer CO2-Freiwilligen­steuer in Deutschland

Der Hohenpeißenberg (HPB) gibt eine erste Antwort

Wenig verändert: Schon über 200 Jahre betrieben die Mönche im dortigen früher unbeheizten Kloster eine Wetterstation, die an der nördlichen Außenwand des Anbaus an der Klosterkirche in etwa 7 m Höhe neben einem Fenster angebracht war. Nach Gründung des Reichswetterdienstes mit normierten neuen Standortbedingungen wurde die Station nach 1936 an einen wärmeren und etwas tiefer gelegenen Standort verlegt, der inzwischen zu einem umfangreichen DWD-Messzentrum ausgebaut wurde. So steht die neue Wetterhütte frei auf dem DWD-Messfeld und ist der Sonne ausgesetzt. Im Mai 2021 waren es 183 Sonnenscheinstunden. Wir schätzen die menschengemachte Wärmeinselzugabe aufgrund des Standortwechsels auf etwa 0,3 bis 0,5 C ab dem Jahre 1936 ein, d.h. die seitdem gemessenen Temperaturen müsste man entsprechend nach unten korrigieren, was wir nicht getan haben, denn die Grafik 1 ist auch so eindeutig zur Verdeutlichung der Überschrift. Mai 2021: 8,2 °C, deutlich unter dem 240 jährigen Schnitt von 10°C

Grafik 1: Die Grafik zeigt deutlich, dass die warmen Maimonate, als die deutschen Maienlieder entstanden sind, vor über 200 Jahren konzentriert auftraten. Das momentane Temperaturplateau des Wonnemonates Mai befindet sich seit 1988 leicht über dem Schnitt der letzten 240 Jahre. Die kalten Jahrzehnte um 1881 sind in der Grafik gut zu erkennen.

Fazit: Die warmen Maimonate lagen in früheren Jahrhunderten.

Grafik 2: Auch bei der Wetterstation in Berlin-Tempelhof liegen die wirklich heißen Maimonate lange zurück. Wie schon beim HPB sind auch in Berlin um 1881 die Maimonate am kältesten. Mit 12,6°C lag der Mai 2021 in Berlin deutlich unter dem 265 jährigen Gesamtschnitt von 13,8°C

Im Gegensatz zum HPB ist die Wetterstation Tempelhof eine typische Wärmeinselstation. Einst lag sie einige Kilometer außerhalb von Berlin bei einem Gutshof, der tempelartig angeordnet war. Inzwischen hat die Großstadt den Gutshof geschluckt und ein neuer Stadtteil ist am selben Ort erwachsen.

Es existieren auch länger zurückliegende Deutschlanddaten, die sich aber nur auf wenige Stationen berufen können, bzw. die Daten wurden interpoliert. Wir verwenden für die nächste Grafik die Deutschlanddaten ab 1800, seit 1881 sind es die offiziellen DWD-Daten. Quelle

Die 15 wärmsten Maimonate Deutschlands in Form einer Bundesligatabelle.

Man achte auf die Jahreszahlen der warmen Maimonate. Der Mai 2019, 2020 und 2021 wären ein Absteiger aus der ersten Liga. Komisch in diesen letzten 3 Jahren waren die gemessenen CO2-Konzentrationen doch am höchsten.

Grafik 3: Unser Dichter Johann Wolfgang Goethe lebte noch zu den Zeiten des viertwärmsten Maimonats (1811) in Deutschland. Der Mai 2020 ist keineswegs an 16.ter Stelle, mit seinen 10,7°C er wurde auf dieser Grafik nur im Vergleich zu den 15 wärmsten eingezeichnet. Ein Ausreißer aus der Neuzeit, der sonnenreiche Mai 2018 führt die Deutschland-Tabelle an.

Auch diese Grafik zeigt: Das momentane Wärmeplateau des Monates Mai ist keineswegs ein hohes Niveau seit Beginn der Temperaturmessungen in Deutschland.

Vergleich der Maimonate mit den CO2-Messungen: Die Keeling Kurve

Nur 3 der 15 wärmsten Maimonate Deutschlands liegen im Zeitraum der ansteigenden CO2-Keeling-Kurve. Messbeginn am Mauna Loa: 1958

Grafik 4: Die CO2-Konzentrationen der Atmosphäre steigen vor allem nach dem Kriege stark an. Behauptet wird, dass die Ursache des CO2-Anstieges fast ausschließlich anthropogenen Ursprunges wäre. Zumindest seit der Corona-Krise darf man Zweifel anmelden, denn inzwischen ist der Wert im Mai 2020 auf 419 ppm angewachsen und keinesfalls in den letzten 15 Monaten gesunken.

Weiter wird behauptet, dass dieser CO2-Anstieg die Haupt-Ursache der Temperaturerwärmung wäre, die es aber für den Monat Mai in Mitteleuropa über einen längeren Zeitraum gar nicht gibt.

Fazit: 1) Die CO2-Konzentrationen steigen seit 1958 stetig an, sie sind auch im letzten Jahr trotz lock-down weiter gestiegen.

2) Der Monat Mai ist der Beweis, dass CO2 gar keinen oder höchstens einen minimalen Einfluss auf die Temperaturen hat.

Vorschlag: Wer weiterhin an ein Treibhausgas Kohlendioxid glaubt, für solche Menschen möge die neue Regierung eine CO2-Freiwilligensteuer einführen, damit diese Gläubige ihr Gewissen beruhigen können.




Verheerende Folgen „grüner“ Energiepolitik II: Das gigantische Abfall-Problem „grüner“ Energie

Riesige Mengen an Erde müssen abgebaut werden, um die spärlich vorhandenen Mineralien und Elemente zu gewinnen, die für die Herstellung der Akkupacks benötigt werden, die Elektroautos antreiben und die zusätzliche Energie liefern sollen, wenn der Wind nicht weht oder die Sonne nicht scheint. Bei der Raffinierung dieser Mineralien entsteht giftiger Schlamm, der die angrenzende und nachgelagerte Umwelt und die Menschen vergiftet. Ein noch Energie-intensiverer Abbau und eine noch Energie-intensivere Fertigung sind notwendig, um die Verbundwerkstoffe herzustellen, aus denen die Rotorblätter und Türme der Windkraftanlagen gefertigt werden. Für die Herstellung und den Transport der zehntausende Tonnen Kohlendioxid-intensiven Betons, der zur Verankerung jeder Windturbine benötigt wird, werden enorme Energiemengen verbraucht. Riesige Landflächen, meist erstklassige Aussichtspunkte, Lebensraum für Wildtiere und Wanderkorridore, werden in Energie erzeugende Industrieparks verwandelt, wenn Wind-„Farmen“ und riesige Solaranlagen errichtet werden.

Hinzu kommen die riesigen Abfallmengen, die entstehen, wenn Batterien, Windturbinen und Solarpaneele vorzeitig ausfallen oder am Ende ihrer Lebensdauer einfach nicht mehr funktionieren, und die sich nur schwer verarbeiten, recyceln oder entsorgen lassen.

Forscher beginnen, sich mit der letzteren Schwierigkeit zu befassen, die sich am Horizont abzeichnet: der Umgang mit der riesigen Menge an Abfall, die durch die enorme Expansion der grünen Energietechnologien entstehen wird. Das Magazin Science zum Beispiel schrieb kürzlich:

Das Batteriepaket eines Tesla Model S ist ein Meisterwerk der Ingenieurskunst. Tausende von zylindrischen Zellen mit Komponenten aus aller Welt wandeln Lithium und Elektronen in genügend Energie um, um das Auto hunderte von Kilometern anzutreiben, wieder und wieder, ohne Auspuffemissionen. Doch wenn die Batterie das Ende ihrer Lebensdauer erreicht hat, verblassen ihre grünen Vorteile. Wenn sie auf einer Mülldeponie landet, können ihre Zellen problematische Giftstoffe freisetzen, darunter Schwermetalle. Und das Recycling der Batterie kann eine gefährliche Angelegenheit sein, warnt die Materialwissenschaftlerin Dana Thompson von der University of Leicester. Schneidet man zu tief oder an der falschen Stelle in eine Tesla-Zelle, kann es zu einem Kurzschluss kommen, brennen und giftige Dämpfe freigesetzt werden.

Das ist nur eines der vielen Probleme, mit denen Forscher wie Thompson konfrontiert sind, die versuchen, ein neu auftretendes Problem anzugehen: wie man die Millionen von Batterien für Elektrofahrzeuge (EV) recyceln kann, die die Hersteller in den nächsten Jahrzehnten voraussichtlich produzieren werden. Die aktuellen Batterien für Elektrofahrzeuge „sind wirklich nicht für das Recycling ausgelegt“, sagt Thompson, ein Forschungsstipendiat an der Faraday Institution, einem Forschungszentrum in Großbritannien, das sich mit Batteriefragen beschäftigt.

Wie „Science“ weiter berichtet, entwickeln Regierungen Regeln, die ein gewisses Recycling von Batterien vorschreiben. Dies wird jedoch ein schwieriges und kostspieliges Unterfangen sein, das die ohnehin schon hohen Kosten für grüne Energie weiter in die Höhe treiben wird, denn:

Batterien unterscheiden sich stark in ihrer Chemie und Konstruktion, was es schwierig macht, effiziente Recyclingsysteme zu schaffen. Und die Zellen werden oft mit zähen Klebstoffen zusammengehalten, die es schwierig machen, sie auseinander zu nehmen. Das hat zu einem wirtschaftlichen Hindernis beigetragen: Für Batteriehersteller ist es oft billiger, frisch abgebaute Metalle zu kaufen als recycelte Materialien zu verwenden.

Das oben beschriebene Problem berührt noch nicht einmal die Frage, wie die Welt mit den Millionen von Batterien umgehen wird, die in riesigen Lagerhäusern platziert werden, um Backup- oder Ersatzstrom für die riesige Wind- und Solarenergie-Expansion der Biden-Harris-Regierung bereitzustellen.

Schon bevor Biden seinen großen Vorstoß zur Ausweitung des Einsatzes von Elektrofahrzeugen und industriellen Wind- und Solarenergieanlagen begann, kämpften Städte, Bundesstaaten und Regionen bereits damit, mit dem zunehmenden Abfall von stillgelegten Windturbinen und Solarmodulen fertig zu werden, der aus den vergangenen zwei Jahrzehnten des Ausbaus von Wind- und Solarenergie resultierte – gefördert und angetrieben durch verschiedene Arten von Bundes- und Staatssubventionen und andere Formen der Unterstützung.

In der April-Ausgabe 2017 von Waste Management wurde konservativ geschätzt, dass die Entwickler von Windenergieanlagen bis 2050 weltweit 43 Millionen Tonnen Abfall von Windturbinenblättern entsorgen müssen. Obwohl theoretisch etwa 90 Prozent der Kleinteile einer Turbine recycelt oder verkauft werden können, gilt dies nicht für die Rotorblätter, die aus einem Verbundstoff aus Harz, Glasfaser und anderen Materialien bestehen.

Diese Rotorblätter sind teuer in der Stilllegung und im Transport. Sie sind bis 100 m lang, so dass die Betreiber sie vor Ort in kleinere Stücke schneiden müssen, bevor sie mit spezieller Ausrüstung zu einer Deponie transportiert werden – wenn denn eine gefunden werden kann, die für die Annahme zertifiziert ist und dies noch tut.

Gemeinden, die zertifizierte Deponien betreiben, lehnen Windradflügel zunehmend ab, selbst wenn sie für die Annahme den doppelten Betrag pro Tonne verlangen können, benötigen diese doch enorm viel Platz, müssen mit erheblichem Aufwand zerkleinert werden, benötigen Hunderte von Jahren zum Abbau und geben dabei oft Methan und flüchtige organische Verbindungen in die Umwelt ab.

Wenn Präsident Biden das nächste Mal auf der Bühne steht und einen weiteren Durchbruch in der grünen Energietechnologie anpreist, sollten die Menschen ihn – und die Hersteller und andere Regierungsvertreter, die diese Technologie vorantreiben – fragen, wie die Materialien entsorgt werden und zu welchen Kosten.

Solange die Regierung diese und andere Fragen dazu nicht beantworten kann, sollte sie aufhören, diese ineffizienten und wirtschaftlich und ökologisch kostspieligen Technologien vorzuschreiben und zu subventionieren.

[Hervorhebung vom Übersetzer]

QUELLEN: Science (behind paywall); Science; National Geographic; Environment & Climate News; Environment & Climate News; Committee for a Constructive Tomorrow; The Heartland Institute; The Heartland Institute

Link: https://www.heartland.org/news-opinion/news/green-energy-policies-are-built-on-slavery-child-labor

Übersetzt von Chris Frey EIKE

 




Droht uns durch Klima­engineering eine neue Eiszeit?

NTV hatte am 12. Januar 2019 berichtet, Zitat:

Bisher waren Forschungen zum SRM, auch solares Geoengineering genannt, auf das Labor und Computersimulationen beschränkt. Doch dieses Jahr wollen Wissenschaftler erstmals den Schritt nach draußen wagen: Forscher der Harvard-Universität planen ein Experiment, bei dem kleine Partikel in einer hohen Luftschicht ausgebracht werden, wie das Magazin „Nature“ berichtete. Untersucht werden soll so die „Stratospheric Aerosol Injection“ (SAI), eine Variante des solaren Geoengineerings, bei der ein Partikelmantel einen Teil der Sonnenstrahlen ablenkt und die Sonne so verdunkelt wird. Das Projekt mit dem Namen Stratospheric Controlled Perturbation Experiment (SCoPEx) hat mit Bill Gates einen berühmten Förderer und könnte schon in der ersten Jahreshälfte starten. Ein Ballon soll bis in die Stratosphäre aufsteigen, in rund 20 Kilometern Höhe soll er dann Wolken kleiner Partikel aus Kalziumkarbonat, also Kalk, ausstoßen. Anschließend messen Sensoren an dem Ballon, wie sich diese ausbreiten.“

Als Förderer des SCoPEx-Projekts werden angegeben:

William and Flora Hewlett Foundation; The Open Philanthropy Project; Pritzker Innovation Fund; The Alfred P. Sloan Foundation; VoLo Foundation; The Weatherhead Center for International Affairs; G. Leonard Baker, Jr.; Alan Eustace; Ross Garon; Bill Gates; John Rapaport; Michael Smith; Bill Trenchard.”

Dem EIKE-Artikel „‚Klimaschutz‘: Riskantes Spiel mit dem Wetter“ vom 7. Februar 2021 war zu entnehmen, dass ein erster Praxistest im Rahmen des SCoPEx-Experiments offenbar bereits für Juni 2021 geplant gewesen sei. Aber aus diesem SCoPEx-Test wird nun offenbar vorerst nichts werden, wie die taz am 5. April 2021 unter dem Titel „Klimamanipulation abgeblasen“ gemeldet hatte, Zitat:

Ende letzter Woche gaben Harvard und SSC [staatliche schwedische Raumfahrtgesellschaft] bekannt, dass die Pläne auf Eis gelegt würden: Es gebe in der internationalen Wissenschaft einen Bedarf nach weiterer Diskussion zu diesem Thema, denn bislang gebe es ‚keinen Konsens, inwieweit ein solcher Versuch angemessen ist‘. Die SSC-Mitteilung führt eine weitere Begründung an, die eine Beteiligung Schwedens am Test auf absehbare Zeit unmöglich machen dürfte: ‚Es fehlen heute internationale Abkommen bezüglich der Forschung im Geoengineering-Sektor.‘“

Bevor man mit dem solaren Klimaantrieb unserer Erde herumspielt kann uns ja vielleicht die Aga-Kröte mal erzählen, was bei nicht bis zu Ende gedachten menschlichen Eingriffen in natürliche Abläufe so alles passieren kann.

Schauen wir uns nachfolgend also einmal genauer an, ob ein solcher Eingriff in die terrestrische Temperaturgenese mit oder ohne ein internationales Abkommen tatsächlich angemessen wäre

Kiehl & Trenberth lassen in ihrem konventionellen IPCC-Modell KT97 die Vektor-Richtung der solaren Einstrahlung [1] mit einem Skalar-Trick verschwinden und fokussieren ihren Tag=Nacht-Faktor4-Flacherdeansatz für die Solarkonstante „So/4“ auf die radiale Abstrahlung der Erde [3]. Die gesamte Ursachen-Wirkungs-Kette für die terrestrische Temperaturgenese lautet aber,

Aussage 1:

Solare HF-Einstrahlung@PIR² [1]=> Erwärmung von Materie@2PIR² [2]=> IR-Abstrahlung@4PIR² [3]

Der EIKE-ArtikelAnthropogener Treibhauseffekt: nach wie vor zu schwach für die Klimakatastrophe!“ von Dr. Roland Ullrich enthält die bekannte KT97-Darstellung mit einer atmosphärischen Gegenstrahlung von 333W/m². Dort wurde auch eine Gleichung für die globale Verteilung der Sonneneinstrahlung aufgestellt:

GLEICHUNG 1: So + Evap + Erad + Konv + X = 0 (Dr. Roland Ullrich)

Die in einem späteren Artikel von Dr. Ullrich nachgereichte „realistische Darstellung der Energiebilanz der Erde“ verschleiert durch Prozentangaben wiederum die zugehörigen spezifischen Leistungen:

Abbildung 1: „Realistische Darstellung der Energiebilanz der Erde“ – Quelle: Sekundärzitat aus „Oberflächenbilanz und Kirchhoff’sche Knotenpunktregel“ von Dr. R. Ullrich

Durch die Prozentangaben in Abbildung 1 wird aber auch noch die Betrachtungsperspektive (PIR² oder 2PIR² oder 4PIR²) verschleiert. Allein der Term „Von Ozeanen und Land absorbiert 51%“ entspräche bezüglich der Solarkonstanten (So=1.367W/m²) einer spezifischen Strahlungsleistung von 697W/m² mit einem rechnerischen S-B-Temperaturäquivalent von 60°C. Und für die „atmosphärische Gegenstrahlung“ taucht dort lediglich der aufsteigende IR-Term „Von der Atmosphäre absorbierte Wärmestrahlung 15%“ (entsprechend 205W/m² von So) auf, der jedoch nicht auf die Erdoberfläche zurückgeführt wird. Von daher bleibt dort der fiktive atmosphärische Antrieb für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ rechnerisch völlig im Dunklen. Und damit fehlt wiederum jede Erklärung, wie die Lücke von 155W/m² in der konventionellen Faktor4-Klimatheorie zwischen einer fehlerhaft abgeleiteten „natürlichen Gleichgewichtstemperatur“ unserer Erde von (-18°C) und der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) geschlossen werden sollte.

Die Vektorrichtung der parallelen solaren HF-Einstrahlung kann nämlich nur über die Erwärmung von Materie in eine radiale terrestrische IR-Abstrahlungsrichtung transformiert werden. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwelliger HF-Strahlung (solar=niedrige Entropie) zu langwelliger IR-Strahlung (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie (Aussage1: [2]), und das ist nur auf der Tagseite der Erde möglich. Dazu passt auch die Aussage von Prof. Dr. Heinz Fortak aus seinem Buch Meteorologie von 1971, Sekundärzitat aus einer Email vom 21.05.2021 um 21:08 Uhr an einen reduzierten Skeptiker-Email-Verteiler mit Dank an Dr. Gerhard Kramm:

Der Strahlungsanteil in Hoehe von 3.52 kWh/(m2 d) (42 %), welcher das System Erde – Atmosphaere effektiv erwaermt, besteht aus der kurzwelligen Strahlungsabsorption in der Atmosphaere und am Erdboden (17 % + 47 % = 64 %) abzueglich des Energiebetrages, der zur Verdunstung des Wassers benoetigt wurde. Der „Kreislauf“ der langwelligen Strahlung zwischen Erdoberflaeche und Atmosphaere traegt nicht zur Erwaermung des Systems bei. Die effektive langwellige Ausstrahlung nach oben von 64 % dient zur Aufrechterhaltung des Strahlungsgleichgewichts an der Obergrenze der Atmosphaere.“

Damit können wir für einen (IN=OUT)-Gleichgewichtszustand feststellen,

Aussage 2:

(Solare HF-Einstrahlung [1] @2PIR² [2] = terrestrische IR-Abstrahlung @4PIR² [3]) @ NST=CONST

Und wenn wir in Ermangelung von Alternativen mit Durchschnittswerten argumentieren, führt die Gleichsetzung NST=Tphys zu

Aussage 3:

Hinweis zur Temperatur auf der Nachtseite: Die Umgebungsgleichung des S-B-Gesetzes stellt die Ausgangssituation für meine Betrachtung der Nachtseite unserer Erde dar. Dadurch werden die Temperaturverhältnisse und die daraus abzuleitenden Flussrichtungen der Energie von warm zu kalt eindeutig definiert, aber der physikalische Ausgleichsmechanismus kann und wird selbstverständlich alle Arten des Energietransportes umfassen, wie ich das in der Vergangenheit bereits mehrfach ausgeführt hatte (beispielsweise hier: Land-Seewind-System und hier: 6. ERKENNTNIS).

Kommen wir jetzt noch einmal zu dem Modell KT97 von Kiehl & Trenberth zurück. Es ist klar hervorzuheben, dass der Ausdruck „S0“ in der Wissenschaft eindeutig für die Solarkonstante von 1.367 W/m² steht; das Faktor-4-Derivat von Kiehl & Trenberth leitet sich dagegen aus (S0/4) her. Und schließlich wäre hier von den KT97-Anhängern noch zu klären, wie ein IR-Spektrum von bis zu 120°C (@ S0) auf der Tagseite unserer Erde (generell S0 (1-ALBEDO)*COS(Zenitwinkel)) mit dem ominösen „Faktor4“ gemittelt wird, um so 4x das IR-Spektrum von -18°C (@235W/m²) zu erzeugen; insbesondere, wo dabei die höheren, ausschließlich auf der Tagseite erzeugten IR-Frequenzen abbleiben sollen (hier in Abbildung 6 dargestellt). Auf der anderen Seite kann Energie nicht einfach so verschwinden. In der Gleichung 1 sind aber Kondensation („Kond“) und Advektion („Adve“) nicht enthalten, es sei denn implizit in „Evap“ und „Konv“, was diese Terme dann allerdings mit („Evap“=„Evap“-„Kond“) und („Konv“=„Konv“-„Adve“) selbst auf „0“ bringen würde. Klarer wird vielleicht eine hemisphärische Betrachtung:

Es ergibt sich daraus die nachfolgend in Tabelle 1 dargestellte Situation:

 

Der Bodenwärmefluss sowie der Term „X“ aus Gleichung 1 sind hier nicht aufgeführt. Setzen wir einmal anstelle von Term „X“ einen Albedo-Antrieb ein:

Tabelle 1: Die Temperaturgenese auf unserer Erde [1]=>[2]=>[3] wird durch die ozeanischen Wärmespeicher mit einer Mitteltemperatur von etwa 15°C gestützt.

Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Die Albedo unserer Erde ist dagegen die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann. Der Antrieb „X“ kann daher als +/-DELTA ALBEDO durch ein Albedo-Forcing beschrieben werden:

Gleichung 3: (S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

Die linke Seite der Gleichung 3 bestimmt also, welche spezifische solare Strahlungsleistung überhaupt für die terrestrische Temperaturgenese zur Verfügung steht, und zwar zwischen einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, respektive 1.367W/m² und 0W/m². Manchmal wird die Zeit (t) ebenfalls eingebunden, aber das würde insofern zu Komplikationen führen, weil die Verweildauer von Wärme in den globalen Strömungssystemen von Atmosphäre und Ozeanen sehr unterschiedlich ist. Verstehen wir die Gleichungen 2 und 3 also eher als Ergebnis einer langjährigen Durchschnittsbetrachtung. An einer Weltformel für die Temperatur hatte ich mich hier einmal versucht, und hier an einem natürlichen Klimamechanismus.

Und jetzt schauen wir einmal genauer auf unser Eiszeitalter:

Wir leben gegenwärtig in einem Interglazial der gegenwärtigen Eiszeit, also irgendwo zwischen der letzten Kaltzeit und der nächsten, wie die nachfolgende Abbildung mit den Temperaturproxys der antarktischen Vostok-Bohrung zeigt:

Abbildung 2: Isochrone Interpolation der Temperaturproxys aus den Vostok-Daten [1]

In den vergangenen 420.000 Jahren beschränkten sich die sogenannten Warmzeiten oder Interglaziale auf Zeiträume von jeweils 10.000 bis 15.000 Jahren. Unser aktuelles Interglazial besteht nun bereits seit etwa 12.000 Jahren, hat also voraussichtlich noch zwischen 0 und 3.000 Jahre Bestand. Und dann wird es wieder für etwa 100.000 Jahre lang ziemlich kalt, mit Gletschern im norddeutschen Tiefland und allem was so dazu gehört. Damit sollte uns aber auch die Frage interessieren, was genau den Wechsel von einer Warmzeit zu einer Kaltzeit hervorruft.

Köppen und Wegener machen in ihrem Werk „Die Klimate der geologischen Vorzeit“ (Bornträger 1924, Nachdruck bei Schweizerbart) die sommerliche Sonneneinstrahlung in höheren geographischen Breiten für den Wechsel von Warm- und Kaltzeiten verantwortlich.

Abbildung 3: Rekonstruktion der Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650.000 Jahren, aus Köppen & Wegener (1924), Graphik von M. Milanković, gemeinfrei aus Wikipedia

Nach Köppen und Wegener kommt es bei einer Kaltzeit nämlich gar nicht darauf an, wie extrem kalt es im Winter wird, sondern wie viel Schnee und Eis über den Sommer liegen bleibt. Das gilt insbesondere für die polaren Regionen in den höheren geographischen Breiten, wo durch eine solche Erhöhung der sommerlichen Albedo dann weitere Sonneneinstrahlung reflektiert wird, sodass dadurch keine Materie mehr erwärmt werden kann und folglich die Temperaturen sinken.

Die dänischen Forschungseinrichtungen für die Arktis präsentieren auf ihrem Polar Portal die Daten über den Zustand zweier Hauptkomponenten der Arktis, der grönländischen Eisdecke und des Meereises. Die nachfolgende Abbildung von diesem Portal zeigt, wie die Oberfläche des grönländischen Eisschildes täglich an Masse gewinnt und verliert, also die Oberflächenmassenbilanz. Die Massenverluste durch Abkalben von Gletschern sind dort nicht enthalten.

Abbildung 4: Oberflächenmassenbilanz der aktuellen Saison für das Grönländische Eisschild gemessen in Gigatonnen (1 Gt entspricht 1 Milliarde Tonnen und entspricht 1 Kubikkilometer Wasser). Die dunkelgraue Kurve zeichnet den Mittelwert aus dem Zeitraum 1981-2010. Quelle: Dänisches Polar Portal

Das hellgraue Band in Abbildung 4 zeigt die jährlichen Masseunterschiede von Jahr zu Jahr für den Zeitraum 1981-2010, wobei die niedrigsten und höchsten Werte für jeden Tag weggelassen worden sind. Wir können deutlich erkennen, dass der Masseverlust des Grönländischen Eisschildes erst Anfang Juni beginnt und bereits in der 2. Augusthälfte endet, also auf etwa drei Monate im Jahr beschränkt ist und im Maximum auf den Juli fällt. Wenn sich dieser kurze Zeitraum der Schmelze in den höheren geographischen Breiten noch weiter einschränken würde, bliebe dort dann von Jahr zu Jahr etwas mehr Schnee und Eis liegen und es würde immer mehr Sonnenstrahlung reflektiert und trüge nicht mehr zur terrestrischen Temperaturgenese bei. Wir erinnern uns an den Unterschied zwischen der spezifischen Strahlungsleistung und der übertragenen Wärmemenge:

Abbildung 5: Zum Unterschied zwischen Leistung und Arbeit der solaren Einstrahlung. Links: Gemittelte 24h-tagesdurchschnittlich zurückgerechnete Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr (Abbildung 22 b aus Kramm et al. (2017): … (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1) – Creative Commons License CC BY 4.0)´. Rechts: Die maximale spezifische solare (Strahlungs-)LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (nicht flächengetreu – weitere Erläuterungen sind hier zu finden)

In den höheren geographischen Breiten ist also die solare Arbeit im Sommerhalbjahr sogar noch größer als in den Tropen, die maximal mögliche S-B-Gleichgewichtstemperatur folgt allerdings immer dem höchsten Sonnenstand zwischen den beiden tropischen Wendekreisen des Krebses und des Steinbocks, wobei diese Temperatur aufgrund von Konvektion und Verdunstung nirgendwo erreicht wird. Einen möglichen Wirkmechanismus für ein natürliches Klimaforcing hatte ich hier auf KS beschrieben.

Es gibt auf unserer Erde keine Energiequelle, die den Wechsel zwischen Kalt- und Warmzeiten verursachen kann. Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Aber selbst die Schwankung der solaren Einstrahlung innerhalb dieser Zyklen reicht vom Betrag her als Erklärung für den Wechsel von klimatischen Kalt- und Warmzeiten nicht aus. Die Albedo unserer Erde ist die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann, und zwar, ganz generell nach Gleichung (3) betrachtet, zwischen den Extrema einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, entsprechend einer temperaturwirksamen spezifischen solaren Strahlungsleistung von 1.367W/m² respektive 0W/m².

Die Klimasensitivität der Sonnenstrahlung

Den „Antrieb X“ aus Gleichung (1), Zitat:Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung“, hatte ich nicht übernommen. Stattdessen hatte ich in Gleichung (3) den variablen Term (+/- S0*DELTA ALBEDO) mit der Erd-Albedo eingeführt. Wie ich hier auf KS bereits einmal ausführlich dargestellt hatte, können die Schwankungen des natürlichen Paläo-Klimaantriebs als (+/-DELTA ALBEDO) durch ein Albedo-Forcing beschrieben werden, und zwar mit 13,67 [W/m²] pro Prozent Albedo und 9 [W/m²] pro Kelvin:

Douglas und Clader [2] geben die Klimasensitivität k der Sonneneinstrahlung aus eigenen Versuchen zu

Gleichung 4: Delta T/Delta F = k = 0,11 +/- 0,02  [°Celsius / Wm2]  an.

Damit ergibt sich für die Vostok-Temperaturproxys von 5,44°C bis 18,06°C um die sogenannte globale Durchschnittstemperatur (NST) von 14,8°C eine Schwankungsbreite der spezifischen solaren Strahlungsleistung von:

Gleichung 5: DELTA FV@NST = +29,36 [W/m²] und -85,36 [W/m²]

Dieser Betrag stimmt in etwa mit den Berechnungen von Lascar et al. [3] überein, die für 65°N / 120°E eine Schwankung der Sonneneinstrahlung von bis zu +/- 50 [W/m²] über orbitale Zyklen angeben. Aus der Solarkonstanten von 1.367 [W/m²] und der Albedo von Douglas und Clader [1] mit a = 0,3016 ergibt sich eine reflektierte/refraktierte Energiemenge von 412,29 [W/m²], die nicht zur Klimaentwicklung beiträgt. Daraus wiederum lässt sich ein Beitrag von 13,67 [W/m²] pro Prozent Albedo ermitteln und, umgerechnet auf die Extremwerte der absoluten Vostok-Temperaturproxys, eine Schwankungsbreite für die Albedo der Erde von:

Gleichung 6: F@amin =  412,29  – 29,36  [W/m²]  =   382,93 [W/m²]  mit dem Albedo  amin0,2801

Gleichung 7: F@amax =  412,29  + 85,36  [W/m²]  =  497,65 [W/m²]  mit dem  Albedo  amax = 0,3640

In der nachfolgenden Abbildung sind die Vostok-Temperaturproxys in Albedoschwankungen umgerechnet worden, und zwar beginnend mit einer Albedo von 0,3016 für die aktuelle „gemessene“ globale Durchschnittstemperatur (NST) von 14,8° Celsius:

Abbildung 6: Die Varianz der Erdalbedo über die Warm- und Kaltzeiten abgeleitet aus den Vostok Temperaturproxys [1]

Übrigens: Kaltzeiten dürften jeweils in einem Zeitabschnitt beginnen, in dem die Nordsommer auf das Abhel der elliptischen Erdbahn fallen, weil dort die Sommersonne schwächer ist als im Perihel; und genau in diesem Abhel befinden wir uns gerade. Und wenn Sie jetzt die Abbildung 6 auf Sich wirken lassen, würden Sie da auf die Idee kommen, die Albedo unserer Erde künstlich zu erhöhen?

Die Menschheit hat mit der Albedo unserer Erde möglicherweise erstmals einen echten „Kipp-Punkt“ für unser globales Klima zu fassen bekommen. Und im heiligen Klimawahn sollten wir jetzt nicht wie unwissende Kinder an dieser Stellschraube herumpfuschen und das Klimaparadies unserer Warmzeit zerstören.

Aber eine Stimme aus dem Off sagte, „Beruhige Dich, denn es könnte schlimmer kommen…“

Und natürlich kommt es noch schlimmer. In einem EIKE-Artikel erklärt Professor Valentina Zharkova, wie sich aus dem zyklischen Wechsel des Solardynamos zwischen einem poloidalem und einem toroidalem Magnetfeld durch deren Interferenz eine Schwebungsfunktion ergibt. Diese Schwebung verursacht Schwankungen der Gesamtabstrahlung unserer Sonne (Total Solar Irradiance =TSI), die wiederum zu Großen Solarzyklen von 350-400 Jahren führen sollen, wie die nachstehende Abbildung zeigt:

Abbildung 7: Rekonstruierte Kurve der Sonnenaktivität für 1200-3300 n. Chr. (aus einer Zusammenfassung auf EIKE, Daten von Zharkova et al. (2020).

Und das ist immer noch nicht alles. V.M. Velasco Herrera, W. Soon und D.R. Legates haben gerade einen neuen Artikel mit dem Titel, “Does Machine Learning reconstruct missing sunspots and forecast a new solar minimum?” veröffentlicht. In der Presseerklärung heißt es dazu u.a., Google-übersetztes Zitat:

Die drei Wissenschaftler haben einem Algorithmus für maschinelles Lernen beigebracht, wie man zugrunde liegende Muster und Zyklen in den Sonnenflecken der letzten 320 Jahre erkennt. Der Algorithmus entdeckte dann eine bisher unbemerkte Wechselwirkung zwischen den 5,5-jährigen Sonnenhalbzyklen (blau) und den 120-jährigen Gleissberg-Doppelzyklen […], die es ihm ermöglichte, die früheren Vorhersagen eines ruhigen halben Jahrhunderts zu bestätigen – Vorhersagen, die jetzt von Sonnenphysikern geteilt werden.“

Die nachfolgende Abbildung zeigt eines der Ergebnisse von Velasco Herrera et al.:

Abbildung 8: “The Sun may be quiet for half a century” aus der Presseerklärung von Velasco Herrera et al. (2021)

Auch nach diesen Ergebnissen einer KI-Signalanalyse der Sonnenflecken steht uns offenbar ein solares Minimum bevor. Und sogar die NASA rechnet für die kommenden Jahre mit einem neuen solaren Minimum, Zitat aus einem EIKE-Artikel:

Die neue Untersuchung wurde von Irina Kitiashvili geleitet, einer Forscherin des Bay Area Environmental Research Institute am Ames Research Center der NASA im kalifornischen Silicon Valley. Sie kombinierte Beobachtungen von zwei NASA-Weltraummissionen – dem Solar and Heliospheric Observatory und dem Solar Dynamics Observatory – mit Daten, die seit 1976 vom bodengestützten National Solar Observatory gesammelt wurden.“

Abbildung 9: Die Vorhersage der NASA für den Sonnenzyklus 25 zeigt, dass er der schwächste der letzten 200 Jahre sein wird. (Abbildung aus einem EIKE-Artikel)

Man macht sich also grundsätzliche Gedanken über eine Verminderung der Globaltemperatur durch eine künstliche geotechnische Verringerung der solaren Einstrahlung, und zwar ausgerechnet zu einem Zeitpunkt, wo

  • das gegenwärtige Interglazial in seinem letzten Drittel steht,
  • die Nordsommer auf das Aphel der elliptischen Erdbahn mit den größten Sonnenabstand fallen
  • und für die nächsten Jahrzehnte durch mehrere unabhängige Forschungsergebnisse ein solares Minimum vorausgesagt wird.

Das Orakel von Delphi würde uns an dieser Stelle vielleicht weissagen, dass wir den befürchteten menschengemachten Hitzekollaps unserer Erde sicher vermeiden werden, wenn wir es durch Klimaengineering schaffen sollten, dass im Sommer der höheren geographischen Breiten in aufeinander folgenden Jahren zunehmend mehr und mehr Schnee und Eis liegen bleiben. Allerdings war das Orakel von Delphi auch immer so höflich, sich über die Konsequenzen eines vermeintlichen Erfolges auszuschweigen…

Referenzen

[1] Vostok ice-core data [NOAA]: Petit, J.R., et al., 2001, Vostok Ice Core Data for 420,000 Years. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2001-076. NOAA/NGDC Paleoclimatology Program, Boulder CO

[2] Douglas and Clader (2002): Climate sensitivity of the Earth to solar irradiance. GEOPHYSICAL RESEARCH LETTERS, VOL. 29, NO. 16, 10.1029/2002GL015345, 2002

[3] Laskar et al.:  Orbital, precessional, and insolation from -20Myr to +10Myr. Astronomy & Astrophysics 270, 522-533 (1993) – Figure 5