Das Geschäft mit der Angst, die unendliche Geschichte….oder, lernen wir Deutsche gar nichts aus der Geschichte? Teil 1: anthropo­gener Klima­wandel

Abb.1, links Quelle: Bild vom Gemälde von Peter Paul Rubens: Papst Leo X. Rechts: UN-Generalsekretär Guterres, einer der Haupttreiber beim sog. anthropogenen Klimawandel, Quelle: Deutscher Bundestag.

Der Artikel soll zeigen, dass wir in der Tat einen menschengemachten Klimawandel (Erderwärmung) haben, aber nicht auf der Basis sog. Treibhausgase wie CO2, sondern auf der Basis manipulierter Maßsysteme/Messungen. Die Dreistigkeit, mit der dabei vorgegangen wird, wird mit zunehmender Abnahme der solaren Tätigkeit, immer dreister. EIKE berichtete darüber hier , hier oder hier. Zuerst will der Autor einen Blick darauf werfen, inwieweit die Aussage vom Rückgang der solaren Tätigkeit, z.B. einer „kalten“ Sonne berechtigt ist.

Abb.2 (Quelle) zeigt den 11-jährigen Schwabe-Zyklus (Zyklus 23 und 24) der Sonne bis 2020, sowie den projizierten 25 Sonnenzyklus bis 2030. Deutlich zu erkennen, dass die solare Aktivität, gemessen an der Sonnenfleckenzahl – diese betrachtet der Schwabe-Zyklus – deutlich zurück gegangen ist.

Nun lässt sich die Aktivität der Sonne nicht an einem einzigen Parameter festmachen, wie z.B. die (unsinnige) Behauptung, die Erderwärmung hinge einzig am CO2, sondern die solare Aktivität ist weitaus komplexer. In seinem 8-teiligen Eike-Bericht, „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hatte der Autor dies 2011 dezidiert aufgezeigt.

Wichtig für die Erdtemperatur ist neben der solaren Einstrahlung, der Grad der Wolkenbedeckung, die die Sonnenscheindauer bestimmt. Niemand wird bestreiten wollen, dass ein wolkenloser Himmel für höhere Tagestemperaturen sorgt, als ein wolkenverhangener Himmel zur gleichen Jahreszeit und geographischer Breite. Dem interessierten Leser fällt hier sicherlich zuerst der Svensmark-Effekt ein, der darlegt, dass die Wolkenbedeckung mit dem Maß der solaren Aktivität (über die Modulation der kosmischen Strahlung durch den Sonnenwind) zusammenhängt. Der Sonnenwind wiederum wird (zumindest tlw.) durch die Sonnenflecken und die solaren Flares (Sonneneruptionen) beeinflusst.

Wie gesehen, ist die Fleckenaktivität seit Jahren vglw. gering und auch die magn. Aktivität der Sonne, die für die Flares mitverantwortlich ist, ist fallend (Abb.3).

Abb.3 (Quelle) zeigt die jährliche Anzahl magnetischer Stürme (blau) und die geglättete Sonnenfleckentätigkeit. Im 20. Jahrhundert ist eine deutliche Zunahme der magnetischen Aktivität der Sonne zu verzeichnen, die etwa um das Jahr 1900 begann. Seit Beginn des Jahrtausends fällt die magn. Aktivität der Sonne wieder.

Abb.3 zeigt einen etwa 100 jährigen Anstieg der solaren Aktivität. Diese fällt zusammen mit dem Anstieg im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus.

Warum Hauptsonnenzyklus? Den Grund zeigt Abb.4.

Abb.4, Quelle: Orgutschov et al. Aanhand der Fourier-Analyse werden in der Sonnenfleckenzahl verschieden Perioden sichtbar. Die dominanteste ist die 205-Jahres-Periode, was dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus entspricht. Darüber hinaus ist eine 85-Jahres-Periode, der Gleissberg-Zyklus, eine 60-Jahres-Periode (Landscheidt-Zyklus) und die 1.020-Jahres-Periode erkennbar.

In ihrer Arbeit „Multi-periodic climate dynamics: spectral analysis of long-terminstrumental and proxy temperature records“ untersuchten die Wissenschaftler Lüdecke, Hempelmann und Weiss den Einfluss des de Vries-Suess-Zyklus auf die Erdtemperaturen und fanden den in Abb. 5 dargestellten Verlauf der Temperaturanomalien.

Abb.5, Quelle: Lüdecke, Hempelmann und Weiss zeigt die Temperaturanomalie der letzten 250 Jahre. Der Verlauf folgt dem de Vries-Suess-Zyklus der Sonne, der in 2002/2003 sein Aktivitätsmaximum erreichte.

Bezogen auf seine mittlere (statistische) Länge von 208 Jahren, lag sein (statistisches) Minimum um das Jahr 1899. Das Jahr 2020 liegt 17 Jahre nach seinem letzten Maximum. Normiert auf die Zeit (Jahre) sind dies 16% entfernt vom Maximum. Das Jahr 2020 liegt somit noch 84% vom nächsten Minimum entfernt. In diesem Zusammenhang von einer schwachen Sonne oder gar „kalten“ Sonne zu reden, ist denn auch fehl am Platz und weitaus verfrüht. Dies zeigt Abb.6.

Abb.6 (Quelle) zeigt die heliosphärische Stromschicht (current sheet = HCS), den die Sonne in den Orbit schickt. Neben dem Sonnenwind ist sie der entscheidende Parameter, der Aufschluss über die magnetische Aktivität der Sonne gibt. Die Abb. zeigt, dass die Sonne (obwohl schwach im Schwabe-Zyklus, siehe Abb. 2, Zyklus 24) im 24. Schwabezyklus ihren zweitstärksten Aktivitätszyklus ausgebildet hat. Beim HCS ist nicht das Maximum ausschlaggebend, sondern das Flächenintegral. Im Zeitraum, als der Hauptsonnenzyklus sein Maximum erreichte (um 2003) hatte die Sonne ihre stärkste Aktivität, wie Abb.6 transparent zeigt.

Eine kurze Erklärung.

Heliospheric Current Sheet (HCS)

Das Interplanetarische Magnetfeld ist auf der Erdbahn mit einer Stärke von 1 – 10 nT 100 bis 1000-fach stärker, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab). Deshalb muss es einen Effekt geben, der es verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km. Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei ca. 104 A/km².

Die Heliosphärische Stromschicht dreht sich mit der Sonne und braucht für einen Umlauf knapp 4 Wochen. In diesem Zeitfenster befindet sich die Erde einmal über und einmal unterhalb der HCS. Da sich die Erde in 365 Tagen einmal um die Sonne bewegt, gerät sie mehrfach abwechselnd in den Bereich von südlich, bzw. nördlich gerichteten Magnetfeldern der Sonne, wobei sie jedes Mal die Heliosphärische Stromschicht durchquert. Die Lage der HCS im Orbit ist dabei abhängig von der solaren Aktivität (in Abb.6 ist daher als Maß der Aktivität der Winkel – Inclination = Neigung – angegeben).

In seiner Abhandlung „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ ist der Autor im Teil 4b (hier) näher auf die HCS eingegangen.

Was hat das nun mit dem Klima und der Erdtemperaturen zu tun? Nun, eine ganze Menge. Hat die HCS doch direkten Einfluss auf die irdische Wolkenbedeckung und niemand wird ernsthaft bestreiten wollen, dass eine strahlende Sonne am Himmel (mit wenig Wolken), die Temperaturen höher steigen lässt, als ein wolkenverhangener Himmel. Mit ihrem Einfluss auf die Gewitteraktivität hat sie einen weiteren unmittelbaren Einfluss auf trockene oder nasse Sommer. Siehe hierzu z.B.:

„Lightning as a space‐weather hazard: UK thunderstorm activity modulated by the passage of the heliospheric current sheet“, Owens et al. 2015, Geophysical Reseach Letters (https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2015GL066802)

„Daily changes in global cloud cover and Earth transits of the heliospheric current sheet“, D.R. Kniveton und B.A. Tinsley., Journal of Geophysical Research Atmospheres. (https://www.researchgate.net/publication/238494062_Daily_Changes_in_Global_Cloud_Cover_and_Earth_Transits_of_the_Heliospheric_Current_Sheet)

Zum Einfluss der solaren Aktivität auf den irdischen Niederschlag siehe auch Stanford University (hier).

Im Teil 7 seiner Arbeit „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hat der Autor mögliche Zusammenhänge der HCS mit der nordatlantischen Hurrikanaktivität dargelegt (hier, darin Abbildung 179)

Wie gezeigt, haben warme und trockene Jahre nichts mit sog. Treibhausgasen zu tun, sondern sind allein auf die solare Aktivität zurückzuführen, wie Abb. 7 und 8 weiter zeigen.

Abb. 7a stammt aus der Arbeit von Wang et al 2000 (hier) und zeigt die Polarität des Sonnenmagnetfeldes*.

* Der magnetische Zyklus wird Hale-Zyklus (der Astronom George Hale maß Anfang des 20. Jahrhunderts erstmals Magnetfelder in den Sonnenflecken) genannt und beträgt 22,1 Jahre. Dies ist der eigentliche Zyklus der Sonnenfleckenaktivität. Fleckengruppen setzen sich aus nordmagnetischen und südmagnetischen Flecken zusammen, die bipolar angeordnet sind. Während eines 11-jährigen Zyklus (Schwabe-Zyklus: 8 – 15 Jahre) laufen bei der Rotation der Sonne entweder die Nordpole oder die Südpole ständig voraus (Hale´s Polaritätsgesetz). Nach 11 Jahren kehrt sich diese Polarität um. Es vergehen also zwei 11-jährige Zyklen, bis die gleiche Anordnung wieder erscheint.

Abb.8 (Quelle) zeigt den Hale-Zyklus von 1800 – 2009 (obere Datenreihe). Die Rauten geben US-Trockenjahre an und die untere Datenreihe zeigt El-Niño-Ereignisse. Während El-Niño-Ereignisse keinen direkten Zusammenhang mit dem Hale-Zyklus erkennen lassen, zeigen die US-Trockenjahre, also bewölkungsschwache Jahre, eine deutlich Häufung zum Hale-Zyklus und zwar immer dann, wenn die Polarität des Sonnenmagnetfeldes N+ und S- beträgt.

Abb.7b, in Abb.2 hat der Autor die Informationen aus Abb.7a bis in unsere Zeit (Jahr 2020) erweitert. Aufgrund der solaren Aktivität sind die Jahre 2017 bis 2020 als „Trockenjahre“ zu bezeichnen, was wohl in 2021 anhalten wird. Mit irgendwelchen sog. Treibhausgasen oder einem angeblichen menschengemachten Klimawandel hat das rein gar nichts zu tun, sondern sind wiederkehrende Ereignisse, wie sie im 22-jährigen Hale-Zyklus und/oder im 208-jährigen de Vries-Suess-Zyklus „üblich*“ sind.

* So verlor z.B. der bekannte Pilgervater und spätere Gouverneur von Plymouth, William Bradford, aufgrund mehrerer nachfolgender Trockenjahre in der Mitte der 1590-Jahre in England, die die Ernten vernichteten, sein (bescheidenes) Vermögen. Quelle: ARTE-Sendung „Aufbruch in die neue Welt“, Doku USA 2015 „Die Pilgerväter“.

Abb.9 zeigt die Kälteperioden der letzten 1.100 Jahre (Dreiecke ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus (grüne Dreiecke). In der Zeit der 1590-Jahre hatte der Hauptsonnenzyklus sein Maximum.

Auch das Temperaturverhalten nach einem Hauptsonnenzyklus ähnelt dem des anderen, wie ein Blick auf historische Temperaturaufzeichnungen zeigt (Abb.10).

Abb. 10, Quelle: Prof. Ewert, zeigt die Temperaturen in München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Im Vergleich zu heute bis zum Jahr 2025 – 2035.

Bis zum erreichen seines Minimums, sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten (blaue Fläche). Vor einem erneuten Temperaturanstieg (steigender Sonnenzyklus), fallen die Temperaturen auf ein Minimum und steigen dann kontinuierlich an (schwarze Linien).

Dies gilt auch für die übrigen europäischen Städte, deren Temperaturaufzeichnungen bis in diese Zeit zurückreichen. Für Mittelengland liegen noch weiter in die Vergangenheit zurückreichende Temperaturaufzeichnungen vor. Diese zeigen, dass der Temperaturgang bei dem davorliegenden Maximum im Hauptsonnenzyklus nach dem gleichen Muster verlaufen, Abb.11.

Abb. 11: Temperaturgangreihe Zentralenglands von 1659 – 2000 (Quelle: Prof. Ewert). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Auch beim davor liegenden Hauptsonnenzyklus, fallen zuerst die Temperaturen stark, bevor sie dann wieder ansteigen (schwarze Linien).

Fazit

1. Sowohl die heutigen Temperaturen, als auch deren Wechselverhalten, wie die Trockenperioden sind natürlich wiederkehrende Ereignisse nach dem Maximum im Hauptsonnenzyklus. Mit sog. Treibhausgasen hat dies nichts zu tun.

2. In Anbetracht, dass die Sonne noch 86% (normiert auf die Zeit) von ihrem Aktivitätsminimum in ihrem Hauptzyklus entfernt ist, sind Aussagen von einer schwachen oder gar „kalten“ Sonne unangebracht und fehl am Platz. Wir Menschen neigen lediglich dazu, Dinge, die wir sehen (hier deren Fleckenaktivität in Abb.2), höheres Gewicht zukommen zu lassen. Bei der Sonne, die neben ihrer Fusionsenergie die Erde mit ihrer magn. Energie direkt und vor allem indirekt beeinflusst, eine falsche Gewichtung.

3. Meldungen von „höchsten“ Temperaturen, etc. sind auf dreiste Temperaturfälschungen, sowohl bei den Daten (bitte erinnern Sie sich an „Climategate“), wie bei der Messerfassung (vor 50 oder 100 Jahren wurde mit Quecksilber gemessen, heute durchweg elektronisch), aber vor allem bei der Auswahl der Messstationen zurück zuführen. Siehe Abb.12.

4. Aus 3 folgt, dass bei Temperaturvergleichen von heute zu früher durchweg „Äpfel mit Birnen“ verglichen werden und damit sämtliche Temperaturvergleich von DWD (Deutschem Wetterdienst, etc.) wertlos sind.

Abb.12 (Quelle) zeigt, dass mittlerweile fast ausschließlich Messstationen, die für die Mittelwertvergleiche herangezogen werden, aus städtischen Regionen stammen. Die der ländlichen hat drastisch abgenommen. Jeder braucht nur auf die Anzeige der Fahrzeugaußentemperatur zu schauen, um zu wissen, dass die Temperatur in Städten um bis zu 3°C höher ist, als in ländlichen Gebieten.

Weiter wird in vielen Gebieten der Erde überhaupt nicht gemessen und doch dreist von einer Globaltemperatur gesprochen. Vgl. Bericht im o.g. Link und die Vorgehensweise des Met Office.

Wie sehr sich die Temperatur allein durch die Bodenbeschaffenheit ändert, zeigt Abb.13.

Abb.13 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975.

Zu Abb. 13: Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern auch, dass ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen, weil sich das Landschaftsbild über die Jahrzehnte änderte oder städtische Messstationen, die fast 90% der Datenquelle ausmachen, geben somit deutlich höhere Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich.

Mittlerweile räumt sogar der DWD ein, dass mit solchen Aussagen wie „heißester“… etwas nicht stimmt und diese falsch sind, Abb.14.

Abb.14, Quelle: Bildzeitung vom 18.12.2020.

Es ist eine geradezu unverantwortlich, das auf solch einer falschen, auf Lügen und Betrug aufgebauten Metapher, gemeint ist der sog. anthropogene Klimawandel, hunderte von Milliarden Euro von unten nach oben verteilt werden, unsere Wirtschaft und Industrie ruiniert wird und letztendlich unsere Arbeitsplätze vernichtet werden.

Von Politik und Staatsmedien hochgepriesene neue Wirtschaftszweige, die stattdessen für vernichtete Branchen (als eine der letzten ist die Automobilindustrie dran) entstehen würden, entpuppen sich denn auch als nicht überlebensfähig (z.B.: Solarindustrie) oder als schlichte Betrugsfirmen, wie wirecard, die parasitengleich das Volksvermögen abzweigen, dass über Jahre der „Karle vom Band“ oder die „Jutta vom Einzelhandel“ erwirtschaftet haben.

Für solche Firmen macht dann die Kanzlerin auch noch Werbung. Aber Intelligenz ist offenbar nicht jedermanns (oder jederfraus) Sache.

(Teil 2 folgt demnächst)




Was macht die Temperatur?

Die Computermodelle des IPCC (Intergovernmental Panel on Climate Change, Weltklimarat) sind nach wie vor von sehr begrenztem Wert, die resultierenden Vorhersagen so gut wie unbrauchbar – das Weltklima ist einfach zu kompliziert. So reichen die Prognosen des IPCC für die CO2-Klimasensitivität (Temperaturanstieg bei Verdoppelung des CO2) von 1,6 bis 5,6 Grad C, aber nur mit einer Wahrscheinlichkeit von 66%. Vor diesem unbefriedigenden Hintergrund haben, wie überall in der Physik, Messungen das letzte Wort. Und die gibt es inzwischen schon seit längerer Zeit. Ist es da nicht besser, man orientiert sich an konkreten Messergebnissen anstelle von fragwürdigen und in aller Regel übertriebenen Alarm-Prognosen?

Die Temperatur-Werte, ermittelt von vielen tausend Stationen, enthalten allerdings auch Fehlerquellen wie unregelmäßig verteilte Messstationen, welche Stationen ausgewählt werden, Messungenauigkeiten sowie die meist intransparenten Adjustierungen und Homogenisierungen der Messdaten. Über den Ozeanen und vor allem auf der Südhalbkugel gibt es weniger Messstationen. Je älter die Temperaturdaten, desto größer sind die Ungenauigkeiten. Belege für „gezielte“ Anpassungen gibt es ebenfalls. Nachfolgende HadCRUT4-Bodendaten werden auch vom IPCC verwendet – schon deshalb ist eine „Untertreibung“ eher unwahrscheinlich.

Unschwer ist zu erkennen, dass den Temperaturverläufen Periodizitäten überlagert sind, für die es teilweise gute Beschreibungsansätze gibt (Ozeanische Oszillationen, El Niño, Nord-Süd-Klimaschaukel, Solarzyklen verstärkt durch kosmische Strahlung und Wolkenbildung), die aber in den Klimamodellen bisher kaum Berücksichtigung finden. Auch ist bis heute nicht sicher bekannt, welche natürlichen Vorgänge die historischen Klimaschwankungen verursacht haben – wie damals die Mittelalterlichen Warmzeit, als u.a. die Wikinger Grönland besiedelten, und die vorausgegangenen Warmzeiten davor.

Die Ozeane stellen einen riesigen Wärmespeicher dar, mehr als 100mal größer als die gesamte Atmosphäre. Insbesondere in den tieferen Ozeanbereichen folgen die Meerestemperaturen einer Erderwärmung nur sehr langsam, von bis etwa 1000 Jahren Verzögerung ist die Rede. Auch wird über den Ozeanen weniger Temperaturanstieg gemessen als über Land. Zusätzlich sind die Temperaturanstiege auf der Nordhalbkugel größer als auf der Südhalbkugel (Klimaschaukel?).

Zusätzliche Einflüsse wie die Wärmeinseleffekte durch zunehmende Bebauung und möglicherweise der Luftverkehr (Eintrag von Aerosolen in die Stratosphäre) bis hin zur wachsenden Energiefreisetzung von immer mehr Menschen spielen ebenfalls eine Rolle. Worauf hier nicht näher eingegangen wird, weil der Einfluss von natürlichen Ursachen auf den Temperaturverlauf zwar oftmals plausibel ist, aber aus heutiger Sicht dennoch meist spekulativ. Die Vorgaben der 1,5 Grad bzw. 2 Grad-Ziele gemäß Paris-Abkommen beziehen sich immer auf globale Mitteltemperaturen, worauf auch hier der Schwerpunkt gelegt wird.

Der Temperaturanstieg seit Beginn der Industrialisierung fand vor allem im Laufe des letzten 120 Jahre statt (Darstellung unten nach Dr Kevin Cowtan – University of York, gefunden bei Kalte Sonne). Der Temperaturrückgang/-stillstand nach dem Jahr 2000 („Hiatus“), der den Temperaturrückgang zwischen 1945 und 1975 im Ansatz zu wiederholen schien, wurde seit 2016 von zwei El Niños unterbrochen. Was den Medien Gelegenheit gibt, fortlaufend „hohe“ Temperaturwerte zu vermelden, auch wenn es nur Zehntelgrad-Rekorde sind. Dennoch, in den kommenden zehn Jahren wird es spannend, wie es mit den Temperaturen weitergeht.

Setzt man diesen 120-jährigen Temperaturtrend fort, dann ist bis 2100 ein weiterer Temperaturanstieg von nur etwa 0,66 +/- 0,07 Grad C zu erwarten, was niemanden beunruhigen muss.

Von 1978 bis etwa 2005 korrelierten das CO2 und die Temperaturen kurzzeitig, was der Alarmforschung bekanntlich Auftrieb gab. Dazu in der nachfolgenden Grafik (von climate4you) rot eingetragen die CO2-Konzentration in der Atmosphäre, gemessen auf dem Mauna Loa. Davor und danach ist die Korrelation deutlich schlechter. Die beiden Peaks seit 2016 sind, wie bereits erwähnt, Folge des unregelmäßig wiederkehrenden Klimaphänomens El Niño, das von den Klimamodellen ebenfalls nicht dargestellt werden kann. Der CO2-Anstieg müsste genau genommen logarithmisch eingetragen werden, weil auch die spektroskopische Erwärmung nur dem Logarithmus der CO2-Konzentration folgt. Was dann den CO2-Anstieg etwas weniger „dramatisch“ aussehen lässt.

Seit etwa 1979 gibt es Satellitenmessungen, bei denen ebenfalls global gemessen wird und zwar die Mikrowellenstrahlung von O2 (Sauerstoff) in der Troposphäre:

Bei den Satellitendaten wird offenbar weniger manipuliert, doch auch hier gibt es einige Fragen: Man misst die Temperaturen in der Troposphäre und nicht in Bodennähe. Auch sind Nachjustierungen bei den Bahnparametern von Zeit zu Zeit erforderlich – zumindest, wenn dies bei den Satelliten nicht automatisch erfolgt. Auch gibt es z.B. bei El Niño Zeitverzögerungen, bis die Troposphäre den Bodentemperaturen folgt. Die hier gezeigten Satellitendaten schneiden immerhin gut ab beim Vergleich mit Ballonmessungen und sog. Nachrechnungen – siehe hier.

Bei Satellitendaten ist ferner zu beachten, dass es sie erst seit 1979 gibt, also seit Beginn der relativ steilen Anstiegsphase, ähnlich, wie sie auch schon von 1910 bis 1945 aufgetreten ist – was für eine „Übertreibung“ aufgrund der Auswahl des Zeitfensters spricht. In diesem kurzen Zeitabschnitt ist der Temperaturanstieg pro Dekade beinahe doppelt so hoch wie in den letzten 120 Jahren. Auch ist das Unsicherheitsintervall mehr als fünfmal größer.

Statistisch gesehen erlaubt deshalb der 120-jährige Messzeitraum, wie in der ersten Abbildung oben dargestellt, die verlässlichste Prognose mit einem Temperaturanstieg von nur 0,66 +/- 0,07 Grad C bis 2100. Wobei mit längerer Messdauer die Unsicherheitsintervalle immer kleiner werden.

Der reale Temperaturanstieg dürfte in Wirklichkeit sogar noch kleiner sein, wie z.B. der dänische Geologe Prof. em. Dr. Johannes Krüger ausführte:

Die offizielle, von NOAA (National Oceanic and Atmospheric Administration) entwickelte Temperaturkurve der globalen Temperatur für den Zeitraum 1900-1999, die das IPCC in seinen Berichten vorgestellt hat, wurde umfassend angepasst, um einen viel höheren Temperaturanstieg als die ursprünglichen Temperaturdaten zu zeigen. Die Anpassung trägt bis zu 0,3 ° C der postulierten globalen Erwärmung von 0,7–0,8 ° C während des 20. Jahrhunderts bei. Die Schlussfolgerung ist daher, dass die globale Temperatur zwischen 0,4 ° C und 0,7 ° C angestiegen ist, wobei die erste Zahl auf der ursprünglichen Temperaturreihe und die letzte auf angepassten und manipulierten Daten basiert. Keiner dieser Werte ist in irgendeiner Weise alarmierend.“

Was folgt daraus? Man sollte die Temperaturen unaufgeregt weiter beobachten, zumal Ozeane und Pflanzen immer mehr von dem atmosphärischen CO2 aufnehmen. Was auch die stark zunehmende Begrünung der Erde sowie die gestiegenen Ernteerträge beweisen. Und hinzu kommt, dass die Temperaturen, wenn überhaupt, aus spektroskopischer Sicht nur logarithmisch mit dem CO2 ansteigen. Auch gehen die „Fossilen“ sowieso früher oder später zur Neige. Selbst wenn nicht, was vor allem russische Wissenschaftler behaupten, ist genügend Zeit vorhanden, Temperaturen und das CO2 in der Atmosphäre vorerst weiter zu beobachten. Auch sollte man notwendige Folgetechniken möglichst dem Markt überlassen und nicht einer grünen Staatsplanwirtschaft!

Da die deutsche Energiewende kein tragfähiges Energiekonzept für die Zukunft bietet, wird voraussichtlich an Dual Fluid-Reaktoren der 4. Generation längerfristig kein Weg vorbei führen – sie sind inhärent sicher. Auch sind damit die bisher gelagerten Brennstäbe zu 90 bis 95% nutzbar. Bereits heute ist die Kerntechnik die mit Abstand sicherste Energietechnik – und dies trotz der Tschernobyl-Katastrophe. Letztere trat ein als Folge eines untauglichen Reaktorkonzepts sowie unglaublicher Bedienungsfehler. Die 20.000 Fukushima-Opfer waren ausschließlich dem Tsunami geschuldet, und nicht, wie es uns Grüne suggerieren, der Reaktor-Havarie, die sich dank unzureichendem Tsunami-Schutz ereignete. Der Kernbrennstoff Thorium sollte bei dem neuen Reaktorkonzept für mindestens 1 Mio. Jahre reichen. Bis dahin funktioniert auch die Fusion… Prozesswärme für synthetische Kraftstoffe gäbe es dann auch – Mobilität mit gewohntem Komfort und Reichweiten wäre möglich.

Die erhofften Resultate der geplanten CO2-Reduktion sind dagegen in jeder Hinsicht höchst ungewiss. Das beginnt mit der Frage, welche Staaten dabei überhaupt mitmachen – Deutschland alleine ist hier vollkommen bedeutungslos! Schon deshalb bleibt offen, wie viel CO2 überhaupt reduziert werden kann, und was, last but not least, bei den Temperaturen damit letztlich erreicht werden wird (und welches Temperaturziel überhaupt gelten soll). Auf die Klimamodelle kann man sich dabei nicht verlassen. Somit ist die Dekarbonisierung eine jahrzehntelange sehr kostspielige Geisterfahrt mit höchst ungewissem Ergebnis – die nachhaltige Schädigung des Industriestandorts Deutschland ist dagegen gewiss!

Wenn überhaupt, wären für eine CO2-Reduktion weltweite Aufforstungsprogramme sinnvoller und  für eine zuverlässige Temperaturabsenkung Geoengineering billiger, zeitnah und effektiver!

Ärgerlich, warum sieht das Frau Merkel nicht genauso? Klar, sie hat bereits Billionen auf „Klima-Weltrettung“ durch Dekarbonisierung gesetzt, da gibt es kein Zurück…

Über den Autor

Dr. Roland Ullrich ist Physiker und promovierte an der LMU über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.

 




Wassertem­peratur an der Ozean-Oberfläche: Vergleich Hadley Centre und NOAA

Abbildung 1. Der ursprüngliche Vergleich von ERSST und HadSST aus meinem vorherigen Beitrag.

Ich habe Kennedy gefragt, ob er eine Maske des besiedelten Gebiets in seinem SST-Gitter hat, aber das hat er nicht, was bedauerlich ist. Eine Maske ist ein Bereich von Längen- und Breitengraden, der digital auf einer Karte überlagert werden kann und verwendet wird, um alle Daten auszuschneiden, die außerhalb dieses Bereichs liegen. Außerdem wies Kennedy darauf hin, dass sich die Maske von Monat zu Monat ändert, da ein Großteil der Daten von Schiffen, treibenden Bojen und Schwimmern stammt. Schade, mehr Arbeit für mich.

HadSST ist ein Fünf-Grad-mal-Fünf-Grad-Gitter für Breiten- und Längengrade, und ERSST ist ein Zwei-Grad-Gitter. Sie sind nicht einmal Vielfache voneinander, so dass das Erstellen einer Maske von Nullbereichen in HadSST, die zum Abschneiden von ERSST-Daten verwendet werden kann, kompliziert und zeitaufwändig ist. Glücklicherweise war ich nach der Programmierung von zwei „cleveren“ Lösungen, die fehlschlugen, bei meinem dritten Versuch erfolgreich, obwohl mein Computer vielleicht nie mehr derselbe sein wird. Die „cleveren“ Methoden hätten dem Computer Zeit gespart, aber keine von beiden hat funktioniert. Am Ende verwendete ich eine „Brute-Force“-Methode, die eine schrecklich aussehende, fünf tiefe Computerschleife war, die jede Gitterzelle mit jeder Gitterzelle verglich. Hässlich, aber es funktionierte, und es ist relativ sicher vor Fehlern.

Die Ergebnisse meiner hässlichen Logik sind in Abbildung 2 zu sehen. Diese Abbildung zeigt den originalen NOAA ERSST-Datensatz, der mit der Linie in Abbildung 1 identisch ist, den „HadSST maskierten“ ERSST-Datensatz und HadSST selbst, der ebenfalls mit der Linie in Abbildung 1 identisch ist. Zumindest HadSST fällt zwischen die beiden NOAA-Linien.

Abbildung 2. Die globale NOAA ERSST-Durchschnittstemperatur vor Anwendung der HadSST-Maske (Original) und nach Anwendung der Maske. HadSST ist ebenfalls dargestellt.

Wir erinnern uns aus dem ersten Beitrag, dass HadSST durch Mittelwertbildung der Punkte innerhalb jeder 5-Grad-Gitterzelle konstruiert wird. Wenn es nicht genügend Punkte in einer Zelle gibt, wird die Zelle leer gelassen. NOAA beginnt im Wesentlichen mit den gleichen Daten, verwendet aber eine andere Methode, um ihre Zellen zu füllen. Sie verwenden einen Gitteralgorithmus, der jede ihrer 2-Grad-Zellen mit Interpolation und etwas Extrapolation auffüllt. Auf diese Weise erhalten sie ein Gitter, das viel weniger Nullzellen und eine fast globale Abdeckung hat. Da die meisten HadSST-Nullzellen in der Nähe der Pole liegen, hat die NOAA ERSST-Aufzeichnung eine niedrigere Temperatur, wie in den Abbildungen 1 und 2 zu sehen ist. Um den Unterschied zu verdeutlichen, ist es aufschlussreich, einen Teil des ursprünglichen 2-Grad ERSST-Gitters zu betrachten, siehe Tabelle 1. Der gezeigte Bereich liegt im Arktischen Ozean, nördlich von Russland und Alaska.

Tabelle 1. Ein Teil des ERSST-2-Grad-Gitters der SSTs 2018 im Arktischen Ozean, nördlich von Alaska und Russland. Beachten Sie den konstanten „Füllungs“-Wert von 1,8 °C über einem Großteil des Gebiets.

Als Nächstes sehen wir uns das HadSST-Gitter über demselben Teil des Arktischen Ozeans in Tabelle 2 an. Diese Werte sind keine Temperaturen, sondern die Anzahl der Nullmonate 2018 für diese Zelle. Mit unserer Methodik, nur einen Nullmonat pro Jahr zuzulassen, würde nur eine dieser Zellen, Breitengrad = 62,5 und Längengrad = -177,5, in unserem Mittelwert verwendet werden. Während der in Tabelle 1 gezeigte Teil des Arktischen Ozeans im ERSST-Gitter vor der Anwendung der HadSST-Maske vollständig gefüllt ist, werden alle Werte nach Anwendung der Maske null.

Tabelle 2. Arktischer Ozean HadSST-Gitterzellen. Die Werte sind die Anzahl der fehlenden Monatswerte im Jahr 2018.

Abbildung 3 ist die ursprüngliche ERSST-Durchschnittstemperaturkarte für 2018. Wie man sieht, hat sie Werte über den größten Teil des Globus, die Nullen sind im Allgemeinen in den polaren Ozeanen unter Meereis. Der blaue Fleck im äußersten Nordwesten, nördlich von Alaska und Russland, ist das Gebiet, das in den Tabellen eins und zwei gezeigt wird. Abbildung 3 ist die Karte, die die untere ERSST-Linie in den Abbildungen 1 und 2 darstellt. Die Linie zeigt einen steigenden Temperaturtrend von etwa 1,6°C pro Jahrhundert.

Abbildung 3. Die ursprünglichen ERSST-Gitterzellen in 2-Grad-Breiten- und Längengraden. Weiße Regionen sind Null.

Abbildung 4 zeigt die gleichen Daten wie in Abbildung 3, aber jede HadSST-Zelle, die mehr als einen Monat ohne Wert im Jahr 2018 hat, wurde gelöscht. Man beachte, dass der blaue Fleck nördlich von Alaska und Russland, im Arktischen Ozean, verschwunden ist. Die Null-Zellen sind in weiß dargestellt. Wir haben subjektiv zugelassen, dass ein Monat keinen Wert hat, aber zwei wurden als zu viel angesehen. Die großen saisonalen Temperaturschwankungen in den Polarregionen hätten dazu führen können, dass mehr als ein Nullmonat den Durchschnitt beeinflusst. Die oberste Linie in Abbildung 2 wird durch Abbildung 4 dargestellt. Die Linie liegt zwischen 20°C und 21,5°C. Durch das Ausblenden genau der Zellen, in denen HadSST mehr als einen Nullmonat hatte, sprang der ERSST-Mittelwert von 14°C auf 21°C, ein Anstieg von 7°! Außerdem ist die neue Linie mehr als 2°C wärmer als HadSST. Die neue ERSST-Linie hat auch ihren Trend umgekehrt, sie zeigt jetzt einen abnehmenden Temperaturtrend von 3,5°C/Jahrhundert, fast genau so wie HadSST (3,48°C/Jahrhundert).

Abbildung 4. Die ERSST-Karte mit einer angewandten HadSST-Null-Gitterzellenmaske. Weiße Regionen sind null.

Abbildung 5 zeigt die Maske, die verwendet wurde, um die HadSST-Nullzellen in der ERSST-Karte in Abbildung 4 zu löschen. Die Farben in Abbildung 5 repräsentieren die Anzahl der fehlenden HadSST-Monatswerte. Wir haben einen fehlenden Monat zugelassen, also sind einige der blauen Zellen null, die eine „1“ darstellen und einige nicht, die eine „2“ darstellen. Alle anderen Farben sind „nulled“. Weiße Bereiche haben keine fehlenden Monate. Bitte beachten, dass die Formen in Abbildung 4 nicht exakt mit den Formen in Abbildung 5 übereinstimmen werden. Das ERSST-Gitter ist ein 2-Grad-Gitter und wir wenden eine 5-Grad-Gittermaske darauf an. Dazu musste ich von jeder Zelle aus 2,5 Grad in alle Richtungen suchen und ein 2-Grad-Zellengitter mit den fehlenden Monaten aus einem 5-Grad-Gitter auffüllen. Dieses Verfahren ist so genau wie möglich, kann aber die Nullbereiche um bis zu einer Zwei-Grad-Zelle verzerren. Es gibt keinen genaueren Weg, dies zu tun, ohne zwei Gitter mit übereinstimmenden Gitterzellengrößen zu haben.

Abbildung 5. Die HadSST-Maske, die auf Abbildung 3 angewendet wurde, um Abbildung 4 zu erhalten. Wir akzeptierten Zellen, die einen monatlichen Nullwert (dunkelblau) oder keine monatlichen Nullwerte (weiß) hatten. Zwei monatliche Nullwerte oder mehr wurden abgelehnt. Die Farben stellen die Anzahl der Monate im Jahr 2018 dar, die keine Werte aufweisen. Daher sind die meisten der farbigen Boxen in Abbildung 4 Nullen. Einige der tiefblauen Kästchen werden akzeptiert, die für „1“ stehen, einige nicht, die für „2“ stehen.

Diskussionen und Schlussfolgerungen

John Kennedy hatte recht, dass die Anwendung der HadSST-Nullmaske auf die NOAA ERSST-Aufzeichnung einen Unterschied machte, die durchschnittliche globale Temperatur sprang um 7°C! Was vielleicht noch wichtiger ist: Der Trend kehrte sich von einem Erwärmungstrend von 1,6°C/Jahrhundert zu einem Abkühlungstrend von 3,5°C/Jahrhundert um. Da die Polarregionen die meisten der neu ausgefallenen Zellen enthalten, könnte man daraus schließen, dass sich die Polarregionen ziemlich stark erwärmen und der Rest des Weltozeans sich abkühlt. Dies ist konsistent mit den Beobachtungen, insbesondere in der Region um den Nordpol. Aber es ist nicht konsistent mit der „CO2-Kontrollknopf“-Hypothese (Lacis, Schmidt, Rind, & Ruedy, 2010). Wenn steigendes CO2 die jüngste Erwärmung verursacht, warum sollte sich dann der größte Teil der Welt abkühlen?

Wir werden nicht beurteilen, welche Schätzung der globalen Ozeanoberflächentemperatur besser ist, beide haben einen Nutzen. Die HadSST-Schätzung spiegelt die zugrunde liegenden Daten genau wider, Durchschnittswerte repräsentieren Daten besser als Interpolation und Extrapolation. Wenn das Ziel jedoch darin besteht, die bestmögliche Schätzung der globalen Durchschnittstemperatur mit den uns zur Verfügung stehenden Daten zu erreichen, dann ist das ERSST-Gitter besser. Unser Ziel war es, die beiden Gitter zu vergleichen, ohne Anomalien zu verwenden, die hier nicht benötigt werden. Kennedys Kommentare haben uns dabei geholfen, und wir sind dankbar für die Hilfe. Das Ergebnis zeigt, dass die ERSST-Schätzung, die auf die Mehrjahresschätzungen der Universität Hamburg und des NOAA MIMOC fällt, zwar wahrscheinlich die beste Schätzung der globalen Ozeanoberflächentemperatur, aber dennoch spekulativ ist. Die wahren Ozeanmessungen, die durch HadSST gut repräsentiert werden, unterstützen ERSST nicht. Daher ist die ERSST-Schätzung zwar logisch, aber sie leitet sich nicht aus den zugrunde liegenden Daten ab. Nur weil eine Karte so aussieht, wie sie Ihrer Meinung nach aussehen „sollte“, ist sie noch lange nicht richtig.

Wir können auch folgern, dass wir keine Ahnung haben, was die globale durchschnittliche Oberflächentemperatur der Ozeane ist oder ob sie sich erwärmt oder abkühlt. Die in den Abbildungen 1 und 2 dargestellten Daten zeigen eine riesige Temperaturspanne, und alle basieren im Wesentlichen auf den gleichen Rohdaten. Der Fehler, den die Schätzungen implizieren, liegt bei mindestens ±3,5°C. Die von HadSST/ERSST geschätzte Erwärmung über unnötige und irreführende Anomalien beträgt 1,7°C/Jahrhundert für diesen 19-jährigen Zeitraum. Doch sowohl die HadSST- als auch die ERSST-Ist-Temperaturen zeigen eine Abkühlung von 3,5°C/Jahrhundert über denselben Zeitraum.

Jeder, der glaubt, er wisse, was das Klima heute tut oder in zehn Jahren tun wird, hat einfach nicht aufgepasst. Es sollte jedem klar sein, dass die Ozeane der wichtigste Treiber unseres langfristigen Klimas sind, und die Aufzeichnungen, auf die wir uns verlassen, um uns zu sagen, wie sich die Temperaturen der Meeresoberfläche und der gemischten Schicht verhalten, sind dieser Aufgabe nicht gewachsen. Man könnte genauso gut Würfel benutzen, um eine Temperatur zu wählen.

[Hervorhebung vom Übersetzer]

I processed a lot of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

Works Cited

Lacis, A., Schmidt, G., Rind, D., & Ruedy, R. (2010, October 15). Atmospheric CO2: Principal Control Knob Governing Earth’s Temperature. Science, 356-359. Retrieved from https://science.sciencemag.org/content/330/6002/356.abstract

Link: https://wattsupwiththat.com/2020/12/16/sea-surface-temperatures-hadley-centre-v-noaa/

Übersetzt von Chris Frey EIKE




Energiewende 2020 – das Wetter als Spielverderber

Näheres zum Stand und den Problemen der Energiewende sowie zu den meteorologischen Hintergründen finden Sie hier. Diese Ausführungen werden im Folgenden um die Daten des Jahres 2020 ergänzt und einige Monate, Monatsabschnitte oder Jahreszeiten näher betrachtet; außerdem wird sich zeigen, welcher Energieträger der „Gewinner“ des Jahres bei der Stromerzeugung ist.

Zwischen Mangel und Überproduktion – der Hochwinter 2020

Gerade in der „dunklen“ Jahreszeit wird viel Strom verbraucht. Leider fällt die Sonne mit meist nur ein bis 2 Sonnenstunden pro Tag als Stromlieferant fast gänzlich aus; und die Windenergieerzeugung schwankt in dieser Jahreszeit zwischen totaler Flaute und Überangebot so stark wie zu keiner anderen Zeit des Jahres. Die Monate Januar und Februar 2020 waren enorm gegensätzlich; im von Hochdrucklagen dominierten Januar häuften sich Flauten; im extrem milden Februar jagte ein Wintersturm den nächsten:

Abbildung 1: Nur wenig Wind, kaum Solarenergie (gelbliche Spitzen) im Januar 2020. Um den 22.01. schlief der Wind für mehrere Tage fast völlig ein; 60 bis 70% des Stroms mussten konventionell erzeugt werden; die gut 30.000 Windräder und Millionen Solarpaneele standen völlig nutzlos in der Landschaft. Effektive Speicher, die Strom aus besseren Zeiten bereitstellen könnten, fehlen und sind in naher Zukunft auch nicht in technisch machbarer Reichweite. Die schwarze Zackenlinie stellt die Last (Stromverbrauch) dar. Bildquelle: Fraunhofer-Institut, ergänzt

Abbildung 2: Enorm hohe Schwankungen der verschiedenen Stromerzeugungsquellen im stürmischen Februar 2020. Häufig überstieg die Windstromproduktion die Nachfrage – andere Energiequellen mussten hektisch gedrosselt und der Stromüberschuss entweder zu Schleuderpreisen exportiert, oder Windkraftanlagen zeitweise vom Netz genommen werden. Aber selbst in diesem für die Windenergie so rekordverdächtigen Monat gab es Phasen mit Hochdruckeinfluss fast ohne Windstrom – so um den 6., 14. und 26. Februar. Bildquelle: Fraunhofer-Institut, ergänzt

Ein schönes Beispiel für den extremen, über längere Zeit währenden Mangel an Wind- und Solarenergie findet sich im vom 22. Bis zum 26.Januar 2020; Näheres zu den meteorologischen Besonderheiten des Januars 2020 hier:

Abbildung 3: Über fast fünf Tage kaum Wind- und Solarenergie vom späten Nachmittag des 22. bis zum frühen Nachmittag des 26. Januars 2020. Der Wind lieferte in der Nacht zum 23. Januar bloß mickrige 1 bis 2 GW! Die hellblauen Zacken sind Strom aus Pumpspeichern – hübsch anzusehen, doch fast bedeutungslos; auch die Solarenergie spielt kaum eine Rolle; mehr als zwei Drittel der Stromproduktion entstammten konventionellen Quellen. Bildquelle: Fraunhofer-Institut, ergänzt

Zeitweise sonnig-windiger Frühling – aber ohne konventionelle Kraftwerke ging es auch da nicht

Der März 2020 liefert ein schönes Beispiel, wie rasch sich die Bedingungen zur Stromerzeugung ändern können:

Abbildung 4: Bis etwa Mitte März ähnelten die Bedingungen denen des Februars – zeitweise viel Wind, aber auch kurze, flaue Phasen mit viel konventioneller Nettostromproduktion. Danach insgesamt weniger Wind und mehr Solarstrom; der aber nur tagsüber verfügbar ist. Bildquelle: Fraunhofer-Institut, ergänzt

Das ganze Dilemma der Solar- und Windstromproduktion wird deutlich, wenn man nur deren Erzeugung im März 2020 betrachtet:

Abbildung 5: Solarstromproduktion (gelb-orange Spitzen) und Windstrom (verschiedene grau-grüne Töne für Anlagen diverser Firmen an Land; bläulich für Anlagen auf See). Immer wieder fallen beide Quellen auch in der Summe fast völlig aus; auch sonst ergänzen sie sich nur selten. Und auch die von Energiewende-Befürwortern oft geäußerte Behauptung, dass irgendwo in Deutschland immer Wind wehe, besonders auf dem Meer, erweist sich als falsch. Bildquelle: Fraunhofer-Institut, ergänzt

Der April 2020 bescherte uns mit über 290 Sonnenstunden im DWD-Mittel rekordverdächtig viel Sonnenschein – zu dumm nur, dass unser Zentralgestirn im Erdschatten der Nacht keinen Strom liefern kann:

Abbildung 6: Erzeugung von Wind- und Solarstrom im sehr sonnigen April 2020. Tagsüber reichlich Sonne, manchmal viel, oft aber auch kaum Wind. Symbolik wie in Abbildung 5. Bildquelle: Fraunhofer-Institut, ergänzt

Im Mai, der hier nicht näher behandelt werden soll, gab es das typische Wechselspiel aus vielen Mangel- und wenigen Überproduktionsphasen.

Schwüler, flauer Sommer

Besonders im Juni und August herrschten bei geringen Luftdruckgegensätzen schwüle, zu Gewittern neigende Luftmassen vor; Wind fehlte oder war nur tagsüber als schwacher Lokalwind vorhanden; und die Sonne zeigte sich auch keinesfalls immer. Am Beispiel des Juni zeigen sich wieder die Probleme der unzuverlässigen Wind- und Solarstromproduktion; man spricht auch von VEE (Volatile Erneuerbare Energien):

Abbildung 7: Erzeugung von Wind- und Solarstrom im fast durchschnittlichen Juni 2020. In den Nächten fast immer kaum Strom, doch auch sonst viele über Tage währende Mangelphasen. Aber mitunter auch kurzzeitige Stromschwemmen – die Maxima von Wind- und Solarstromerzeugung fallen oft gegen Mittag zusammen. Dieser kurzzeitige Überfluss kann nicht gespeichert werden und führt, wie der Mangel, zur Destabilisierung der Stromnetze. Ganz ähnliche Produktionsergebnisse waren im August 2020 zu verzeichnen. Bildquelle: Fraunhofer-Institut, ergänzt

Auf den ersten Blick schien wenigstens der Juli 2020 den Erneuerbaren Energien gewogen zu sein – es gab im Norden Deutschlands zeitweise viel Wind, im Süden viele Sonnenstunden. Das Produktionsergebnis sieht aber ernüchternd aus:

Abbildung 8: Auch im Juli war Windstrom meist Mangelware, und die über die schwarze Lastlinie ragenden, mittäglichen Erzeugungsspitzen der Solarenergie konnten nicht verwertet werden (Überproduktion). Beim genauen Hinsehen erkennt man in den Nächten mitunter weiße Flächen unter der Lastlinie – das sind Strommangelphasen, welche beispielsweise durch teure Stromimporte ausgeglichen werden müssen, um Brown- oder Blackouts zu vermeiden. Bildquelle: Fraunhofer-Institut, ergänzt

Herbst: Sonniger, flauer September, trüber Oktober, seltene Stürme

Der September zählt im Jahresverlauf mit den Singularitäten des Spät- und Altweibersommers ohnehin zu den meist windschwachen Schönwettermonaten des Jahres; doch diesmal waren die sonnigen Hochdruckphasen besonders ausgeprägt:

Abbildung 9: Für einen Herbstmonat fiel die Windstromproduktion im September 2020 äußerst mager aus. Bildquelle:Fraunhofer-Institut, ergänzt

Im sehr trüben Oktober gab es endlich mal mehr Wind, doch immer wieder durch Flauten unterbrochen:

Abbildung 10: Im Oktober probte die Sonne schon mal den Winterurlaub – sie schien kaum. Und weil es auch nur zeitweise reichlich Wind gab, mussten die konventionellen Kraftwerke hektisch herauf- und heruntergefahren werden – deshalb der äußerst „zackige“ Verlauf bei Gas, Braun- und Steinkohle. Bildquelle: Fraunhofer-Institut, ergänzt

Es war wie verhext: Im November erschien die Sonne wieder übernormal häufig, doch bei von etwa 10 auf 8 Stunden abnehmender Tageslänge lieferte sie dennoch nur wenig Strom. Und der Wind schlief wieder über längere Phasen fast ganz ein:

Abbildung 11: Viele „Fehlzeiten“ bei den Volatilen Erneuerbaren Energien (Sonne und Wind) auch im sonnigen November 2020. Bildquelle: Fraunhofer-Institut, ergänzt

Eine ernüchternde Erkenntnis im Christmond: „And the Winner is – Natural Gas!“

Zum Jahresabschluss werfen wir noch einen Blick auf das erste Dezemberdrittel, welches 2020 ungewöhnlich trüb und windstill verlief. So richtig spannend wird aber erst ein Vergleich mit demselben Zeitraum 2016, der liegt nur vier Jahre zurück:

Abbildungen 12a und 12b: Nettostromproduktion im reichlich ersten Dezemberdrittel 2020 (oben) und 2016 (unten). Man achte auf die starke Zunahme der orangerosa Fläche (Erdgas!) in 2020, während fast alle anderen Energieträger Federn lassen mussten; besonders Steinkohle und Kernkraft. Biomasse, Solar und Wasserkraft blieben etwa gleich unbedeutend; Wind gab es in beiden Vergleichszeiträumen nur wenig. Bildquellen: Fraunhofer-Institut, ergänzt

Das nennt man dann wohl eine lupenreine Mogelpackung – Kohle und Kernkraft werden, weil Wind und Sonne sie niemals ganz ersetzen können, durch umweltpolitisch inkorrektes Erdgas ersetzt – klammheimlich wird wohl Nord-Stream 2 nun doch noch vollendet, und still und leise wie in der Heiligen Nacht hat die Bundesnetzagentur vier Gaskraftwerke mit je 300 Megawatt Leistung im Süden Deutschlands genehmigt. Sie werden unter anderem in Biblis durch RWE und in Irsching durch Uniper gebaut. Man darf nun gespannt sein, wann die Gutmenschen der GRÜNEN und von Greenpeace die Erdgas-Verdichterstationen und die Schornsteine der Gaskraftwerke blockieren werden… .

Zirkulationsarme, unbestimmte (XX)-Wetterlagen häufen sich – schlecht für die Wind- und Solarenergie

Was zirkulationsarme, unbestimmte Großwetterlagen sind, wird hier näher erläutert. Eine Häufung dieser Lagen deutet sich bei freilich großer Streuung an:

Abbildung 13: Entwicklung der Anzahl der Tage mit XX-Lagen (unbestimmte Lagen nach der Objektiven Wetterlagen-Klassifikation des DWD) im Jahr. Im Langjährigen Mittel sind diese für die Erzeugung Erneuerbarer Energien problematischen Wetterlagen an fast 70 Tagen zu erwarten – mit steigender Tendenz. Das sind mehr als zwei Monate pro Jahr, an denen besonders die Windenergie, aber im Winterhalbjahr auch der Solarstrom, kaum zur Verfügung stehen; man achte nur auf die Kalamitäten im Januar und Dezember 2020!

Folglich nahm auch die Windgeschwindigkeit in den letzten 3 Jahrzehnten merklich ab, was möglicherweise auch eine Folge des zu massiven Windkraftausbaus ist:

Abbildung 14: Weil es kein DWD-Flächenmittel der Windgeschwindigkeit gibt, wurde ein solches aus 25 Stationen in Norddeutschland, also dort, wo die meisten Windräder stehen, berechnet. Seit etwa 30 Jahren sinkt die Windgeschwindigkeit, leider nur in Beaufort verfügbar, merklich. Das Jahr 2020 wird mit etwa 2,92 Beaufort trotz des extrem stürmischen Februars sehr windschwach ausfallen.

Düsterer Ausblick

All die vielen, teuren, verzweifelten Forschungs- und Modellprojekte konnten bislang keine Energieform und keine Energiespeicher finden, die umweltfreundlich, wirtschaftlich, zuverlässig und effektiv sind. Die physikalischen Gesetze machen da auch für die kommenden Jahrzehnte wenig Hoffnung. Und sollte der große Wurf, etwa mit der Kernfusion, doch noch gelingen, so würden bis zur technisch-ökonomischen Reife weitere Jahrzehnte ins Land gehen. Wegen ihrer geringen Energiedichte und ihrer schlechten Speicherbarkeit müssten Wind- und Solarkraft um das etwa fünfzehn- bis zwanzigfache ihrer heurigen Anzahl ausgebaut werden; hinzu kämen enorm teure, ebenfalls umwelt- und ressourcenschädigende Großspeicher. Für die Windkraft würde das gegenüber den heurigen gut 30.000 Anlagen weit über 300.000 Anlagen bedeuten; auf nahezu jedem Quadratkilometer Deutschlands stände dann etwa ein großes Windrad, auch in Städten, Wäldern, Naturschutzgebieten… . Nach den Berechnungen des Autors Klaus Maier („Die Abrechnung … mit der Energiewende“) würde bei dieser Vorgehensweise Strom im Jahre 2050 mit über 1,3 Euro/Kilowattstunde zum unbezahlbaren Luxusgut – schöne, neue Energiewendewelt, mir graut vor Dir… .




Das Hähnchen­grill-Paradoxon

Würden Sie ein solches Angebot tatsächlich annehmen?

Vielleicht würden Sie die Funktionsweise eines solchen Turbobräuners auf das Prinzip eines Hähnchengrills zurückführen, dessen Leistung man einfach auf das ganze Hähnchen inklusive seiner Rückseite herunterrechnet. Und daher könnten Sie zu der Erkenntnis gelangen, dass die Wirkung einer doppelt so großen direkten Strahlungsleistung Ihrer Gesundheit nicht ganz zuträglich wäre. Und genauso berechnet man jetzt umgekehrt einen viel zu geringen Wert für die tatsächliche „natürliche“ Temperatur unsere Erde. Man verteilt nämlich einfach die tatsächliche spezifische Strahlungsleistung der Sonne auf der Tagseite unserer Erde rechnerisch über die gesamte Erdoberfläche, also auch auf deren Nachtseite. Dabei kommt man fälschlicher Weise auf eine „theoretische Globaltemperatur“ von (-18°C) und behauptet, die Sonne sei gar nicht stark genug, um mit ihrer direkten Einstrahlung die gemessenen Temperaturen auf unserer Erde zu erzeugen. Als Erklärung für die Differenz zur sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) postuliert man dann eine ominöse „atmosphärische Gegenstrahlung“, die konstruktionsbedingt jede Differenz zu einer beliebigen NST erklären kann, weil sie quantitativ lediglich an der sogenannten „Abstrahlungstemperatur“ von (-18°C) „festgemacht“ ist. Damit schaltet man dann eben mal den natürlichen Klimaantrieb aus, dessen Einfluss in den vergangenen 420.000 Jahren immerhin um ca. +3°C/-9°C geschwankt hatte. Mit diesem „Hähnchentrick“ beweist man also einen vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ als alleinigen Antrieb unseres Klimageschehens, denn man muss ja immer nur die „Gegenstrahlung“ passend nachjustieren. Die direkte spezifische Strahlungsleistung der Sonne kann auf unserer Erde im äquatorialen Zenit aber eine Maximaltemperatur von bis zu ca. 120°C erzeugen. Abzüglich des durchschnittlich reflektierten Anteils und durch eine Mittelung über die gesamte Erdoberfläche ergeben sich nach herkömmlicher Rechnung aber lediglich -18°C.

Bezogen auf einen Hähnchengrill, bei dem man ebenfalls die Leistung des Heizstrahlers auf das gesamte Hähnchen inklusive seiner Rückseite herunterrechnet, würde das den Unterschied zwischen einem gegrillten (120°C) und einem tiefgefrorenen (-18°C) Hähnchen ausmachen.
(Aus meinem Buch „Mehr geht nicht“ mit Änderungen und Ergänzungen.)

Also, je nachdem, ob man sich auf die tatsächlich bestrahlte Fläche beschränkt oder ob man, wie beim Hähnchen, „aufgrund der Rotation“ fälschlicherweise unbestrahlte Flächen in diese S-B-Inversion einbezieht, kommt man für unsere Erde zu ganz unterschiedlichen „theoretischen“ Temperaturen, von denen nur eine richtig sein kann. Und beim THE-Paradigma wird ohne weitere Erklärung der planare solare Poynting Vektor (Einstrahlung) gegen einen radialen terrestrischen Poynting Vektor (Abstrahlung) ausgetauscht, indem einfach nur mit Beträgen gerechnet wird. Bei meinem hemisphärischen S-B-Modell wird dagegen bei der solaren Einstrahlung auf der Tagseite der Erde der solare Zenitwinkel berücksichtigt.

Definition: Als Temperaturgenese sei derjenige Prozess bezeichnet, mit dem der Vektor (Betrag&Richtung) der Strahlstärke von der solaren Einstrahlungsrichtung zur terrestrischen Abstrahlungsrichtung hin verändert wird. Es ist in einer physikalischen Betrachtung nicht statthaft, die Richtung eines Vektors zu unterdrücken und nur mit seinem Betrag zu rechnen.

ERGO: Mein hemisphärisches S-B-Modell ist das einzige Modell für die Temperaturgenese auf unserer Erde, das die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden kann.

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung abbilden und erfasst damit qualitativ alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese.

Das Modell einer „Erde ohne Atmosphäre“ orientiert sich am Mond

Die hemisphärische S-B-Inversion ist nicht auf eine ominöse „Erde ohne Atmosphäre“ anwendbar, aus der sich dann ein „natürlicher atmosphärischer Treibhauseffekt herleitet. Nur zur Erinnerung, Klima kommt aus dem Griechischen und bedeutet ‚Krümmung/Neigung [des Sonnenstandes]‘ – und eine solche Neigung des Sonnenstandes gibt es nachts nun einmal nicht. Der unvoreingenommene Betrachter kann das schon daran erkennen, dass der Lichtschutzfaktor der – selbstverständlich nur am Tage – benutzten Sonnencreme üblicherweise umgekehrt proportional zur geographischen Breite des jeweiligen Einsatzortes ist. Eine solche „Erde ohne Atmosphäre“ entspricht übrigens viel eher dem Mond, dessen Tagestemperatur mein hemisphärischer S-B-Ansatz (hier und hier) ganz hervorragend abbilden kann. Dabei ist zu beachten, dass, abweichend von der Situation auf dem Mond, auf der Erde das S-B-Temperaturäquivalent niemals erreicht wird. Denn mit der örtlichen Erwärmung beginnen hier unmittelbar auch Konvektion und Verdunstung, durch die fortlaufend Energie in die globalen Zirkulationssysteme abgeführt wird.

Also noch mal zur Erinnerung der Unterschied zwischen dem S-B-Gesetz und einer S-B-Inversion:

Das Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Formel: S=P/A=SIGMA T4

In Worten: Ein schwarzer Körper mit einer gegebenen Temperatur T (>0K) in [K] strahlt zeitgleich eine durch das S-B-Gesetz fest verknüpfte Strahlungsleistung [W] über seine gesamte Oberfläche „A“ in [m²] aus. Die Abstrahlung erfolgt in Richtung der Flächennormalen. Das S-B-Gesetz enthält weder nicht strahlende Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s].

Jede Berechnung einer Temperatur (sekundär) aus einer bestimmten Strahlungsleistung (primär) stellt eine Inversion (Strahlung=>Temperatur) des Stefan-Boltzmann-Gesetzes dar, die nur zulässig ist, wenn alle genannten Randbedingungen des S-B-Gesetzes strikt 1:1 erfüllt werden:

Die Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Formel: T=(S/SIGMA)1/4

In Worten: Eine gegebene spezifische Strahlungsleistung [W/m²] beleuchtet einen (schwarzen) Körper mit einer Oberfläche „A“ in [m²] und erzeugt dort zeitgleich ein über das S-B-Gesetz fest verknüpftes Temperaturäquivalent in T [K], und zwar strikt abhängig vom Einfallswinkel der Strahlungsleistung auf die Fläche „A“. Eine Stefan-Boltzmann-Inversion darf weder unbeleuchtete Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s] enthalten.

Die PHYSIKALISCHE Gleichzeitigkeit im Stefan-Boltzmann-Gesetz: Die Zeit „t“ ist NICHT im S-B-Gesetz enthalten. Daher müssen alle mathematischen Prozesse im Zusammenhang mit S-B (S-B-Berechnung, S-B-Inversion) unmittelbar zeitgleich erfolgen.

Die fehlerhafte Durchschnittsberechnung: In einem physikalischen T4-Gesetz folgt eine Durchschnittsberechnung nicht der ursprünglichen Funktion, Beispiel:
0 W/m² entsprechen nach dem S-B-Gesetz -273 °C und 470 W/m² entsprechen 28 °C. Der daraus gemittelte Temperaturwert von etwa -122,5 °C für einen Strahlungsdurchschnitt von 235 W/m² entspricht aber keineswegs der diesem Strahlungswert direkt zugeordneten S-B-Temperatur von -19°C.

Im Stefan-Boltzmann-Gesetz ist der Rechenweg nicht austauschbar:

PHYSIK(=MEAN@S-B-Inversionen[W/m²]) # MATHEMATIK(=S-B-Inversion@MEAN[J/m²s])

In jede Gleichung können Sie ohne Veränderung der mathematischen Lösung beliebige Größen einfügen, solange diese gleichzeitig im Zähler UND Nenner auftauchen, also zum Beispiel:

(Lichtgeschwindigkeit/Lichtgeschwindigkeit) oder (Gewicht der Erde/Gewicht der Erde) oder (Sekunde/Sekunde) oder…

Wenn Sie also auf Ihrem Rechenweg zwischendurch die spezifische Leistung mit Sekunden multiplizieren (=Arbeit [s*W/m²=J/m²]) und am Ende wieder durch Sekunden teilen (Leistung [J/m²s=W/m²]), macht das der Mathematik gar nichts; anders ist es mit der Physik, denn die ist hinterher nicht mehr dieselbe. Denn in der Physik muss der Gegenstand der Betrachtung physikalisch anwesend sein. Beim S-B-Gesetz selbst ist das ganz profan, weil der Schwarzkörper eine ganz konkrete Temperatur besitzt und daher die gleichzeitige spezifische Strahlungsleistung über seine gesamte Fläche „A“ konstant ist. Bei der S-B-Inversion darf dagegen ein Temperaturdurchschnitt nur aus den UNMITTELBAR GLEICHZEITIGEN S-B-Ortstemperaturen berechnet werden, eine MITTELBARE Durchschnittsbildung über die zeitliche Summation/Integration der spezifischen Strahlungsleistung mit nachfolgender S-B-Anwendung ist dagegen nicht erlaubt.

Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nichts zu suchen.

AUFFORDERUNG: Die Faktor4-Tag=Nacht-THE-Fraktion möge den PHYSIKALISCHEN Beweis erbringen, dass das Stefan-Boltzmann-Gesetz (S=P/A=SIGMA T^4) Flächen (B) enthält, die NICHT zur Strahlungsleistung (P) des Schwarzkörpers beitragen.

 

 

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften…

Die „zweite Sonne“ im hemisphärischen S-B-Modell sind die Ozeane

Und jetzt betrachten wir einmal, wie sich die Flächen (A=beleuchtet) und (B=unbeleuchtet) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von 14,8°C auswirken. Diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesem Durchschnittswert also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Die Nachtseite unserer realen Erde erhält in der erlebten Realität also keinerlei Sonneneinstrahlung, hat aber trotzdem keine Mond-Temperatur von etwa minus 200°C. Denn die Nachttemperatur hängt im Wesentlichen von der Wärmespeicherfähigkeit des passiv bestrahlten Himmelskörpers ab. Und auf der Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung, und diese Wärmespeicher werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter auf beiden jahreszeitlichen Hemisphären:

Abbildung 2: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA)

Diese Ozean-Daten repräsentieren also schon einmal zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von ca. 15°C kumulieren. Dieser Verlauf bestätigt mein hemisphärisches S-B-Modell, das den 0°C-Durchgang des tagseitigen S-B-Temperaturäquivalentes ebenfalls bei etwa 70° nördlicher und südlicher geographischer Breite berechnet, wie die nachfolgende Abbildung beweist:

Abbildung 3: Das breitenabhängige S-B-Temperaturäquivalent im Äquinoktium

Links: Das vom Zenitwinkel abhängige tagseitige S-B Temperaturäquivalent für 1°-Segmente zwischen 0° und 90° nördlicher und südlicher Breite in [°C]

Berechnungsschema:

Lotrechter Sonnenstand auf dem Äquator,
Berechnung des S-B-Temperaturäquivalents aus der lokalen solaren Einstrahlung auf Mantelringen von 1° Breite mit dem Radius ri und dem Zenitwinkel i nach der Formel:

Der Grenzwert (n->oo) für die Summation über alle Segmente „n“ zwischen 0° und 90° nördlicher und südlicher Breite auf der Tagseite der Erde ergibt sich als meine Korrektur der Integrallösung von G&T (2009) zu 2 x 144,15K = 288,3K = 15,15°C

Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag

Und nun erkläre bitte irgendein Anhänger der ominösen „Erde ohne Atmosphäre“, wie die globale Nachttemperatur in meinem hemisphärischen S-B-Modell für die reale Erde auch nur auf -18°C oder sogar auf Mond-Temperaturen von ca. -200°C absinken sollte. Die NASA-Abbildung der jährlichen mittleren ozeanischen Oberflächentemperatur weist vielmehr nach, dass die Ozeane genügend Wärme enthalten, um die Nachttemperaturen über die Umgebungsgleichung des S-B-Gesetzes nicht unter ihr eigenes Temperaturniveau absinken zu lassen (Ozean=>Atmosphäre=>Land). Denn schließlich tragen die dort abgebildeten Durchschnittstemperaturen nicht nur zu zwei Dritteln zur globalen Durchschnittstemperatur bei, nachts/im Winter/in höheren geographischen Breiten erfolgt aus diesem Wärmereservoir auch noch ein stetiger Wärmefluss vom Meer zum Land (hier Punkt 6). Auf dem Hamburger Bildungsserver Klimawandel heißt es unter „Ozean im Klimasystem“ bestätigend, Zitat mit Hervorhebungen:
Zwischen Ozean und Atmosphäre herrscht ein ständiger Energie-/Wärmeaustausch: Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt. Im Sommer/ am Tag ist der Ozean kälter als die Atmosphäre, da diese sich schneller durch die höhere solare Einstrahlung erwärmt. Es wird also Wärme von der Atmosphäre in den Ozean transportiert, der diese speichert. Auch im Winter/ in der Nacht reagiert der Ozean nur sehr langsam auf die viel geringere Einstrahlung. Während die Atmosphäre schon wieder stark abgekühlt ist, ist in der oberen Schicht des Ozeans noch viel Wärme gespeichert und erwärmt somit die über ihm liegende Atmosphäre. Der Ozean dämpft also den Einfluss der Sonneneinstrahlung, sodass Landgebiete in Meeresnähe im Winter eher wärmer, im Sommer kühler als meerferne Gebiete sind. Sie zeigen somit einen schwächeren Jahresgang. Analoges gilt für Tag- und Nachttemperaturen.“

ALSO:Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt“, und dieser Energietransfer wird durch die S-B-Umgebungsgleichung beschrieben:

DELTA S = SIGMA (T4 – T04)
An dieser Stelle bietet es sich an, auch gleich noch das viel diskutierte Jacken-Paradoxon aufzulösen. Wenn es draußen kalt ist, dann ist die Umgebungstemperatur T0 niedrig, nehmen wir mal 273K; Ihre Körpertemperatur beträgt dagegen 310K. Ihr Körper strahlt also mit DELTA S = SIGMA (3104K – 2734K) und Sie frieren. Wenn Sie jetzt eine Jacke anziehen, erwärmt sich deren Innenseite durch Ihre Körpertemperatur, sagen wir einmal auf 305K, das ist also Ihre neue Umgebungstemperatur. Ihr Körper strahlt dann nur noch mit DELTA S = SIGMA (3104K – 3054K) und Sie frieren nicht mehr, weil Ihr Körper durch die Jacke besser gegen den Wärmeverlust isoliert ist. Die Jacke erhöht also Ihre Körpertemperatur nicht, sondern verhindert lediglich dass Sie auskühlen. Anders ist es, wenn Sie in dieser Jacke Sport treiben. Dann produziert Ihr Körper mehr Wärme, als durch diese Jacke abgeleitet werden kann und Sie fangen an zu schwitzen. Da hilft dann nur noch eine dünnere Jacke, die schlechter isoliert…

Die hemisphärische S-B-Inversion ist ein qualitatives 3D&T-Modell unserer Erde

Da nun einmal die tagseitige solare Einstrahlung als Primärquelle für die Temperaturgenese auf unserer Erde anzusehen ist, stellt die hemisphärische S-B-Inversion ein realistisches 3D&T-Modell unserer Erde dar. Dieses Modell erklärt die Temperaturgenese, die Nachttemperatur und die globale Abstrahlung widerspruchsfrei zu den Hauptsätzen der Thermodynamik, wie die drei nachfolgenden Abbildungen belegen:

Tagseitige Einstrahlung @2PIR² und Temperaturgenese: Die hemisphärische Temperaturgenese folgt dem Sonnenstand auf der Tagseite der Erde:
S0*(1-ALBEDO) * COS(örtl. Zenitwinkel der Sonne)

Abbildung 4: Maximales breitenabhängiges S-B-Temperaturäquivalent im Äquinoktium.

Die Temperatur auf den Landmassen der Nachtseite unserer Erde kann nicht unter die Temperatur der globalen Wärmespeicher absinken und wird durch die S-B-Umgebungsgleichung DELTA S=SIGMA(T4-T04) beschrieben:
Die globalen Wärmespeicher unserer Erde (@T0) verhindern ein Mond-ähnliches Absinken der Nachttemperaturen auf unserer Erde. Der nächtliche Abstrahlungsverlust der Landoberfläche (@T) wird durch Advektion und Kondensation kompensiert.

Abbildung 5: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA).

Globale Abstrahlung @4PIR²:

Der Energiefluss bei der Abstrahlung (@4PIR²) vom Warmen (Erdoberfläche@390W/m²) zum Kalten (Abstrahlungshöhe@235W/m²) gehorcht den Hauptsätzen der Thermodynamik.

Abbildung 6: Die Richtung des Poynting-Vektors im globalen Abstrahlungsmodell (@4PIR2). Mit perspektivisch angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

QED: Mein hemisphärisches S-B-Modell geht vom prinzipiellen Unterschied zwischen Tag und Nacht aus und erfordert keinen „natürlichen atmosphärischen Treibhauseffekt“ zur Erklärung der terrestrischen Temperaturgenese. Dieses S-B-Modell liefert vielmehr ein qualitatives Bild von den räumlichen und zeitlichen Veränderungen, die unser globales Klimageschehen bestimmen. Das hemisphärische S-B-Modell wäre also eine einmalige Möglichkeit, die Position der Klimarealisten in der Auseinandersetzung um unserer aller Zukunft zu stärken und die gesamte CO2-Klimahysterie ad absurdum zu führen; meinen damaligen Ausführungen ist also nichts hinzuzufügen…

Das Treibhaus-Paradoxon macht die Nacht zum Halbtag – den Tag aber leider auch…

Aber GLAUBEN Sie mir bitte ja nichts, schon gar nicht mein hemisphärisches S-B-Modell. PRÜFEN Sie vielmehr alles sehr sorgfältig, und widerlegen Sie mein S-B-Modell, indem Sie den wissenschaftlichen Nachweis über eine eindeutige physikalische Tag&Nacht-Gleichheit führen. In der nachfolgenden Tabelle können Sie noch einmal die Unterschiede der beiden konkurrierenden Modelle überprüfen:

Tabelle 1: Direkter Vergleich der konkurrierenden S-B-Modelle für die Globaltemperatur mit meiner Bewertung – können Sie hier vielleicht einen Vorteil für das 4PIR2-THE-Paradoxon erkennen?

2PIR² = Das hemisphärische S-B-Modell 4PIR² = Das THE-Tag=Nacht-Flacherdeparadigma
[Hinweis von Admin: Die in der Tabelle in der rechten Spalte genannten Links konnten im EIKE-Editor nicht übernommen werden. Sie folge hier entsprechend der Numerierung links.

Links: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18.

Ende Hinweis]

Die tatsächliche Abfolge von Tag und Nacht im realen Leben entspricht nicht dem 4PIR2-Tag=Nacht-THE-Halbdunkel, sondern spiegelt vielmehr das Kindergarten-Alltagswissen, nachts sei es dunkler als draußen. Von daher müsste jeder Betrachter erkennen können, dass unsere Sonne ausschließlich am Tage (@2PIR2) Arbeit (=Leistung*Zeit) zu verrichten gewillt ist und nachts (ebenfalls @2PIR2) einfach streikt. Der Ausgangspunkt der herkömmlichen THE-Ableitung, die „-18°C-S-B-Globalinversion“ ist also definitiv falsch, weil sie mit der Tag&Nacht-Realität auf unserer Erde nichts zu tun hat und erst durch das Kunstprodukt „THE“ wieder an diese Realität anzuschließen vermag. Wer also meinen hemisphärischen 2PIR2-Ansatz ablehnt, der möge sich gerne etwas ganz Neues ausdenken; der 4PIR2-Tag=Nacht-THE-Ansatz kann es jedenfalls wirklich nicht sein. Es ist schon sehr erstaunlich, dass der astronomische Gebrauch des Stefan-Boltzmann-Gesetzes für aktiv leuchtende Sterne einstmals kritiklos auf einen passiv bestrahlten Planeten wie unsere Erde übertragen worden ist. Es ist noch erstaunlicher, dass mehr als drei Jahrzehnte intensiv alimentierte Klimaforschung den Unterschied zwischen Tag und Nacht nicht erkannt haben will. Am erstaunlichsten aber ist, dass selbst bei den sogenannten Klimarealisten eine überwiegende Mehrheit diese fehlerhafte S-B-Inversion hochemotional verteidigt.