Was kann das „Jahr ohne Sommer“ für die sogenannte „atmosphärische Gegenstrahlung“ bedeuten?

von Uli Weber

Das Jahr 1816 wird als „Jahr ohne Sommer“ bezeichnet. Als Folge des Tambora-Ausbruchs im April 1815 kam es in Mitteleuropa zu Unwettern, Ernteausfällen, Hungersnöten und Seuchen. Die historischen Auswirkungen sind beispielsweise auf Wikipedia nachzulesen.

Die Eruption des Tambora (1815), und später auch des Krakatau (1883), entließ große Mengen feiner Aschepartikel und Aerosole in die hohe Atmosphäre, die sich dort in wenigen Tagen weltweit verteilten. Der Trübungsindex der Krakatau-Eruption von 1883 wurde auf 1000 gesetzt, der Tambora-Ausbruch erhielt danach einen Trübungsindex von 3000. Vor allem durch die das Sonnenlicht reflektierenden Aerosole sank auf der Nordhalbkugel die Durchschnittstemperatur; die gleiche Quelle nennt für das Jahr nach der Tambora-Eruption ein Absinken der gemessenen Temperaturen um 2,5 Grad, beim Krakatau sollen es 0,5 Grad gewesen sein.

Dieser Temperaturrückgang lässt Schlussfolgerungen über die sogenannte „atmosphärische Gegenstrahlung“ zu. Unsere Erde soll sich angeblich durch die Rückstrahlung ihrer eigenen IR-Abstrahlung noch weiter erwärmen. Dieses Phänomen wird als „atmosphärische Gegenstrahlung“ bezeichnet und widerspricht dem 2. HS der Thermodynamik:

1. Primär: Hochfrequente (HF) Sonneneinstrahlung (@PIR²) erwärmt die Materie auf der Tagseite der Erde (@2PIR²).

2. Sekundär: Diese erwärmte Materie strahlt Infrarot(IR)-Strahlung über die gesamte Erdoberfläche (@4PIR²) ab.

3. Tertiär: Die IR-Abstrahlung animiert angeblich sogenannte „Klimagase“ zu einer IR-„Gegenstrahlung“ (@4PIR²), die teilweise auf die Erdoberfläche zurückgestrahlt werden soll.

4. Quartär: Und diese IR-„Gegenstrahlung“ soll schließlich, im Widerspruch zum 2. HS der Thermodynamik, wiederum die Erdoberfläche (@4PIR²) noch weiter erwärmen, beziehungsweise (nach anderen Quellen) „deren Abkühlung verlangsamen“.
Anmerkung: Eine „verlangsamte Abkühlung“ stellt aber wiederum noch lange keine Temperaturerhöhung dar…

Es gibt daher nur eine Möglichkeit, wie sich die Reduzierung der solaren Einstrahlung durch eine solche Dunkelwolke auf die ominöse „atmosphärische Gegenstrahlung“ auswirken muss:

Alle gemessenen oberflächennahen Temperaturwerte auf der Erde müssen absinken, weil die primäre solare (HF) Einstrahlung reduziert wird und sich damit auch die sekundäre IR-Abstrahlung der Erde als Quelle der sogenannten „atmosphärischen Gegenstrahlung“ verringert.

Wenn wir uns nun einmal die Deutschland-Temperaturen für den Zeitraum um 1816 anschauen, dann können wir dieses Ereignis in einer detaillierterer Temperaturkurve mit einem 12-monatigen beweglichen Durchschnitt nur ansatzweise erkennen.

Abbildung 1: Deutschland: mittlere Jahrestemperaturen 1743–2013 als gleitende 12-Monats- sowie 10-Jahres-Mittel“ Quelle Wikipedia, Autor Phrontis, Lizenz: CC BY-SA 3.0

Datenbasis: http://berkeleyearth.lbl.gov/auto/Regional/TAVG/Text/germany-TAVG-Trend.txt

Auffällig sind lediglich drei Jahre vor 1820, in denen die Spitzen des 12-monatigen Mittels im Maximum kaum über das 10-jährige gleitende Mittel hinausreichen. Ähnliche Verläufe zeigt der Temperatur-Graph um 1765, 1780, 1885, 1940 und 1980. Unter diese Auffälligkeiten fällt übrigens auch der Ausbruch des Krakatau, einem Vulkan in der Sundastraße zwischen den indonesischen Inseln Sumatra und Java, am 27. August 1883.

Symptomatisch beim „Jahr ohne Sommer“ und den beiden Folgejahren sind zunächst die fehlenden positiven Temperaturspitzen oberhalb des gleitenden 10-Jahres-Mittels, während die negativen Extreme nicht unter die Minima der benachbarten Jahre abfallen. Diese Minima setzen sich sowohl aus den örtlichen Nachttemperaturen als auch aus den Temperaturen im Winterhalbjahr zusammen.

Und was bedeuten nun verringerte Maximalwerte und gleichbleibende Minimalwerte für die sogenannte „atmosphärische Gegenstrahlung“?

Abbildung 1 weist für das „Jahr ohne Sommer“ und die zwei Folgejahre ein deutliches Absinken der Maximaltemperatur aus, während sich die Minimaltemperatur nicht proportional vermindert hatte. Da aber die sogenannte „atmosphärische Gegenstrahlung“ vorgeblich aus der IR-Abstrahlung der gesamten Erdoberfläche gespeist werden soll, die wiederum direkt an die Erwärmung von Materie auf der Tagseite durch die Sonneneinstrahlung gekoppelt ist, erhalten wir einen Widerspruch.

Widerspruch: Wenn es eine von der infraroten Rückstrahlung unserer Erde direkt abhängige „atmosphärische Gegenstrahlung“ geben würde, dann müssten sowohl die Temperatur-Maxima als auch die Temperatur-Minima nach solchen Ereignissen um vergleichbare Beträge absinken.

Erklärung: Der in Abbildung 1 dargestellte Temperaturverlauf ergibt einen Widerspruch für die Existenz einer sogenannten „atmosphärischen Gegenstrahlung“, die einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben soll. Denn die Ursache-Wirkungs-Kette HF=Primär => IR=Sekundär => „Gegenstrahlung“ => 33°THE für die Erwärmung unserer Erde aus der eigenen IR-Abstrahlung wäre bei einer Reduzierung des solaren HF-Primärantriebs in allen ihren nachfolgenden Gliedern ebenfalls reduziert.
Daher müssten bei Existenz einer Gegenstrahlung und einer Verminderung der solaren Einstrahlung sowohl die Maximaltemperatur als auch die Minimaltemperatur von einem Temperaturrückgang betroffen sein.

Wie lassen sich dann aber fehlende Maxima erklären, die keinen Einfluss auf die Minima haben?

Unsere Erde besitzt mit den globalen Zirkulationen (Atmosphäre und Ozeane) eine kombinierte Luft-Wasser-Heizung, und diese Wärmespeicher werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung. Diese Wärmespeicher lassen die kontinentalen Nachttemperaturen in Abhängigkeit vom Abstand zu den Ozeanen nur in geringem Maße schwanken. Dasselbe sollte daher ebenfalls für einige aufeinanderfolgende Sommer mit geringerer solarer Einstrahlung gelten.

Also: Die Maximaltemperaturaus der solaren Einstrahlung sinkt, aber die Minimaltemperatur wird weiterhin durch die globalen Wärmespeicher getragen.

Für den Verlauf des natürlichen Klimawandels hatten Usoskin et al. (2004/2005) nachgewiesen, dass eine Veränderung der Kennzahl für den solaren Klimaantrieb (Anzahl der Sonnenflecken) etwa 10 Jahre benötigt, um auf der Nordhalbkugel vollständig als Temperaturveränderung sichtbar zu werden (dort Abbildung 3 mit einem zwischen 0 und 10 Jahren kontinuierlich ansteigenden Korrelationskoeffizienten). Diese Erkenntnis von Usoskin et al. (2004/2005) gilt also für einen stetigen Verlauf von Ursache (Sonnenflecken) und Wirkung (Temperatur), mit denen die ozeanisch gespeicherte Wärme in einer kontinuierlichen Interaktion Schritt zu halten vermag. Der Tambora-Ausbruch hatte dagegen als disruptives Ereignis sofort und messbar mit einem plötzlichen Absinken der Maximaltemperatur um bis zu 2,5 Grad auf dieses und die beiden nachfolgenden Jahre durchgeschlagen, während die Minimaltemperaturen weiterhin von den „trägen“ globalen Wärmespeichern gestützt worden waren. Und Willis Eschenbach hatte gerade nachgewiesen, dass die Korrelation zwischen den dekadischen globalen Durchschnittstemperaturen der außertropischen Nordhemisphäre und den dekadischen globalen Durchschnittstemperaturen des gesamten Globus‘ bei 0,98 liegt (Abbildung 4 in: deutsche Übersetzung auf EIKE, Original auf WUWT). Wir können damit also in erster Näherung annehmen, dass sich die Globaltemperatur in etwa wie die Temperatur der Nordhemisphäre verhält und auch damals ebenfalls verhalten hatte.

In der nachfolgenden Abbildung ist links die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter – mit entgegengesetzten Jahreszeiten auf beiden Hemisphären, rechts die ozeanische Oberflächentemperatur im August 2019, also der Durchschnitt zwischen Tag und Nacht sowie der Nord- und der Südhalbkugel:

Abbildung 2: Die Ozeantemperaturen

Links: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA)

Rechts:Area of ocean surface at a specific temperature as a proportion of the total ocean surface area and cumulative proportion by area at or below given surface temperature” im August 2019. Original von Richard Willoughby auf WUWT. Abbildungstext auf EIKE: Kumulative Fläche des Ozeans bei bestimmten Temperaturen, sie erreicht 100 % bei 30 Grad.

Zitat aus dem Text von Willoughby (dort Abbildung 4): “More than 50% of the ocean water surface exceeds 22C as shown in Figure 4 right panel while the peak proportion of area is in the range 28C to 29C but falls off sharply above 29C such that there is less than 1% of the ocean surface area warmer than 32C, left panel.”

(Google-Übersetzer: Mehr als 50 % der Ozeanwasseroberfläche überschreiten 22° C, wie […] rechts gezeigt, während der Spitzenanteil der Fläche im Bereich von 28° C bis 29° C liegt, aber über 29° C stark abfällt…).

Die hier in Abbildung 2 dargestellten Ozean-Temperaturen repräsentieren zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt zwischen -5°C und 30°C; ein globaler Durchschnitt dürfte in etwa bei der NST von etwa 15°C kumulieren. Diese Wärmespeicher verlieren über den 24h-Tag „nur sehr wenig“ Energie und müssen deshalb auf der Tagseite lediglich „nachgefüllt“ werden (hier letzte Abbildung), mehr nicht. Im Mittel sprechen wir hier aktuell von 1,05*10^22 Joule, die die Erde über den durchschnittlichen 24h-Tag netto erhält und auch wieder abstrahlt. Denn sonst wäre die sogenannte „gemessene“ globale Durchschnittstemperatur (NST) nicht einigermaßen stabil. Dagegen enthalten die Ozeane nach vorsichtiger Schätzung eine Wärmemenge von mehr als 4,59*10^26 Joule, sodass dort der Verlust durch eine reduzierte Sonneneinstrahlung zunächst kaum ins Gewicht fällt. Die nachstehende Abbildung beschreibt den Verlauf von Energiehaushalt und Temperatur in Abhängigkeit von der geographischen Breite:

Abbildung 3: Energiehaushalt und Temperatur in Abhängigkeit von der geographischen Breite

Links: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. Die hier dargestellten Energieströme summieren sich für eine feste geographische Breite im durchschnittlichen Jahresmittel gerade auf null.
Quelle: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990

Rechts: Temperatur in Abhängigkeit von der geographischen Breite. Die blaue Linie ist die Oberflächenlufttemperatur von Warren und Schneider nach Breitengrad, die orangefarbene Linie ist der Durchschnitt der NOAA-MIMOC-Ozean-Mischschichttemperatur nach Breitengrad.
Quelle: Andy May (Abbildung 2 im Original, deutsche Übersetzung auf EIKE)

Maßstab für die Betrachtung der terrestrischen Temperaturgenese ist also der Wärmeinhalt der globalen Zirkulationen mit Temperaturen um die sogenannte „gemessene globale Durchschnittstemperatur“ (NST). Dagegen legt der konventionelle THE-Tag=Nacht-Ansatz für die Nachtseite unserer Erde eine Temperatur von 0 Kelvin zugrunde, was wiederum einen zusätzlichen „natürlichen atmosphärischen Treibhauseffekt“ von 33°C erfordert, um die „gemessene“ NST zu erklären. Nach Andy May folgt die Oberflächenlufttemperatur von Warren und Schneider in niederen bis mittleren Breiten zwischen etwa 55° S bis 45° N ziemlich gut der NOAA-Mischschichttemperatur, südlich und nördlich dieser Breiten zu den Polen hin sind die Meerestemperaturen aber viel höher als die Lufttemperaturen. Die Lufttemperaturen repräsentieren also eher den örtlichen Verlauf des (um Konvektion und Verdunstung reduzierten) S-B-Temperaturäquivalentes aus der solaren Einstrahlung, deren durchschnittlicher globaler Mittelwert nach Häckel jenseits von ca. 45° nördlicher und südlicher Breite negative Werte annimmt. Dagegen leiten sich die Meerestemperaturen aus der konvektiven geographischen Verteilung der in den Ozeanen gespeicherten Energiemenge her. Auf der Nordhalbkugel spalten sich Lufttemperatur und Mixed Layer Temperatur nach Warren&Schneider ziemlich genau im Bereich der 0-Linie der Strahlungsbilanz von Häckel auf, auf der Südhalbkugel ist diese Übereinstimmung nicht ganz so deutlich.

Wir können aus Abbildung 3 (links) jedenfalls herleiten, dass sich die Überschüsse und Defizite gegenüber dem hemisphärisch berechneten S-B-Temperaturäquivalent im Normalfall durch den lateralen Transport von Wärme global gerade ausgleichen. Positive und negative örtliche Differenzen zwischen den gemessenen Temperaturen und dem rechnerischen S-B-Temperaturäquivalent der spezifischen solaren Einstrahlung werden also durch laterale Ausgleichsbewegungen von Wärme über die geographischen Breitenkreise hinweg ausgeglichen. Im Falle des Tambora-Ausbruchs verringert sich nun schlagartig die solare Einstrahlung und reduziert damit in globalem Maßstab die örtliche Maximaltemperatur. Da der Energieinhalt der Ozeane aber bereits vorher gespeichert worden war, wird daraus jetzt weiterhin die örtliche Minimaltemperatur gestützt. Die für die terrestrische Temperaturgenese verfügbare Sonneneinstrahlung wird allein von der Solarkonstanten (So=1.367W/m²) und der Albedo unserer Erde bestimmt:

(S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

mit Merw Erwärmung von Materie

Evap Verdunstung

Konv Konvektion

unter Vernachlässigung des Bodenwärmeflusses

Die Temperatur unserer Erde beträgt bei einer Albedo von 30,6%:

Dabei handelt es sich bei der Temperatur der Tagseite um die primäre Wirkung der solaren Strahlungsleistung auf der Tagseite der Erde. Die Temperatur der Nachtseite unserer Erde ist dagegen den terrestrischen Wärmespeichern geschuldet, insbesondere den Ozeanen. Die Abstrahlungsleistung eines Körpers mit einer Temperatur größer 0 Kelvin steigt proportional zur 4. Potenz seiner Temperatur. Im eingeschwungenen Zustand des Systems Erde müssen sich daher bei konstanter Temperatur Ein- und Abstrahlung gerade entsprechen. In diesem Fall sind nämlich die Wärmespeicher voll aufgeladen, und es müssen nur noch die Abstrahlungsverluste ersetzt werden. Bemessungsgrundlage für die Nachttemperatur unserer Erde ist also nicht etwa der Absolute Nullpunkt von -273°C, wie im konventionellen THE-Tag=Nacht-Ansatz, sondern die Temperatur der globalen Wärmespeicher.

Im Fall des Tambora-Ausbruchs hatte sich die terrestrische Albedo schlagartig um einen Betrag „+DELTA ALBEDO“ erhöht, wodurch sich die Maximaltemperatur um (– Δ T) verringert hatte. Die Albedo der Erde steigt also nach einem Vulkanausbruch mit einem VEI größer gleich 6 (VEI=Vulkanexplosivitätsindex, Tambora=7, Krakatau=6) für einen begrenzten Zeitraum an, sodass der 24h-tägliche Abstrahlungsverlust unserer Erde bei zunächst unveränderter Temperatur der Wärmespeicher nicht mehr ausreichend durch die solare Einstrahlung ersetzt werden kann, weil sich die Maximaltemperatur sofort an das neue Einstrahlungsniveau anpasst:

Tagseite: Tphys = 15°C – Δ T

Die maximale Tagestemperatur sinkt also sofort, aber die globalen Zirkulationen besitzen noch ihren gespeicherten Energieinhalt aus der solaren Einstrahlung vor dem Tambora-Ereignis und stützen damit weiterhin die Minimaltemperaturen. Wenn sich die temperaturwirksame Strahlungsleistung verringert, dann passt sich der Wärmeinhalt der globalen Zirkulationen also nicht sofort an das niedrigere Temperaturniveau an, sondern benötigt nach der Arbeit von Usoskin et al. (2004/2005) einen Zeitraum von etwa 10 Jahren für eine solche Anpassung. So lange hatte die globale Verdunklung nach dem Tambora-Ausbruch allerdings gar nicht gedauert, vielmehr steigt ab ca. 1820 das gleitende 10-Jahres-Mittel in Abbildung 1 bereits wieder deutlich an. Der Wärmeüberschuss in den globalen Zirkulationen gegenüber der plötzlich gesunkenen maximalen Tagestemperatur nach dem Tambora-Ausbruch stützt also die globale Minimaltemperatur. Wir können uns einen solchen Ablauf anhand der nachfolgenden Abbildung verdeutlichen:

Abbildung 4: Jahresverlauf der Temperatur am Beispiel Potsdam

Links: Treppenkurve: Maximale monatliche Bodentemperatur in Potsdam Jahre 1890-2013

Blau gestrichelt: Maximales jahreszeitliches S-B-Temperaturäquivalent

Rechts: Differenz zwischen der maximalen monatliche Bodentemperatur in Potsdam und dem maximalen örtlichen S-B-Temperaturäquivalent

Rote Kurve: Trendlinie für die Differenz (schwarze Zackenkurve) zwischen maximaler monatlicher Bodentemperatur und dem maximalen örtlichen S-B-Temperaturäquivalent in Potsdam

Rot schraffiert: Zufluss von Wärme im Winterhalbjahr

Blau schraffiert: Abfluss von Wärme im Sommerhalbjahr

Daten von: https://www.pik-potsdam.de/services/klima-wetter-potsdam/wetterextreme

Anmerkung: Die S-B Gleichgewichtstemperatur im solaren Zenit wurde jahreszeitabhängig unter Berücksichtigung der durchschnittlichen Albedo mit netto 780 W/m² berechnet (Weber @DGG 2019)

Im linken Bild übersteigt das rechnerische S-B-Äquivalent der spezifischen solaren Strahlungsleistung im Frühjahr und Sommer (mittlerer Abschnitt) die tatsächlich gemessene Maximaltemperatur. Die „überschüssige“ Strahlungsleistung wird in Form von Konvektion und Verdunstung abgeführt. Im Herbst und Winter (rechts und links) dagegen, wo die spezifische solare Strahlungsleistung für die tatsächlich gemessene Maximaltemperatur nicht ausreicht, findet ein Zufluss von Energie aus den globalen Zirkulationen statt. Im Sommerhalbjahr fließt also Wärmeenergie in die globalen Wärmespeicher und im Winterhalbjahr wird die Ortstemperatur durch einen Wärmezufluss aus diesen Wärmespeichern gestützt. In sehr viel kleinerem Maßstab geschieht ein solcher Temperaturausgleich auch zwischen der Tages- und der Nachttemperatur, es sei hier beispielsweise an den Absatz „Das Land-Seewind-System als Funktionsbeispiel für die globalen Zirkulationen“ erinnert. Wir stellen also ganz einfach fest, dass sich im „Jahr ohne Sommer“ in erster Näherung sowohl die solare Einstrahlung als auch die Temperatur der individuellen Ortslagen reduziert hatte. Und damit hatte sich auch der blau schraffierte Abfluss von Wärme in die globalen Zirkulationen reduziert, während der rot schraffierte Zufluss von Wärme aus den globalen Zirkulationen zunächst weitgehend stabil geblieben sein muss.

Nach den Ausbrüchen von Tambora und Krakatau hatten sich durch die Aschewolke in der hohen Atmosphäre also die Spitzen der örtlichen Tagestemperaturen deutlich reduziert. Die nächtlichen Minimaltemperaturen konnte das Klimasystem unserer Erde dagegen aufgrund der gefüllten ozeanischen Wärmespeicher weiterhin aufrechterhalten. Und diese Erkenntnis ist wiederum ein schöner Beweis gegen einen „natürlichen atmosphärischen Treibhauseffekt“ und für mein hemisphärisches S-B-Modell.

 




Unzuverlässigkeit macht die Solarenergie absolut unbezahlbar

David Wojick

Viele [US-]Bundesstaaten und die von ihnen regulierten Versorgungsunternehmen sprechen davon, ihre kohle- und gasbefeuerten Generatoren durch Solar- und Windenergie zu ersetzen. So habe ich vor kurzem darüber geschrieben, dass das Gesetz für eine saubere Wirtschaft in Virginia mit seinem verrückten Namen bereits fast 800 Quadratmeilen an Solaranlagen in der Entwicklungsphase hat. Siehe hier.

In Anbetracht der hohen Intermittenz von Wind- und Solarenergie ist die Idee, sich mit Solar- und Windenergie zu versorgen, eine extrem kostspielige Angelegenheit. Es geht vor allem um Zuverlässigkeit. Die Elektrizität muss da sein, wenn wir sie brauchen. Im Folgenden stelle ich einige einfache Berechnungen vor, die zeigen, wie schlecht diese Idee wirklich ist.

Die Zuverlässigkeitsanalyse von Solar- und Windenergieanlagen in großem Maßstab kann sehr komplex sein. Beide sind vom Wetter abhängig, das sich schnell und dramatisch ändern kann. Beide können in hohem Maße von anderen verfügbaren Energiequellen abhängen, falls vorhanden. Unter bestimmten Bedingungen können sie auch voneinander abhängig sein.

Hier werden wir einfach bestimmte grundlegende Merkmale der Stromerzeugung analysieren, um die Probleme zu skalieren. Für den Anfang betrachten wir einfach, was ein eigenständiges 1.000-MW-Solarsystem mit Batteriespeicher für die Zuverlässigkeit benötigt.

Die 1.000 MW sind Strom, der rund um die Uhr zuverlässig ins Netz eingespeist wird. Wegen der Intermittenz werden deutlich mehr als 1.000 MW an Erzeugungskapazität benötigt. Außerdem wird eine Menge Batteriespeicher benötigt. Daher werden die Kapitalkosten viel höher sein als die Kosten für 1.000 MW Erzeugungskapazität. Wir werden diese zusätzlichen Kosten erörtern. Beachten Sie, dass die Hinzunahme von Windenergie diese sehr hohen Kosten nicht verringert.

Ausgehend von dieser einfachen 1.000-MW-Analyse wird es relativ einfach sein, andere mögliche Systeme unterschiedlicher Größe und mit unterschiedlichen Merkmalen zu betrachten.

Zuverlässigkeit der 1000 MW Stromerzeugung rund um die Uhr

Solarenergie ist aufgrund des vorhersehbaren täglichen Zyklus von Tag und Nacht relativ einfach abzuschätzen. Die Erzeugungszeiten variieren jedoch je nach Jahreszeit. Sie hängen auch davon ab, wie beweglich die Paneele sind, d. h. inwieweit sie der täglichen Bewegung der Sonne am Himmel folgen können.

Der Fall der vollen Sonnenscheindauer

Der Einfachheit halber gehen wir zunächst von 8 Stunden voller Sonne und voller Leistung pro Tag aus. Dann brauchen wir natürlich jede Nacht 16 Stunden Speicherplatz. Das sind 16.000 MWh an Batteriespeichern. Außerdem benötigen wir weitere 2.000 MW an Erzeugungskapazität, um die Batterien jeden Tag aufzuladen.

Bei voller Sonneneinstrahlung sind also 3.000 MW an Solarstromerzeugungskapazität und 16.000 MWh an Speicherkapazität erforderlich, um rund um die Uhr zuverlässig 1.000 MW zu erzeugen.

Dunkle Tage mit viel Bewölkung

An dunklen, wolkenverhangenen Tagen kann die Solarstromleistung drastisch reduziert werden. Bei starker Bewölkung kann die Leistung auf nur 10 % der Nennkapazität reduziert werden. Dichte Bewölkung kann sich tagelang halten, so dass neben der Stromerzeugungskapazität auch eine größere Batteriepufferung erforderlich ist, um die Batterien an diesen dunklen Tagen aufzuladen.

Wie viele aufeinanderfolgende Tage mit starker Bewölkung zu berücksichtigen sind, ist eine komplexe Frage der lokalen und regionalen Meteorologie. Hier nehmen wir einfach 5 Tage an, aber es könnten leicht mehr sein. Fünf verhangene Tage kommen in den meisten Staaten sicherlich von Zeit zu Zeit vor. Im Fall von Virginia kann dies in der gesamten mittelatlantischen Region vorkommen, so dass niemand über nennenswerten Solarstrom verfügt. Das schließt den Kauf von Solarstrom aus Nachbarstaaten aus.

Zuverlässigkeit erfordert eine Auslegung für diese relativ extremen Ereignisse. Bei der konventionellen Stromerzeugung plant man für den maximalen Strombedarf, aber bei Wind- und Solarenergie muss man auch für die Mindestversorgung planen. Um diesen Minimalfall geht es mir hier.

Die erforderliche Batteriekapazität ist einfach. Fünf Tage mit 24 Stunden pro Tag sind 120 Stunden. Um eine konstante Leistung von 1.000 MW zu liefern, sind das satte 120.000 MWh an Speicherkapazität. Wir haben bereits eine Nachtspeicherkapazität von 16 Stunden, also brauchen wir jetzt zusätzliche 104 Stunden, also 104.000 MWh an zusätzlicher Speicherkapazität.

Die erforderliche zusätzliche Stromerzeugungskapazität zum Aufladen der Batterien für diese wolkenreichen Tage ist jedoch alles andere als einfach. Es hängt alles davon ab, wie lange wir für das Aufladen Zeit haben. Je mehr Zeit wir haben, desto geringer ist die erforderliche Stromerzeugungskapazität.

Es ist von entscheidender Bedeutung, dass die Batterien für die dunklen Tage aufgeladen werden, bevor die nächsten dunklen Tage kommen, was in einigen Fällen sehr bald sein kann. Auch dies ist eine Frage der Meteorologie. Um konservativ zu sein, gehen wir zunächst davon aus, dass wir zwei helle Sonnentage haben, um die Arbeit zu erledigen.

An zwei Tagen haben wir 16 Stunden Ladezeit für die benötigten 120.000 MWh, was eine große Erzeugungskapazität von 7.500 MW erfordert. Wir verfügen bereits über 3.000 MW an Erzeugungskapazität, die jedoch rund um die Uhr für die Stromversorgung an sonnigen Tagen genutzt wird. Sie steht nicht zur Verfügung, um die Batterien für die dunklen Tage aufzuladen. Es stellt sich heraus, dass wir satte 10.500 MW an Solarstromerzeugungskapazität benötigen.

Diese 10.500 MW sind eine Menge, wenn man bedenkt, dass wir nur 1.000 MW rund um die Uhr zuverlässig erzeugen wollen. Außerdem wird ein Teil dieser zusätzlichen Erzeugungskapazität nur selten genutzt werden. Aber die Zuverlässigkeit ist wegen der großen Wetterschwankungen so. Bei der konventionellen Stromerzeugung mit fossilen Brennstoffen ist das Extremereignis, das für die Auslegung ausschlaggebend ist, der Spitzenbedarf (auch Nachfragespitze genannt). Für diesen Fall werden spezielle Generatoren, sogenannte „Peaker“, eingesetzt. Im Falle der Solarenergie handelt es sich bei der speziellen Ausrüstung um Batterien oder andere Formen der Speicherung.

Wenn wir 5 Tage Zeit haben, um die Batterien für die dunklen Tage aufzuladen, ist die erforderliche Erzeugungsmenge viel geringer. An fünf Tagen haben wir 40 Stunden Zeit, um die 120.000 MWh aufzuladen, so dass wir nur 3.000 MW an zusätzlicher Erzeugungskapazität benötigen, zusätzlich zu den 3.000 MW, die wir für die tägliche Stromerzeugung an sonnigen Tagen benötigen.

An diesem Punkt benötigen wir 120.000 MWh Batteriespeicher und 6.000 bis 10.500 MW Erzeugungskapazität, um rund um die Uhr zuverlässig 1.000 MW Strom zu liefern.

Diese großen Zahlen kommen zustande, weil wir nach einer Periode dunkler, bewölkter Tage während der Erzeugungsstunden bei Tageslicht drei Dinge gleichzeitig tun. Wir erzeugen (1) 1.000 MW sofort verbrauchten Strom und laden gleichzeitig sowohl die (2) Nachtbatterien als auch die (3) Batterien für die dunklen Tage wieder auf.

Beachten Sie auch, dass die Zahlen eigentlich größer sein müssten. Die Batterien werden nicht zu 100 % geladen und dann auf Null entladen. In der Regel werden sie zwischen 80 % und 20 % betrieben. In diesem Fall beträgt die verfügbare Speicherkapazität nur 60 % der Nennkapazität. Das macht aus den 120.000 MWh der dunklen Tage einen Bedarf von 200.000 Mwh.

Kosten im Falle von Tagen mit dichter Bewölkung

Ein Standardwert der EIA für die Kosten von netzweiten Batteriespeichern liegt bei 250 $ pro kWh, was 250.000 $ pro MWh ergibt. Bei diesen Kosten belaufen sich die erforderlichen 200.000 MWh Speicher für rund um die Uhr verfügbare 1.000 MW auf 50 Mrd. $.

Ein Standardwert der EIA für PV-Solarkapazität beträgt 1300 $ pro kW oder 1.300.000 $ pro MW. Damit liegen die Kosten für 6.000 bis 10.500 MW bei 7,8 bis 13,7 Milliarden Dollar.

Damit sind 60 Mrd. $ für nur 1.000 MW eine gute grobe Schätzung für die alleinige Solarkapazität, um den Fall von 5 dunklen bewölkten Tagen zu erfüllen. (Wie weiter unten erläutert, verringert die Hinzunahme von Windkraft diese Zahl nicht, da an den 5 dunklen Tagen auch die Windkraftleistung gleich Null sein kann*).

[*Ein Musterbeispiel hierfür sind die häufigen Hochdrucklagen bei uns in diesem Winter. Dabei hält sich tage-, wenn nicht wochenlang zäher Hochnebel bei praktisch Windstille von den Alpen bis auf die Nordsee hinaus. A. d. Übers.]

Bei wechselnder Bewölkung

Der Fall der Tage mit wechselnder Bewölkung ist weitaus komplexer. In den meisten Fällen kann dieser Verlust an Solarstromerzeugung mit den Batterien für dunkle Tage ausgeglichen werden. Dies ist jedoch möglicherweise nicht der Fall, wenn dem Ereignis der dunklen Tage teilweise bewölkte Tage vorausgehen oder folgen, insbesondere wenn diese relativ dunkel sind. Beachten Sie, dass „teilweise bewölkt“ hier auch vollständige Bewölkung einschließt, bei der die Wolkendecke leicht genug ist, um immer noch deutlich mehr als die 10 % Stromerzeugung an den dunklen Tagen zu ermöglichen.

Angesichts dieser komplexen Zusammenhänge sprengt dieser teilweise bewölkte Fall den Rahmen dieser einfachen Analyse. Es ist sehr wahrscheinlich, dass in diesem Fall zusätzliche Batteriespeicher und Erzeugungskapazitäten erforderlich sind. Wie viel, ist schwer zu sagen.

Es ist auch zu beachten, dass mehrere kostspielige Funktionen nicht berücksichtigt sind. Ein Beispiel ist die Übertragung, um den Solarstrom vom Ursprungsort zu den möglicherweise weit entfernten Lastzentren zu bringen. Ein weiteres Beispiel ist die Reserveerzeugungskapazität oder Sicherheitsmarge, die bis zu 20 % betragen kann. Man kann nicht davon ausgehen, dass alles perfekt funktioniert, wenn das System belastet wird. Dies gilt vor allem dann, wenn die dunklen Tage von starken Schneefällen begleitet werden, die das Aufladen stark verzögern können.

Zuverlässigkeit der Winderzeugung rund um die Uhr zur Unterstützung der Solarenergie

Die Winderzeugung hat nicht den vorhersehbaren Tageszyklus wie die Solarenergie und ist daher von Anfang an komplexer. Bei der Solarenergie können wir an den meisten Tagen mit einer relativ guten kontinuierlichen Erzeugung rechnen. Bei der Windenergie kann es vorkommen, dass die Leistung im Laufe eines Tages häufig auf Null sinkt, dass sie mehrere Tage hintereinander ausbleibt und dass sie an vielen Orten über längere Zeiträume hinweg nur sehr wenig liefert.

Es geht nicht darum, dass kein Wind weht, sondern dass nur wenig Wind weht. Windkraftanlagen benötigen anhaltende Winde von beträchtlicher Geschwindigkeit, um nennenswerte Mengen an Strom zu erzeugen. In vielen Teilen des Landes verursachen stagnierende, mehrtägige Hochdrucksysteme sowohl Windstille als auch einen hohen Strombedarf.

Es ist sehr wichtig zu beachten, dass aufgrund dieser großen Variabilität die Windenergie nicht genutzt werden kann, um den massiven Bedarf an Solarenergie an dunklen Tagen zu reduzieren. Es ist nämlich immer möglich, dass während der dunklen Tage kein Windstrom zur Verfügung steht, ebenso wie während der Wiederaufladezeit nach diesem Extremereignis. Ein eigenständiges Solar- und Windsystem muss für diese extreme, aber häufige Möglichkeit ausgelegt sein.

Solar- und Windenergie können Kohle und Gas nicht zu vertretbaren Kosten ersetzen. Die Intermittenz macht Solar- und Windenergie zu einem untragbaren Kostenfaktor. Dies gilt wahrscheinlich nicht nur für alle US-Bundesstaaten und ganz sicher für Virginia, sondern für alle Länder dieser Welt.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2022/01/19/unreliability-makes-solar-power-impossibly-expensive/

Übersetzt von Christian Freuer für das EIKE




Energiehunger der Welt – Klimawissen kurz&bündig

Nummer 13: Immer mehr grüne Energiequellen werden weltweit genutzt, jubeln die Massenmedien. Aber stimmt das, und vor allem: Ist es relevant? Eher nicht, da die Hauptemittenten von CO2 wie China gleichzeitig zur Erneuerbaren-Förderung ihre Fossilkraftwerke ausbauen, und das deutlich stärker. Gleichzeit optimiert der Westen seine Dienstleistungsgesellschaften und braucht immer weniger Energie in Relation zu früheren Jahrzehnten.




Google geht gegen Klima-Realisten vor

Anthony Watts, H. Sterling Burnett

Es scheint, dass es bei Meinungsverschiedenheiten über den Klimawandel nur einen Standpunkt der Linken geben kann: „my way or the highway“.

Am 7. Oktober 2021 erklärte Google in einer Ankündigung mit dem Titel [übersetzt] „Aktualisierung unserer Anzeigen- und Monetarisierungsrichtlinien zum Klimawandel“, dass es Anbietern von Inhalten, die einen skeptischen Standpunkt zum Klimawandel vertreten, nicht mehr erlauben würde, Geld über die Google AdWords-Plattform zu verdienen:

Auseinandersetzung mit der Leugnung des Klimawandels

In den letzten Jahren haben wir direkt von einer wachsenden Zahl unserer Werbe- und Verlagspartner gehört, die sich besorgt über Anzeigen geäußert haben, die neben unzutreffenden Behauptungen über den Klimawandel laufen oder diese propagieren. Werbetreibende wollen einfach nicht, dass ihre Anzeigen neben solchen Inhalten erscheinen. Und Verleger und Autoren möchten nicht, dass Anzeigen, die diese Behauptungen unterstützen, auf ihren Seiten oder Videos erscheinen.

Aus diesem Grund kündigen wir heute eine neue Monetarisierungsrichtlinie für Google-Inserenten, Herausgeber und YouTube-Ersteller an, die Anzeigen für und die Monetarisierung von Inhalten verbietet, die dem etablierten wissenschaftlichen Konsens über die Existenz und die Ursachen des Klimawandels widersprechen. Dazu gehören Inhalte, die den Klimawandel als Schwindel oder Betrug bezeichnen, Behauptungen, die leugnen, dass langfristige Trends zeigen, dass sich das globale Klima erwärmt, und Behauptungen, die leugnen, dass Treibhausgasemissionen oder menschliche Aktivitäten zum Klimawandel beitragen.

Google beruft sich bei dieser Maßnahme auf den IPCC sowie auf nicht genannte „Experten“:

Bei der Erstellung dieser Richtlinie und ihrer Parameter haben wir maßgebliche Quellen zum Thema Klimawissenschaft konsultiert, darunter auch Experten, die an den Bewertungsberichten des IPCC mitgewirkt haben. Wie bei vielen unserer Richtlinien setzen wir eine Kombination aus automatisierten Tools und menschlicher Überprüfung ein, um diese Richtlinie gegen verletzende Publisher-Inhalte, von Google geschaltete Anzeigen und YouTube-Videos, die über das YouTube-Partnerprogramm monetarisiert werden, durchzusetzen.

Getreu dieser Ankündigung hat Google bereits mehrere prominente Plattformen, die skeptische Standpunkte zum Klimawandel vertreten, aus dem Verkehr gezogen. Eine der ersten betroffenen Websites war meine eigene Watts Up With That (WUWT), die weltweit meistbesuchte Website zum Klimawandel. Am 11. Oktober 2021 erhielt ich diese E-Mail von meinem Werbepartner Sortable:

Dr. Spencer writes:

Hallo Anthony,

wir haben vor kurzem eine Mitteilung von Google erhalten, dass die Anzeigenschaltung auf Ihrer Website aufgrund der neuen Richtlinien für Inhalte zum Klimawandel deaktiviert wurde.

Ohne die Zustimmung von Google müssen wir unsere Partnerschaft leider beenden. Wir verstehen, dass dies frustrierend ist und schlagen vor, dass Sie sich an das Google-Team wenden, um eine erneute Genehmigung zu erhalten. Wenn sie diese kippen, würden wir unsere Partnerschaft gerne wieder aufnehmen.

Natürlich wäre ein Einspruch sinnlos gewesen, denn es handelt sich nicht um eine faktenbasierte Aktion von Google. Meiner Meinung nach ist es Teil einer orchestrierten Hexenjagd.

Ich habe erfahren, dass auch andere Websites betroffen waren, und die wahrscheinlich überraschendste war die des ehemaligen NASA-Wissenschaftlers Dr. Roy Spencer, der über seine Erfahrungen in einem Beitrag vom 7. Januar schrieb: „’Unzuverlässige und schädliche Behauptungen‘: Diese Website wurde von Google demontiert“.

Dr. Spencer schreibt:

Aus finanzieller Sicht ist das keine große Sache, denn was ich mit Google-Anzeigen verdiene, liegt im Rahmen des monatlichen Budgets meiner Familie. Ich verdiene kaum mehr, als ich an Hosting-Gebühren und einem (immer teurer werdenden) Kommentarspam-Screener zahle….

Seit einigen Monaten erhalte ich Google-Warnungen wegen „Richtlinienverstößen“, aber nirgendwo wurde aufgeführt, welche Seiten gegen die Richtlinien verstoßen und worin diese Verstöße bestehen….

Erst als die Anzeigen entfernt wurden, bot Google Links zu den fraglichen Seiten an und nannte den Grund dafür.

Spencers Erfahrung ähnelt der meinen: keine konkreten „Verstöße“, nur dass WUWT gegen diese nebulösen neuen Richtlinien verstoßen hat.

Was den Inhalt betrifft, so hat Dr. Spencer Folgendes zu sagen:

Ich hatte irgendwie gehofft, dass mein Inhalt Mainstream genug war, um nicht gesperrt zu werden, weil:

1. Ich glaube, dass sich das Klimasystem erwärmt hat

2. Ich glaube, dass der größte Teil dieser Erwärmung wahrscheinlich auf die Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe zurückzuführen ist.

Viele von Ihnen wissen, dass ich einen Großteil der Mainstream-Klimawissenschaft verteidige, einschließlich der Klimamodellierung als Unternehmen. Wo ich vom „Mainstream“ abweiche, ist die Frage, wie viel Erwärmung stattgefunden hat, wie viel Erwärmung in Zukunft zu erwarten ist und was aus energiepolitischer Sicht dagegen getan werden sollte.

Wow, gefährliche Gedanken, oder?

Aber wie ich bereits sagte, geht es hier nicht um Fakten. Es ist eine Hexenjagd.

Laut einer Gallup-Umfrage aus dem Jahr 2018 hält weniger als die Hälfte der amerikanischen Bürger den Klimawandel für eine „Krise“. Nur 45 Prozent glauben, dass die globale Erwärmung zu ihren Lebzeiten eine ernsthafte Bedrohung darstellen wird, und nur 43 Prozent sagen, dass sie sich große Sorgen über den „Klimawandel“ alias die „globale Erwärmung“ machen. Dennoch ist die Linke entschlossen, diese Meinung zur Mehrheit zu machen, egal was die Fakten dagegen sprechen, und sie setzt einen Monopolhammer in Form von Google ein, um jede abweichende Meinung zu unterdrücken.

Die Gallup-Umfrage weist darauf hin, dass dies nichts anderes als eine Erweiterung der großen politischen Kluft ist, die unser Land erfasst hat. Die Autoren stellen fest, dass die Demokraten die globale Erwärmung ernst nehmen, während die Republikaner ihr skeptisch gegenüberstehen: 69 Prozent der Republikaner, aber nur 4 Prozent der Demokraten, halten die globale Erwärmung für übertrieben.

Das Problem ist mehr als nur ein Konflikt zwischen politischen Standpunkten. Es hat mit der Kompetenz bei der Bewertung von Klimainformationen zu tun. Unabhängige „Faktenchecker“ haben oft nicht mehr Wissen als eine Sammlung von Schlagzeilen im Kopf.

„Google hat bereits gesagt, dass Sie aus dem Adsense-Programm ausgeschlossen werden sollen. Ich kann nicht erwarten, dass deren geisteswissenschaftlich ausgebildete ‚Faktenprüfer‘ die Nuancen der Debatte über die globale Erwärmung verstehen“, schreibt Spencer.

Und das tun sie natürlich nicht. Spencer weist darauf hin, dass seine am häufigsten besuchten Seiten, die mit „unzuverlässigen und schädlichen Behauptungen“ angegriffen werden, „unsere (UAH) monatlichen Seiten zur globalen Temperaturaktualisierung sind. Das liegt offensichtlich daran, dass einigen Aktivisten, die bei Google angestellt sind (die wahrscheinlich noch nicht einmal geboren waren, als John Christy und ich sowohl von der NASA als auch von der Amerikanischen Meteorologischen Gesellschaft für unsere Arbeit ausgezeichnet wurden), die Antwort nicht gefällt, die unser 43 Jahre langer Satellitendatensatz gibt.“

Der UAH-Satellitendatensatz ist nach wie vor einer der zentralen globalen Temperaturdatensätze, der von Mainstream-Klimaforschern in ihrer Arbeit verwendet wird, doch jetzt, wo die Google-Hexenjagd in vollem Gange ist, wurde er von Leuten, die wahrscheinlich nicht einmal wissen, wie der Prozess funktioniert, aber pauschale Marschbefehle erhalten und die Macht haben, diese durchzusetzen, als Daten non grata gebrandmarkt.

Es ist ein trauriger Tag für die Wissenschaft und die Wahrheit [nicht nur] in Amerika, wenn ein Monopolist darüber entscheiden darf, was die Amerikaner sehen und was nicht, und zum selbsternannten Schiedsrichter der Wahrheit wird.

[Hervorhebung und Hinzufügung in eckigen Klammern vom Übersetzer]

Quellen: Dr. Roy Spencer; NewsBusters, Climate Realism; Watts Up With That

Link: https://www.heartland.org/news-opinion/news/google-demonetizes-climate-skepticism

Übersetzt von Christian Freuer für das EIKE




Weitere Klima-Rückzieher: „Eine sich erwärmende Arktis trieb die Erde in die kleine Eiszeit“

Cap Allon

Sie tun so, als sei dies eine neue Nachricht, als hätte noch nie jemand daran gedacht: „Wissenschaftler entdecken, dass eine sich erwärmende Arktis die Erde in die kleine Eiszeit getrieben hat“. Sie nennen es sogar „überraschend“.

Wie MSN berichtet, sanken die Temperaturen in Europa im frühen 15. Jahrhundert nach der so genannten mittelalterlichen Warmzeit – es gab sie also wirklich?! – in einer Zeit, die als Kleine Eiszeit (LIA) bekannt geworden ist.

Diese bemerkenswerte, mehrere Jahrhunderte währende Kälteperiode brachte eine zunehmende Vergletscherung der Berge, Ausdehnung des Meereises, Ernteausfälle, Hungersnöte und Krankheiten auf dem gesamten europäischen Kontinent. Wechselnde Sommer – mit Extremen an beiden Enden des Spektrums – wurden von brutal strengen Wintern abgelöst, in denen Flüsse und Kanäle regelmäßig zufroren. In UK wurde beispielsweise 1608 die erste „Frostmesse“ auf der zugefrorenen Themse abgehalten, die bis zur letzten im Jahr 1814 fast jährlich stattfand – also noch vor dem von der AGW-Partei vorgeschlagenen Datum für den Beginn der industriellen Revolution (≈1880), als die globalen Temperaturen angeblich aufgrund der zunehmenden CO2-Emissionen zu steigen begannen …[eines Tages werden wir lachen]…

Es gibt, wie es sich gehört und wie es vernünftig ist, zahlreiche mögliche Erklärungen für die Ursachen des Temperaturabfalls während der LIA. Ganz oben auf der Liste stehen verstärkte vulkanische Aktivitäten, verringerte Sonnenaktivität und sogar die Auswirkungen des Schwarzen Todes, der die menschliche Bevölkerung reduzierte – Bill Gates‘ Favorit.

Doch Wissenschaftler der Universität von Massachusetts glauben, einen „neuen“ Schlüsselfaktor dafür gefunden zu haben, warum die Temperaturen auf den niedrigsten Stand seit 10.000 Jahren gefallen sind – und sie tun so, als ob dies nicht schon seit Jahren von „alternativen“ Medien berichtet worden wäre: „Überraschenderweise“, so die Forscher, „scheint die Abkühlung durch eine ungewöhnlich warme Episode ausgelöst worden zu sein.“

Die „Entdeckung“ kam zustande, nachdem der Hauptautor Francois Lapointe, ein Postdoktorand und Dozent für Geowissenschaften an der Universität von Massachusetts, und Raymond Bradley, angesehener Professor für Geowissenschaften, ebenfalls an der Universität von Massachusetts, auf neue Daten gestoßen waren, die auf eine rasche Veränderung der Meerestemperaturen hindeuteten.

Ihre frühere Arbeit, die eine 3.000-jährige Rekonstruktion der Meeresoberflächentemperaturen des Nordatlantiks enthüllte, zeigte einen plötzlichen Wechsel von sehr warmen Bedingungen in den späten 1300er Jahren zu beispiellos kalten Bedingungen in den frühen 1400er Jahren, nur 20 Jahre später.

Dr. Lapointe und Professor Bradley nutzten verschiedene Quellen, um detaillierte Meeresaufzeichnungen zu erhalten, und entdeckten, dass es in den späten 1300er Jahren einen ungewöhnlich starken Transfer von warmem Wasser nach Norden gegeben hatte, der um 1380 seinen Höhepunkt erreichte. Infolgedessen wurden die Gewässer südlich von Grönland und die nordischen Meere viel wärmer als üblich.

„Niemand hat dies zuvor erkannt“, so Dr. Lapointe…!?

Die Forscher erklärten, dass es einen Transfer von warmem Wasser aus den Tropen in die Arktis gibt. Dabei handelt es sich um einen gut bekannten Prozess, der als Atlantische Meridionale Umwälzzirkulation (Atlantic Meridional Overturning Circulation AMOC) bezeichnet wird und mit einem planetarischen Förderband verglichen werden kann. Wenn er normal funktioniert, fließt warmes Wasser aus den Tropen entlang der nordeuropäischen Küste nach Norden, und wenn es höhere Breiten erreicht und auf kälteres arktisches Wasser trifft, verliert es Wärme und wird dichter, wodurch das Wasser sinkt. Dieses Tiefenwasser fließt dann entlang der nordamerikanischen Küste nach Süden und zirkuliert weiter um die Welt.

Diese topografische Karte zeigt die schematische Zirkulation der Oberflächenströmungen (durchgezogene Kurven) und der Tiefenströmungen (gestrichelte Kurven) des Atlantischen Ozeans, die einen Teil der AMOC bilden. Die Farben der Kurven geben die ungefähren Temperaturen an.

In den späten 1300er Jahren verstärkte sich die AMOC jedoch erheblich, was bedeutete, dass viel mehr warmes Wasser als üblich nach Norden strömte, was wiederum zu einem raschen Verlust des arktischen Eises führte. Im Laufe weniger Jahrzehnte Ende des 13. und Anfang des 14. Jahrhunderts strömten riesige Mengen eisigen [Schmelz-, Süß-]Wassers in den Nordatlantik, das nicht nur den Nordatlantik abkühlte, sondern auch seinen Salzgehalt verdünnte, was schließlich zum Zusammenbruch der AMOC führte. Dieser Zusammenbruch des Förderbandes war der Auslöser für die erhebliche Abkühlung in Europa, so die Forscher.

Beunruhigenderweise scheint heute ein ähnlicher Prozess im Gange zu sein (auch mit dem Beaufortwirbel stimmt etwas nicht).

In den letzten Jahrzehnten, insbesondere in den 1960er und 1980er Jahren, war eine rasche Verstärkung der AMOC zu beobachten, ein Phänomen, das mit dem anhaltend hohen Druck in der Atmosphäre über Grönland zusammenhängt. Dr. Lapointe und Professor Bradley sind der Meinung, dass sich derzeit die gleiche atmosphärische Situation abspielt wie kurz vor der Kleinen Eiszeit. Aber was könnte dieses anhaltende Hochdruckereignis in den 1380er Jahren ausgelöst haben? Laut Dr. Lapointe kann die Antwort in Bäumen zu finden sein.

Die Forscher verglichen ihre Ergebnisse mit einer neuen Aufzeichnung der Sonnenaktivität, die durch in Baumringen konservierte Radiokohlenstoff-Isotope ermittelt wurde, und entdeckten, dass in den späten 1300er Jahren eine ungewöhnlich hohe Sonnenaktivität verzeichnet worden war.

Eine verstärkte Sonnenaktivität führt tendenziell zu hohem Luftdruck über Grönland. Sie korreliert auch mit weniger Vulkanausbrüchen, was bedeutet, dass weniger Asche in der Luft ist – eine sauberere Atmosphäre führt dazu, dass die Erde besser auf Veränderungen der Sonnenleistung reagiert: „Daher war die Auswirkung der hohen Sonnenaktivität auf die atmosphärische Zirkulation im Nordatlantik besonders stark“, so Dr. Lapointe.

Aber hier versäumt es der MSN-Artikel, ehrliche Antworten zu geben und/oder Vergleiche zu heute anzustellen. Er stockt, wahrscheinlich weil er einem dogmatischen Narrativ folgen und pflichtbewusst die Linie der AGW-Partei verfolgen muss, um überhaupt eine Chance auf Veröffentlichung zu haben.

Der Artikel fährt fort mit der Behauptung, dass in der Arktis nicht mehr genug Eis vorhanden ist, um einen solchen Einbruch von kaltem Wasser in den Nordatlantik zu verursachen – was absurd ist; aber dann widerspricht er sich sofort mit diesem Zitat von Dr. Lapointe: „Wir müssen die Ansammlung von Süßwasser in der Beaufortsee im Auge behalten, die in den letzten zwei Jahrzehnten um 40 Prozent zugenommen hat. … Klimamodelle erfassen diese Ereignisse nicht zuverlässig, so dass wir den zukünftigen Eisverlust des Eisschildes möglicherweise unterschätzen, wobei mehr Süßwasser in den Nordatlantik gelangt, was zu einer Schwächung oder einem Zusammenbruch der AMOC führen könnte.“

Ein Zusammenbruch der AMOC würde Europa und weite Teile Nordamerikas fast über Nacht in eine Eiszeit stürzen, und Dr. Lapointe ist, zumindest meiner Meinung nach, ein Wissenschaftler, der vor einer echten, bevorstehenden Katastrophe warnt – vielleicht vor einer, die durch die Freisetzung seitens des Beaufortwirbels ausgelöst wird, der oft als „tickende Klimabombe“ bezeichnet wird.

Was der MSN-Artikel ebenfalls nicht erwähnt ist, dass die Daten, die als Beginn der modernen Verstärkung der AMOC genannt werden (1960er bis 1980er Jahre), Jahrzehnte mit außergewöhnlich hoher Sonneneinstrahlung waren – die höchste in Tausenden von Jahren – und die im Ende des modernen Grand Solar Maximum (2007 oder so) gipfelten, was die Theorie weiter untermauert.

Unerwähnt bleiben auch die langjährigen Forschungsergebnisse der NASA, die zeigen, dass die Gesamttemperatur der Erde während längerer Phasen geringer Sonnenaktivität (wie dem heutigen Abstieg in das nächste Große Solare Minimum, das wahrscheinlich während des Sonnenzyklus 24 begann) zwar tendenziell kälter wird, aber nicht alle Regionen von der Abkühlung betroffen sind. Wie in der „Maunder Minimum Reconstruction Map“ der NASA (siehe unten) dargestellt, erwärmen sich Gebiete wie die Arktis, Alaska und der Nordatlantik während der Perioden einer ansonsten „globalen“ Abkühlung sogar.

Temperaturschwankungen zwischen 1780 (einem Jahr mit normaler Sonnenaktivität) und 1680 (einem Jahr während des Maunder-Minimums) – NASA.

Temperaturschwankungen zwischen 1780 (einem Jahr mit normaler Sonnenaktivität) und 1680 (einem Jahr während des Maunder-Minimums) – NASA.

Die Autoren, deren Forschungsergebnisse in der Fachzeitschrift Science Advances veröffentlicht wurden, kommen zu dem Schluss, dass es nun „dringend notwendig“ ist, weitere Forschungsarbeiten durchzuführen, um all diese Ungewissheiten zu beseitigen.

Das ist mit Sicherheit so!

Link: https://electroverse.net/warming-arctic-drove-earth-into-the-little-ice-age/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Dieser Beitrag kommt aus einer ganz anderen Richtung zum gleichen Ergebnis wie der jüngst hier vorgestellte Beitrag von Valentina Zharkova! Siehe dazu auch meinen Kommentar zu diesem Beitrag.