Man versprüht Meerwasser auf dem arktischen Eis!

Cap Allon

Die Klima-Angsterzeuger pumpen Salzwasser in die Arktis, um den Klimawandel zu bekämpfen – ein perfektes Beispiel für den Irrsinn der heutigen Zeit, das noch jahrzehntelang nachhallen wird und die Menschheit Jahrzehnte lang zum Lachen bringen wird.

„Tapfere Forscher“, wie die BBC sie nennt, haben beschlossen, das „globale Sieden“ zu bekämpfen, indem sie im tiefsten Winter Meerwasser auf die Eisschilde pumpen. Sie quälen sich durch, denn die Bedingungen in der Arktis sind ihnen nicht gerade entgegenkommend.

„Es ist ziemlich kalt“, sagt Andrea Ceccolini von Real Ice, einem britischen Unternehmen, das die Reise leitet. „Es ist etwa -30°C kalt mit starkem Wind, der die Temperatur auf -45°C mit Windchill-Faktor bringt.“

Das „engagierte Team“ hat ein Loch in das Meereis gebohrt und pumpt rund 1000 Liter Meerwasser pro Minute an die Oberfläche. Ihr Plan ist es, das Eis zu verdicken, damit es im Sommer länger überleben kann, was vermutlich die Albedo der Erde erhöht.

Wer finanziert diesen Wahnsinn? Das ist meine erste Frage. Zweitens ist die Arktis riesig, mit Meereis, das sich über 10 bis 15 Millionen km² erstreckt: was für ein Unterfangen. Und drittens, wie von Jo Nova gefragt, welche Energiequelle treibt die Pumpe an?

Sowohl das Team als auch die BBC sind mit den Antworten nicht gerade auskunftsfreudig.

„Könnte das Kabel zu einem Dieselaggregat führen, das auf dem arktischen Eis steht und aus dem Foto herausgeschnitten wurde?“, fragt Nova.

Das ultimative Ziel des Experiments ist es, das Meereis so weit zu verdicken, dass das bereits beobachtete Abschmelzen verlangsamt oder sogar rückgängig gemacht werden kann, sagt Dr. Shaun Fitzgerald, dessen Team am Zentrum für „Klima-Reparatur“ der Universität Cambridge hinter dem Projekt steht.

Ich denke, die Geschichte wird dies unter „Die Hybris der Menschheit: Die Gefahren von Gruppendenken, Angstmacherei und unkontrollierter Propaganda“ ablegen.

Nicht zuletzt deshalb, weil das arktische Meereis auch ohne die Bemühungen dieser unerschrockenen Helden in dieser Saison einen Höhenflug erlebt und die Ausdehnung derzeit höher ist als in den Jahren 2023, 2022, 2021, 2020, 2019, 2018, 2017, 2016, 2014, 2011, 2009, 2007, 2006, 2005 und 2004.

Sie liegt auch über dem Durchschnitt für 2011-2020 und nähert sich schnell dem Durchschnitt für 2001-2010:

Link: https://electroverse.substack.com/p/new-zealand-nears-record-low-temperature?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE

 




Das Treibhaus-Paradigma zu Ende gedacht: Kann ein Gegenstrahlungskraftwerk die vergeigte Energiewende vielleicht noch retten?

Uli Weber

Inzwischen haben weltweit 180 Staaten das Klimaabkommen von Paris (2015) ratifiziert, darunter selbstverständlich auch die Europäische Union (EU) und die Bundesrepublik Deutschland. Die heilige Klimakirche IPCC, die hoch alimentierten globalen Klimawissenschaften und Klima-NGOs, nahezu alle Regierungen und Medien dieser Erde, die politischen Parteien, Religionsgemeinschaften und Kirchen, die meisten Bürgerinnen und Bürger in den westlichen Industrienationen sowie die überwiegende Mehrheit der sogenannten Klimarealisten glauben an einen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ (THE) und dessen Verstärkung durch das CO2 aus der menschlichen Nutzung fossiler Energieträger. Den kümmerlichen Rest an Häretikern, inklusive des Autors selbst samt dessen ketzerischem Hemisphärenmodell, lassen wir hier jetzt einfach mal weg und beschäftigen uns mit dieser 97-prozentig demokratischen THE-Mehrheitsgewissheit. Nach dem geläufigen Treibhaus-Paradigma verläuft dessen physikalische Entstehungsgeschichte folgendermaßen:

1. Primär: Hochfrequente (HF) Sonneneinstrahlung, die auf einer Kreisfläche mit dem Erdradius (@PiR²) einfällt, erwärmt die Materie der Tagseite unserer Erde (@2PiR²) auf durchschnittlich -18°C.

2. Sekundär: Diese auf -18°C erwärmte Materie strahlt Infrarot(IR)-Strahlung über die gesamte Erdoberfläche (@4PiR²) ab.

3. Tertiär: Die IR-Abstrahlung animiert dann sogenannte Klimagase zu einer IR-Gegenstrahlung (@4PiR²), die zur Hälfte auf die Erdoberfläche zurückgestrahlt wird.

4. Quartär: Und diese IR-Gegenstrahlung erwärmt wiederum die Erdoberfläche (@4PiR²) noch weiter, nämlich um 33°C auf etwa 15°C.

Der THE ist also ein quartärer Folgeprozess der natürlichen Sonneneinstrahlung auf unserer Erde. Das Umweltbundesamt stellt den Beitrag der langlebigen Treibhausgase inklusive Kohlenstoffdioxid wie folgt dar:

https://eike-klima-energie.eu/wp-content/uploads/2023/06/word-image-104851-6.jpegAbbildung 1 (UBA): Beitrag zum Treibhauseffekt durch Kohlendioxid und langlebige Treibhausgase 2021

Nach den Ausführungen des UBA entfallen also auf CO2 etwa zweidrittel des natürlichen atmosphärischen Treibhauseffektes. Im TAR Full Report Kapitel 6 “Radiative Forcing of Climate Change” in Tabelle 6.2 auf Seite 358 gibt der IPCC vereinfachte Formeln für den Strahlungsantrieb ∆F [Wm−2] von sogenannten Klimagasen an; für das „Radiative Forcing“ von Kohlenstoffdioxid (CO2) ergibt sich folgende logarithmische Funktion:

CO2-Forcing nach IPCC: ∆F = α ln(C/C0) mit α=5.35

https://eike-klima-energie.eu/wp-content/uploads/2023/04/word-image-102790-2.jpeg In der nachfolgenden Abbildung wird dieser logarithmische Zusammenhang zwischen dem atmosphärischen CO2-Gehalt und der Temperatur deutlich:

Abbildung 2: Der Treibhausbeitrag von CO2 aus der IPCC- Gleichung (dunkelblau) für 280 (grün), 400 (hellblau) und 800 ppm CO2 (rot) (5000 ppm -ganz rechts- ist der Grenzwert am Arbeitsplatz)

Quelle: Klimahysterie ist keine Lösung (Seite 188), dieses Buch ist auch in SW erhältlich

Und jetzt beschäftigen wir uns einmal mit der atmosphärischen Gegenstrahlung, die nach dem THE-Paradigma als tertiäre IR-Strahlung auf unserer Erde ja erst einen Temperaturanstieg von 33°C durch den THE ermöglicht, der damit die globale Mitteltemperatur auf etwa 15°C erhöht. Die terrestrische Abstrahlung bei dieser Temperatur von 390 [W/m²] erfordert dann zusätzlich zu der temperatur­wirksamen solaren Netto-Einstrahlung von 235 [W/m²] genau diese Zustrahlung von 155 [W/m²] aus der atmosphärischen Gegenstrahlung, um das Strahlungsbudget unserer Erde auszugleichen.

https://eike-klima-energie.eu/wp-content/uploads/2022/12/word-image-99449-9.pngAbbildung 3: Das globale jährliche Energiebudget von März 2000 bis Mai 2004 in [W/m²]
Quelle: K. E. Trenberth, J. T. Fasullo, J. Kiehl, “Earth’s global energy budget”, Bulletin of the American Meteorological Society, 90, 311–323

In dieser Grafik von Trenberth et al. (2009) verläuft die atmosphärische Gegenstrahlung mit 333 [W/m²] vollständig in Richtung Erdoberfläche, während andere Autoren die Gegenstrahlung ganz anders darstellen, beispielsweise werden in der Näherungslösung für die Strahlungstransport­gleichung üblicherweise 310 [W/m²] als vektorielles Nullsummenspiel jeweils zur Hälfte in einen aufsteigenden (155W/m²) und einen absteigenden (155W/m²) Energietransport unterteilt. Es differieren also nicht nur die absoluten Werte, vielmehr unterscheiden sich beide auch noch in ihrer vektoriellen Wirkung. Um es mit einem gewichtigen Kanzler unserer Republik zu sagen ist es am Ende lediglich wichtig, was unten auf der Erdoberfläche herauskommt, also schaunmermal beim Deutschen Wetterdienst (DWD) nach, der eine Grafik mit Meßwerten der atmosphärischen Gegenstrahlung veröffentlicht hat:

https://www.eike-klima-energie.eu/wp-content/uploads/2021/02/weber_01.jpg

Abbildung 4: Zwei Grafiken für die atmosphärische Gegenstrahlung vom Deutschen Wetterdienst
Originalbeschreibung, „Globale (rot), direkte (magenta) und diffuse (gelb) Sonnenstrahlung sowie langwellige Gegenstrahlung der Atmosphäre (blau) an einem wolkenlosen (links) und an einem bedeckten (rechts) Oktobertag in Lindenberg“ (Quelle: DWD Deutscher Wetterdienst)

Wir gehen jetzt einfach einmal davon aus, dass diese beiden Grafiken beispielhaft für einen durchschnittlichen Tageslauf der atmosphärischen Gegenstrahlung sind und halten daher fest:

  • An einem wolkenlosen Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 220 bis 250 W/m².
  • An einem bedeckten Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 330 bis 350 W/m².
  • Es gibt nur bei wolkenlosem Himmel eine schwache optische Korrelation zwischen einem tentativen tageszeitlichen Temperaturverlauf und der Gegenstrahlung, aber eine Differenz von etwa 100W/m² zugunsten einer Wolkenbedeckung.
  • Die Unterschiede in der absoluten Bestrahlungsstärke der Gegenstrahlung liegen also weniger im Ablauf von Tag und Nacht, als vielmehr im Bedeckungsgrad.

Wir stellen also fest, dass die Infrarot-Gegenstrahlung über den 24h-Tag nicht unter 200 [W/m²] fällt, aber auch schon mal fast das Doppelte erreichen kann. Der international bekannte Atmosphären­forscher Professor Dr. Gerhard Kramm schrieb am 13. März 2024 um 20:00 Uhr auf der Kommentarfunktion von EIKE zur atmosphärischen Gegenstrahlung, Zitat mit hervorhebungen:

Selbstversaendlich ist die atmosphaerische Gegenstrahlung bei der  lokalen Bilanzierung der Gesamtenergie zu beruecksichtigen, wie sie fuer eine duenne Schicht des Wassers bzw. des Bodens vorzunehmen ist, die nach aussen hin durch die Oberflaeche begrenzt wird. Wenn man von einem unbewachsenen ebenen Erdboden ausgeht, dann lautet diese lokale Bilanzgleichung

R dTs/dt =  (1 – α) G↓ + ε F↓ – ε σ Ts^4 – Ha – Ea – Hsl

Hierin sind R = ρ c D der thermische Inertialkoeffizient (wobei ρ die Dichte, c die spezifische Waerme und D die Dicke der Bodenschicht Schicht sind),

Ts  die die Temperatur der Schicht,t die Zeit,

G die Globalstrahlung, die die direkte und die diffuse Komponenten der solaren Strahlung umfasst, α die Albedo im solaren Bereich,

ε das relative Emissionsvermoegen, σ die Stefansche Konstante,

Ha und Ea die Flussdichten von sensibler und latenter Waerme in der oberflachennahen Luftschicht und Hsl die Waermeflussdichte, die den Austausch von Waerme zwischen der duennen Deckschicht und den tieferen Bodenschichten bewirkt. Im Falle von Wasser ist Hsl durch das Analogon im Wasser zu ersetzen, wobei hinzukommt, dass die Stroemung des Wassers zu beruecksichtigen ist.

Waehrend der lokalen Nacht (G↓ = 0), aendern sich oft die Vorzeichen von  Ha, Ea und Hsl, was einer Richtungsaenderung entspricht. Sind Ha und  Ea aufwaertsgerichtet (meistens tagsueber), so herrscht thermische Instabilitaet vor. Waehrend der lokalen Nacht ist  Ha meistens abwaertsgerichtig, was mit thermisch stabiler Schichtung einhergeht; die Wasserdampf-Flussdichte, womit Ea verknuepft ist, kann sowohl aufwaerts als auch abwaerts (Tau- oder Reifbildung) gerichtet sein.

Die Differenz  ΔF = ε σ Ts^4 – ε F↓  wird auch als Netto-Strahlung im Infrarotbereich bezeichnet.

Die Existenz einer atmosphärischen Gegenstrahlung steht nach dem Deutschen Wetterdienst und Professor Dr. Kramm also ausdrücklich nicht in Frage. Laut Aussage des Fraunhofer Instituts vor etwa einem Jahrzehnt wurden bereits damals Hochkonverter-Solarmodule entwickelt, die Infrarotstrahlung zur Stromerzeugung nutzen können. Wenn wir jetzt für solche -inzwischen sicherlich weiterentwickelten- Hochkonverter-Solarmodule mit einer Ausbeute von 100 W/m² aus der atmosphärischen Gegenstrahlung rechnen, dann können wir die erforderliche Solarfläche sowie die Kosten für eine Tag&Nacht-Grundlast von 60 Gigawatt einmal überschlägig berechnen:

Bedarf für die Grundlast in Deutschland : 60 Gigawatt = 60.000.000.000 Watt

Verfügbare Leistung der Gegenstrahlung: Min. 200 W/m²

Kosten eines Hochkonverter-Solarmoduls: 1.000 Euro/m² (grob geschätzt)

Wirkungsgrad des Solarmoduls: <50% ≅ 100 W/m²

Daraus lassen sich dann folge Eckwerte ableiten:

Flächenbedarf: 10qm≅1kW -> 10.000qm≅1MW -> 10.000.000qm≅1GW -> 600.000.000qm=600qkm≅60GW

Kosten: 600.000.000qm x 1.000 Euro/m² = 600.000.000.000 Euro =

600 Milliarden Euro Gesamtkosten

Das klingt jetzt erst einmal nach dramatisch viel Geld. Aber im Jahre 2000 startete die Energiewende mit „bescheidenen“ Kosten von 2,0 Milliarden Euro pro Jahr, respektive einer Kugel Eis pro Person und Monat. Die Größe der Eiskugeln stieg dann sukzessive jedes Jahr weiter, mittlerweile mit 42,5 Milliarden Euro pro Jahr auf das Zwanzigfache – und ein Ende dieser „Eiszeit“ ist noch immer nicht abzusehen. Insgesamt hat die Energiewende in ihren ersten 20 Jahren mehr als 388 Milliarden Euro gekostet. Das ist bereits deutlich mehr als die Hälfte der Kosten für eine sichere Grundlastversorgung durch die atmosphärische Gegenstrahlung.

Die Vorteile solcher Gegenstrahlungskraftwerke sind atemberaubend:

  • Über den vollen 24h-Tag und das ganze Jahr hinweg ständig verfügbare und steuerbare Grundlastfähigkeit.
  • Gleichzeitig entzieht ein solches Kraftwerk der Gegenstrahlung Energie und wirkt damit auch noch als kühlende Klimaanlage.
  • Diese Kraftwerke können verbrauchernah aufgebaut werden, beispielsweise als Überdachung von Großparkplätzen, Industrieanlagen und Verkehrswegen.

Frage: Warum zahlen wir eigentlich immer noch sinnlose Subventionen für eine nicht grundlastfähige volatile Energieerzeugung, anstatt unser Stromnetz endlich durch Gegenstrahlungskraftwerke grundlastfähig und zukunftssicher zu machen?

Hier folgen jetzt drei mögliche Erklärungen dafür, warum es bei uns immer noch keine grundlastfähigen Gegenstrahlungskraftwerke gibt:

  1. Man hat die Energiewende bisher noch gar nicht zu Ende gedacht und verteilt momentan lediglich Subventionen an gute Freunde.
  2. Die Begründer der Klimareligion wissen ganz genau, dass es gar keinen „natürlichen atmosphärischen Treibhauseffekt“ gibt und verschleudern im Klimawahn lediglich das erwirtschaftete Vermögen der Industrienationen an die ganze Welt.
  3. Unter dem Radar einer „CO2-Klimarettung“ befinden wir uns gegenwärtig in einem internationalen WEF-Putsch zwecks Installierung einer globalen Tribute-von-Panem-Weltregierung.

Mehr als den Punkt [1] kann man von MINT-fernen Politdarstellern aus der Klimakirche ja eigentlich auch nicht erwarten, solange noch irgendwelche Kaufkraft für weitere Subventionszahlungen bei den verbliebenen nationalen Produktivkräften abzugreifen ist. Und damit Sie nicht denken, jetzt sei der fröhliche Autor [2] zu einem Verschwörungstheoretiker [3] mutiert, nachfolgend ein Absatz aus dem Buch „The First Global Revolution“, das Alexander King und Bertrand Schneider 1991, also zur Zeit der Gründung der real existierenden Klimakirche, für den Club of Rome (CoR) veröffentlicht hatten, übersetztes Zitat von Seite 75:

Auf der Suche nach einem gemeinsamen Feind, gegen den wir uns vereinen können, kamen wir auf die Idee, dass Umweltverschmutzung, die Folgen der globalen Erwärmung, Wasserknappheit, Hungersnöte und dergleichen genau das Richtige wären. In ihrer Gesamtheit und ihren Wechselwirkungen bilden diese Phänomene einen roten Faden, dem sich alle gemeinsam stellen müssen. Aber wenn wir diese Gefahren als Feinde bezeichnen, tappen wir in die Falle, vor der wir unsere Leser bereits gewarnt haben, nämlich Symptome mit Ursachen zu verwechseln. All diese Gefahren entstehen durch menschliche Eingriffe in natürliche Prozesse und können nur durch veränderte Einstellungen und Verhaltensweisen überwunden werden. Der wahre Feind ist die Menschheit selbst.“

Dass Sie dieser Absatz nun allerdings auch nicht wirklich beruhigen wird, kann ich mir durchaus vorstellen. Denn dazu ähnelt die CoR-Kernaussage viel zu sehr dem Unterschied zwischen Kapitalismus und Kommunismus: Kapitalismus ist die Ausbeutung des Menschen durch den Menschen – Kommunismus ist das Gegenteil. Am Ende wäre es jedenfalls überaus wünschenswert, wenn FfF und Letzte Generation das vorgestellte Gegenstrahlungs­kraftwerk in ihren Forderungskatalog zur Klimarettung aufnehmen würden. Eine solche öffentliche Forderung nach einer grundlastfähigen Versorgung durch alternative Energien wäre sicherlich auch ein gemeinsames Thema für getrennte Wege nach Rom im Sinne der Herren Döhler und Kowatsch. Denn Gegenstrahlungskraftwerke wären auf jeden Fall eine Win-Win-Technologie für beide Seiten; die AGW-Befürworter hätten dann endlich eine grundlastfähige CO2-freie Stromversorgung, und die AGW-Häretiker könnten sich weiterhin an unseren unverschandelten Kulturlandschaften sowie deren lebendiger Fauna und Flora erfreuen…

 




Die Entwicklung der Windgeschwindigkeit in Teilen Deutschlands im aktuellen Klimaoptimum seit 1988 – Teil 6

Teil 6: Die Entwicklung der Windgeschwindigkeit in Bayern und am Nordrand der Alpen: Unsichere Zunahmen

Endlich gefunden: Ein Bundesland mit Windzunahme!

Windsprung aufwärts“ in Bayern?

Stefan Kämpfe

Bislang wurden in dieser Serie zur Entwicklung der Windgeschwindigkeit nur Regionen Deutschlands besprochen, welche Windabnahmen oder wenigstens Stagnation aufwiesen. Nun ist das wegen seiner Verweigerungshaltung gegen den Windkraftausbau so scharf kritisierte Bayern an der Reihe. Sollen die ehrgeizigen Ziele der deutschen Energiewende erreicht werden, geht das nicht ohne einen weiteren, massiven Windkraft-Ausbau. Doch in der Nordhälfte sind die besten Standorte an Land belegt, und selbst der Stellvertretende Ministerpräsident Bayerns, Hubert Aiwanger, fordert nun für sein Bundesland mehr Windkraft. Aber in den Niederungen der Energiewende-Politik lauert schon das Kubische Gesetz.

Einführung

Weil an den Alpen und in deren Vorland (etwa 35 bis 60 Km Entfernung) an ruhigen Tagen kräftige Ausgleichswinde wehen, wird dieser Streifen, der sich vom Bodensee bis nach Österreich erstreckt, unter Einbeziehung weniger österreichischer Stationen (erst ab 1999 und nur bis 2022 verfügbar), hier gesondert und das übrige Bayern extra behandelt. Hoch- und Gipfellagen über etwa 600 Meter Höhenlage werden später betrachtet. In Bayern gab es leider viele fehlerhafte Daten und teils zeitliche Einschränkungen.

Mehr Windkraftnutzung in Bayern – (k)eine gute Idee?

Es ist sicher kein Geheimnis – in Bayern werden, von wenigen Gipfel- und Hochlagen einmal abgesehen, die Windgeschwindigkeiten Norddeutschlands nicht erreicht, siehe auch Teil 1. Ein Vergleich Bayerns mit dem Nordwestdeutschen Binnen-Tiefland (siehe Teil 4) illustriert das sehr eindrücklich.

Abbildung 1: Entwicklung der Jahresmittelwerte der Windgeschwindigkeit in Nordwestdeutschland (ohne Küste, rot) und in Bayern ohne Alpenrand und Gipfel (dunkelgrün). Im Nordwesten ist die Windgeschwindigkeit etwa 1,3-mal höher, als in Bayern

Am Alpenrand (hier ausgeklammert) weht der Wind mit etwa nur 2,2 m/s noch deutlich schwächer. Auf den ersten Blick scheint der Unterschied zwischen Bayern und NW-Deutschland gering. Aber das 1,3-fache an Windgeschwindigkeit bedeutet nach dem Kubischen Gesetz gut die doppelte Energiemenge, welche der Wind im Nordwesten liefert! Es müsste also, gleiche Bezugsfläche und Anlagentypen vorausgesetzt, mindestens die doppelte Anlagenanzahl in Bayern aufgestellt werden! Ob das aus purer Verzweiflung über den nach Kernkraft-Ausstieg, Gas-Embargo und geplantem Kohle-Ausstieg drohenden Energiemangel sinnvoll ist, müssen die Politiker und deren Wähler entscheiden. Sicher ist: Bayerische Windenergie wird sehr ineffizient sein und die astronomisch hohen Strompreise eher noch weiter steigen lassen.

Unsichere Windzunahme in Bayern – warum?

Um es vorweg zu nehmen: Die Bayerischen Winddaten waren besonders rar und von schlechter Qualität; seit 1988 verlegungsfreie Stationen fehlten völlig. Wie immer in dieser Serie, als erstes das Bayern-Mittel inklusive nachweislich fehlerhafter Stationen. Eine (vielleicht fehlerhafte) Windabnahme hatte nur Hof ganz im Norden Bayerns. Straubing und der Flughafen München blieben fast ohne Trend; alle übrigen Stationen zeigten mehr oder weniger deutliche Zunahmen, wobei die Zunahme in Bad Kissingen (1,7 m/s) mit an Sicherheit grenzender Wahrscheinlichkeit ein Verlegungsfehler ist – siehe Teil 1.

Abbildung 2: Windmittel aller ab 1988 verfügbaren Stationen. Ein 1990er-Windsprung aufwärts und ein sehr windreiches Jahr 2007 fallen ins Auge.

Ohne Bad Kissingen dann folgendes Bild:

Abbildung 3: Ohne die nachweislich fehlerhafte Station Bad Kissingen wird die Windzunahme merklich schwächer. Ab den späten 1990ern gab es praktisch kaum noch Windzunahme.

Ab 1997 war dann mit Fürstenzell wenigstens noch eine weitere Station verfügbar.

Abbildung 4: Mit Fürstenzell und dem fehlerhaften Bad Kissingen kein signifikanter Trend der Windgeschwindigkeit in Bayern ab 1997.

Nun stellt sich die Frage nach den Ursachen dieser (mutmaßlich) anderen Entwicklung in Bayern (in einem späteren Teil werden wir aber noch sehen, dass Bayerns Gipfel-Stationen, der Große Arber und die Zugspitze, leichte Windabnahmen zeigten). Bayern, größtenteils südlich des 50. Breitengrades liegend, ist schwächer vom Nachlassen der Westwetterlagen betroffen, als Norddeutschland. Auch hier bot sich an, das Luftdruckgefälle nach Norden zu analysieren; leider war es beim NOAA nur für den 12,5ten Längengrad verfügbar (11° wären besser gewesen). Es nahm über Bayern, anders als über Norddeutschland, ein wenig zu, aber weit unter Signifikanzniveau, und war, anders als dort, sogar leicht negativ. Damit kann es die leichte Windzunahme nicht erklären.

 

Abbildung 5: Jährliches Luftdruckgefälle nach Norden und Windgeschwindigkeitsmittel in Bayern ohne Alpenrand und Gipfel 1988 bis 2023.

Bayern weist, gemeinsam mit Baden-Württemberg, die geringste Dichte an Windkraftanlagen aller Flächenländer auf. Dort sind nur etwa 15% der Nennleistung Brandenburgs installiert (Stand: Ende 2023). Das natürliche Windverhalten blieb dort also noch weitgehend ungestört. Eine andere Erklärung wäre die in Bayern besonders stark zunehmende Sonnenscheindauer. Diese könnte im nirgendwo völlig ebenen Bayern sommerliche Lokalwinde beschleunigt haben (diese dominieren bei geringem großräumigem Luftdruckgefälle).

Abbildung 6: Im Sommer nahm die Sonnenscheindauer in allen Regionen Deutschlands zu, besonders aber in Bayern.

Doch in Bayern zeigte sich die geringe Windzunahme in allen Jahreszeiten – eine endgültige Erklärung für das Windverhalten steht also noch aus.

Alpenrand: Zunahme mit höchster Unsicherheit

Weil nur drei bayerische Stationen vorlagen, mussten Konstanz (Baden-Württemberg), Kufstein, Salzburg und Kremsmünster (Österreich) einbezogen werden, was den Untersuchungszeitraum auf 1990 bis 2022 einengte. Die hohe Windzunahme von 0,91 m/s in Garmisch-Partenkirchen konnte nicht geklärt werden, die noch höhere von 1,25 m/s in Oberstdorf resultiert mit hoher Wahrscheinlichkeit aus einer Verlagerung 1994. In Konstanz und Kempten gab es merkliche Zunahmen, in Salzburg eine schwache, und im Widerspruch dazu in Kufstein und Kremsmünster mit über 0,5 m/s merkliche Geschwindigkeitsabnahmen. Es wird daher nur die Entwicklung aller sieben Alpenrand-Stationen gezeigt; eine Ursachenforschung blieb ergebnislos; doch könnten außer Stationsfehlern unterschiedlichste Lokaleffekte für das uneinheitliche Verhalten verantwortlich sein.

Abbildung 7: Unsichere Windzunahme am Alpenrand 1990 bis 2022. Anders, als im restlichen Bayern, gab es dort einen späteren Windsprung (2000er). Trotz dieser Zunahme weht der Wind dort noch merklich schwächer, als im übrigen Bayern oder gar in Norddeutschland.

Trotz vieler Unsicherheiten – in Bayern und am Alpenrand wurde es in den letzten Jahrzehnten vermutlich etwas windiger.

(wird später fortgesetzt)

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

 




Messung und Analyse des Meeresspiegels im Jahre 2023 mittels Satelliten

Dr. Alan Welch FBIS FRAS

Wir sind nun in das vierte Jahrzehnt der Messung des Meeresspiegelanstiegs mit Hilfe des Satellitenquartetts Topex und Jason 1, 2 und 3 eingetreten. Über die ersten drei Jahrzehnte wurde in den drei Veröffentlichungen (Ref 1), (Ref 2) und (Ref 3) berichtet. Diese kamen zu folgenden Schlüssen:

1. Die wahrgenommenen „Beschleunigungen“ sind mathematische Beschleunigungen, die aufgrund der Berechnungsmethoden auftreten, d. h. der quadratischen Kurvenanpassung, wie sie von Nerem et al [pdf] (Ref 4) in ihrer Studie von 2018 verwendet wird. Auch das Startdatum von Januar 1993 spielt eine wichtige Rolle bei der Entwicklung der „Beschleunigungen“.

2. Die „Beschleunigungen“ nehmen nun im Allgemeinen von Jahr zu Jahr ab und werden voraussichtlich in den nächsten ein oder zwei Jahrzehnten Werte erreichen, die mit den langfristigen (über 100 Jahre) Gezeitenmesswerten kompatibel sind, bevor sie sich in den nächsten Jahrzehnten stabilisieren.

3. Eine Zeitspanne von 30 Jahren ist ein viel zu kurzer Zeitraum, um die tatsächlichen Beschleunigungen zu berechnen; es wird das Drei- oder Mehrfache dieses Zeitraums benötigt.

In diesem Dokument wird der Begriff „Beschleunigung“ verwendet, um darauf hinzuweisen, dass diese Werte mathematisch mit dem doppelten quadratischen Koeffizienten berechnet werden. Allerdings haben sich die Trends bei den Werten seit etwa 2012 hinreichend stabilisiert, um tatsächliche Urteile über langfristige Schwankungen und Trends abzugeben.

Die Daten für das Jahr 2023 werden nun analysiert, wobei der Schwerpunkt auf zwei Aspekten liegt, nämlich dem vorhergesagten großen El Niño und den Ungereimtheiten in Bezug auf die Daten für Oktober und November, als sich fast jeder Datenwert änderte, wobei einige Änderungen mit über 8 mm im Vergleich zu den jährlichen Zunahmen von 3 bis 4 mm recht erheblich waren.

Über die NASA-Website Global Climate Change/Vital-Signs/Sea Level Rise wurden im Jahr 2023 Daten für Januar, Februar, April, Juni, Oktober, November und Dezember veröffentlicht, aber obwohl alle analysiert wurden, wird nicht über alle berichtet. Seit Februar 2018 erfolgt die Analyse der Daten jedes Mal auf standardmäßige Weise, wenn ein neuer Datensatz veröffentlicht wird. Wenn es als interessant erachtet wurde, wurden auch zusätzliche Daten verarbeitet. Im Januar 2023 fügte die NASA-Website den Daten eine zusätzliche Spalte (Spalte 13) hinzu, die der Spalte 12 entsprach, jedoch ohne Anwendung des GIA* [siehe Spaltendefinitionen weiter unten]. Die den Anstieg des Meeresspiegels zeigenden Diagramme auf der NASA-Website wurden zu diesem Zeitpunkt ebenfalls geändert, indem Spalte 13 anstelle von Spalte 12 verwendet wurde. Die Einbeziehung des GIA wirkt sich nur auf die Änderungsrate und nicht auf die „Beschleunigung“ aus, da sie auf eine konstante Änderung von etwa 0,24 mm/Jahr festgelegt ist. In allen Analysen für diese und frühere Arbeiten wurden die Ergebnisse der Spalte 12 verwendet.

[*Leider ließ sich nicht feststellen, für was die Abkürzung GIA steht. A. d. Übers.]

Die vollständigen Definitionen dieser 2 Spalten lauten:

Spalte 12 geglättete (60-Tage-Gauß-Filter) GMSL (GIA angewendet) Variation (mm); jährliches und halbjährliches Signal entfernt.

Spalte 13 geglättete (60-Tage-Gauß-Filter) GMSL (GIA nicht angewandt) Variation (mm); jährliches und halbjährliches Signal entfernt.

An dieser Stelle möchte ich Kip Hansen für seine Geduld danken, mit der er meine ständigen E-Mails gelesen und beantwortet hat, und dessen Kommentare mir geholfen haben, meine Ideen zu formulieren. Kip war nicht mit allen meinen Erkenntnissen und Ideen einverstanden, aber es hat sich eine freundschaftliche Beziehung zwischen uns entwickelt.

Beginnend mit den Februardaten wurden die „Beschleunigungen“ für zunehmende Zeiträume berechnet, die den Zeitraum von Januar 1993 bis zum Zeitpunkt der Berechnung umfassen. Die Ergebnisse sind in den Abbildungen 1 und 2 dargestellt:

In Abbildung 1 wird der Trend der „Beschleunigung“ mit demjenigen verglichen, der sich ergibt, wenn man annimmt, dass der Meeresspiegel von einer geraden Linie sinusförmig mit einer Periode von 26 Jahren, einer Amplitude von +/-4,2 mm und einer geeigneten Phasenverschiebung abweicht. Die sich daraus ergebende Kurve der „Beschleunigungen“ ist in Abbildung 1 als „Sinuskurve“ bezeichnet. Bei dieser Kurve handelt es sich nicht um eine Sinuskurve, sondern um einen Teil einer „gedämpften“ Sinuskurve, deren Ableitung im Anhang zu Studie 1 (Ref. 1) dargestellt ist. Ihr langfristiger Verlauf ist in Abbildung 3 zusammen mit dem Durchschnittswert des Gezeitenpegels dargestellt. Darin konvergiert die Sinuskurve gegen Null, aber in Wirklichkeit könnte es einen kleinen Langzeitwert geben, der dem Gezeitenpegelwert entspricht.

Zu diesem Zeitpunkt wurde festgestellt, dass sich ein signifikanter El Niño anbahnen könnte. Abbildung 4 unten zeigt eine Darstellung des El-Niño-Index. Es handelt sich um eine neuere Darstellung von Ende 2023, aber die Daten vom Februar 2023 stimmen genau mit dem Zeitpunkt überein, als der Index bei Null lag, aber anstieg.

Es wurde beschlossen, die Auswirkungen eines El Niño zu simulieren, indem man die Daten vom Februar 2023 nahm, die im Mai 2023 verfügbar waren, und den linearen Trend um etwa 5 Jahre verlängerte. In den ersten beiden Jahren wurde ein starker El-Niño-Effekt erzielt, der den Anstieg des Meeresspiegels um etwa 10 mm erhöhte. Im nächsten Jahr fällt der Meeresspiegel wieder auf die lineare Trendlinie zurück. Der simulierte El Niño ist in Abbildung 5 zusammen mit dem linearen Trend dargestellt.

Ein Hinweis für die Puristen. Jeden Monat, wenn ein neuer Monat analysiert wird, variiert die Steigung der linearen Anpassung geringfügig, so dass jeder tatsächliche Restwasserstand (tatsächlicher Wert minus linearer Wert) oder sinusförmige Schwankungen an einer leicht modifizierten linearen Linie gemessen werden. Da die Steigungen im Allgemeinen im Bereich von 3,2 bis 3,5 mm/Jahr liegen, wird dies als akzeptabel angesehen, da es innerhalb der „technischen Toleranz“ liegt, und als Ingenieur im Ruhestand kann ich mit dieser Situation nachts schlafen.

Die modifizierten Daten wurden analysiert und die „Beschleunigungen“ bestimmt. Die Ergebnisse sind in Abbildung 6 dargestellt. Die Auswirkung des El Niño besteht darin, dass sich die „Beschleunigung“ in den nächsten 12 Monaten vorübergehend um etwa 0,01 mm/Jahr² erhöht und dann wieder ein Abwärtstrend einsetzt. Interessanterweise zeigen sich zwei frühere El Niños in den Jahren 2015/16 (stark) und 2018/19 (moderat) als Wackler auf der blauen Kurve. Die damit verbundene Abnahme der „Beschleunigung“ seit 2020 ist ebenfalls in Abbildung 7 dargestellt:

Der nächste zu analysierende Datensatz bezieht sich auf den Juni 2023 und ergibt die Abbildungen 8 und 9, die einen geringen Einfluss des beginnenden El Niño zeigen:

Bei der Analyse der Oktoberdaten wurde deutlich, dass sich die Messwerte dramatisch verändert hatten, wie in Abbildung 10 dargestellt:

Abbildung 11 unten zeigt die Unterschiede zwischen den Daten vom Oktober 2023 und den Daten vom Juni 2023. In den ersten 10 Jahren gab es bei den Oktoberdaten einen Anstieg bis über 8 mm. In den nächsten 13 Jahren blieben die Werte ungefähr gleich, mit einem Rückgang von etwa 2 mm in den letzten 7 Jahren. Der sprunghafte Anstieg am Ende ist hauptsächlich auf den El Niño zurückzuführen. Die Folgen dieser Veränderungen waren eine Verringerung der Neigung um etwa 0,3 mm/Jahr und eine Erhöhung der „Beschleunigung“ um etwa 0,008 mm/Jahr². Bislang wurde noch keine Erklärung für diese Veränderungen gefunden. Das letzte Mal wurden im August 2021 Änderungen vorgenommen, die zwischen -2,5 mm und 0,5 mm schwankten, was zu einer geringen Änderung der Neigung und einer Verringerung der „Beschleunigung“ um 0,004 mm/Jahr² führte.

Die Veröffentlichung der Daten für November und Dezember wurde mit einer gewissen Nervosität erwartet und dann analysiert. Die Änderungen von Juni 2023 bis November 2023 waren geringer, wie in Abbildung 12 dargestellt, wobei die maximale Änderung jetzt etwa 5 mm beträgt. Ab Juni 2023 führte dies zu einer Verringerung der Neigung um etwa 0,2 mm/Jahr und zu einer Verringerung der „Beschleunigung“ um etwa 0,003 mm/Jahr².

In diesem Stadium wurde beschlossen, eine kombinierte Darstellung der Novemberdaten zu erstellen, welche die NASA-Daten und die Kurve zeigt, die durch die Kombination der linearen Linie mit der sinusförmigen Veränderung entsteht (Abbildung 13):

Die Abbildungen 14 und 15 zeigen die neuesten (Dezember 2023) Diagramme der „Beschleunigung“ und der Verringerung der „Beschleunigung“ seit dem Höchststand von 2020:

Die abschließende Abbildung 16 zeigt einen Vergleich der „Beschleunigungen“ seit Januar 2020 auf der Grundlage der Daten vom Februar 2023 mit der zusätzlichen El-Niño-Simulation und den Daten vom Dezember 2023. Wenn der Trend für 2024 den Simulationstrends folgt, werden die „Beschleunigungen“ im Spätsommer 2024 einen Höchststand von etwa 0,085 mm/Jahr² erreichen und dann schnell auf fast 0,01 mm/Jahr² zurückgehen, bis der nächste signifikante El Niño auftritt.

Wer mag keine Vorhersagen? Ich schaue über der Wand, aber mit 86 Jahren, ohne Agenda, Ruf, Universitätsrolle oder Job, den ich behalten muss, ist es schön, diese Freiheit zu haben. Ich muss nur weiterhin die Tabletten einnehmen, um zu sehen, ob sich alles bewahrheitet!

Eine Schlussfolgerung ist, dass die berechneten „Beschleunigungen“ nicht die Vorboten des Unheils sind, wie sie von vielen Klimawissenschaftlern, der BBC und der Zeitung Guardian dargestellt werden. Diese „Beschleunigungen“ sind vielleicht nur mathematische Macken und nicht von größerer physikalischer Bedeutung, aber es könnte aufschlussreich sein zu versuchen, sie zu vergleichen und künftige Veränderungen vorherzusagen, insbesondere in den nächsten 10 Jahren oder so.

———————

1. https://wattsupwiththat.com/2022/05/14/sea-level-rise-acceleration-an-alternative-hypothesis/

2.  https://wattsupwiththat.com/2022/06/28/sea-level-rise-acceleration-an-alternative-hypothesis-part-2/

3. https://wattsupwiththat.com/2023/05/02/30-years-of-measuring-and-analysing-sea-levels-using-satellites/

4. Nerem, R. S., Beckley, B. D., Fasullo, J. T., Hamlington, B. D., Masters, D., & Mitchum, G. T. (2018). Climate-change-driven accelerated sea-level rise detected in the altimeter era. (full text .pdfProceedings of the National Academy of Sciences of the United States of America, 115(9).  First published February 12, 2018

——————

Kommentar von Kip Hansen:

Ich habe die Veröffentlichung dieses Aufsatzes ermöglicht, des vierten Beitrags von Dr. Welch hier. Dr. Welch und ich unterhalten uns seit mehreren Jahren über die Geschwindigkeit des Meeresspiegelanstiegs und die Behauptung von Nerem et al. nebst anderen, dass sich der Anstieg des Meeresspiegels beschleunigt (d. h., dass er immer schneller ansteigt). NASA/NOAA bezeichnen die Veränderung der Rate, die sich ergibt, wenn der satellitenberechnete SLR an die Aufzeichnungen der globalen Gezeitenpegel für das Jahr 1996 angehängt wird, ebenfalls als „beschleunigter SLR“. Wie bei allen numerischen Daten, die mit dem Klimawandel in Verbindung gebracht werden können, wird und wurde an den Methoden, Berechnungen und den sich daraus ergebenden Zahlen viel herumgepfuscht. Daher kann bei Meeresspiegeldaten, bei denen die jährlichen Veränderungen im Vergleich zum Ausmaß der Störfaktoren gering sind, wenig bis gar nichts mit einem gewissen Grad an wissenschaftlicher Sicherheit festgestellt werden.

Langjährige Leser werden sich erinnern, dass ich kein Fan des Themas SLR-Beschleunigung bin – aus den oben genannten Gründen.

Dr. Welchs Ansicht zur Beschleunigung ist so gültig wie jede andere da draußen.

Der Meeresspiegel der Erde steigt – und er wird weiter steigen, aus all den Gründen, aus denen er in den letzten paar hundert Jahren gestiegen ist. Meiner Meinung nach wird er auch in Zukunft mit der gleichen Geschwindigkeit – 2 oder vielleicht sogar 3 mm pro Jahr – steigen. Dieser langsame, stetige Anstieg kann und wird für hochentwickelte, tief liegende Gebiete ein Problem darstellen. In einem Abstand von weniger als 20 cm zum heutigen Meeresspiegel – dem mittleren Hochwasser – zu bauen, ist und war schon immer außerordentlich töricht.

Mein Dank gilt Dr. Alan Welch für seine ständigen Bemühungen, das Thema genau im Auge zu behalten, was es ihm ermöglicht, wiederholte Änderungen der verwendeten Datensätze zu erkennen.

Link: https://wattsupwiththat.com/2024/03/21/measuring-and-analysing-sea-levels-using-satellites-during-2023/

Übersetzt von Christian Freuer für das EIKE

 




Falsche Grundannahme macht Studie wertlos – Klimaschau 185

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende. Thema der 185. Ausgabe: Irreführende Berechnung des Klimaschadens. Falsche Grundannahme macht Studie wertlos