Beschleunigt sich der Anstieg des Meeresspiegels?

Andy May

Uns wird ständig eingeredet, dass sich der Anstieg des mittleren globalen Meeresspiegels (GMSL) beschleunigt. Stimmt das? Wie eindeutig sind die Beweise? Wenn er sich beschleunigt, warum? Ist die Beschleunigung gefährlich?

Die übliche Annahme ist, dass der Anstieg vor allem auf die vom Menschen verursachte globale Erwärmung und das Abschmelzen der Gletscher und der Polkappen zurückzuführen ist. Stimmt das? Wir werden die Beweise untersuchen und sehen, was wir herausfinden können.

Dangendorf, et al. schreiben:

„Wir stellen eine anhaltende Beschleunigung des GMSL seit den 1960er Jahren fest und zeigen, dass diese weitgehend (~76 %) mit Änderungen des Meeresspiegels im Indopazifik und Südatlantik verbunden ist. Wir zeigen, dass der Beginn der Beschleunigung in den 1960er Jahren eng mit einer Intensivierung und einer äquatorialen Verschiebung der Westwinde der südlichen Hemisphäre auf Beckenebene verbunden ist, was zu einer erhöhten Wärmeaufnahme des Ozeans und damit zu größeren Raten des GMSL-Anstiegs durch Veränderungen in der Zirkulation des Südlichen Ozeans führt.“

Die absolute Höhe des Meeresspiegels ist nicht in jedem Ozeanbecken gleich, was auf die Form der Ozeanbecken, die Temperatur der einzelnen Ozeanbecken und die Stärke und Richtung der über dem Becken vorherrschenden Winde zurückzuführen ist*. Die Beschleunigung des Meeresspiegelanstiegs in jedem Becken ist also unterschiedlich, der globale mittlere Meeresspiegel ist eine Kombination aller Veränderungen in jedem Becken, und die bloße Angabe (oder Diskussion) des GMSL verschleiert eine Menge Komplexität.

[*Es fehlt die Angabe, dass der Meeresspiegel aufgrund etwas unterschiedlicher Gravitation auf der Erdoberfläche Unterschiede aufweist. Der Geophysiker spricht hier von einem „Geoid“. Die Oberfläche eines vollständig mit Wasser bedeckten Planeten würde also mehr einer Kartoffel ähneln als einer Kugel. A. d. Übers. der Vollständigkeit halber]

Dangendorf et al. beobachten eine anhaltende Beschleunigung des globalen mittleren Anstiegs des Meeresspiegels seit den 1960er Jahren und kommen zu dem Schluss, dass diese Beschleunigung auf eine Verschiebung der vorherrschenden Winde auf der südlichen Hemisphäre und nicht auf schmelzendes Eis zurückzuführen ist. Tatsächlich stellen sie fest, dass das schmelzende Eis in den 1930er Jahren, als die Treibhausgasemissionen viel geringer waren als heute, erheblich zu der hohen Anstiegsrate des Meeresspiegels beigetragen hat, aber „zwischen den 1940er und den frühen 1990er Jahren keine bis negative Beiträge zu den Beschleunigungskoeffizienten leistete.“

Sie berichten auch, dass die gegenwärtige (1968-2015) Beschleunigung des „globalen“ Meeresspiegel-Anstiegs überhaupt nicht global ist, sondern größtenteils ein Anstieg der Beschleunigung dieses Anstiegs in bestimmten Regionen ist. Im östlichen Pazifik und im Arktischen Ozean wurde keine Beschleunigung festgestellt, und im Südlichen Ozean wurde eine Verlangsamung festgestellt. In den Regionen, die am stärksten von der Eisschmelze betroffen sein sollten, nämlich in der Arktis und im Südlichen Ozean, ist also keine Beschleunigung festzustellen.

Dies deutet darauf hin, dass die derzeit beobachtete Beschleunigung auf Veränderungen der atmosphärischen Zirkulation und nicht auf die globale Erwärmung oder Treibhausgase zurückzuführen ist. Größere Änderungen der globalen Windzirkulation treten in einem Zeitraum von etwa 65 Jahren auf, und diese verursachen Änderungen der globalen Temperaturen wie in Abbildung 1 dargestellt:

Abbildung 1. Der Index der Atlantischen Multidekadischen Oszillation (AMO) und die HadCRUT4-Aufzeichnung der globalen Temperatur. Quelle: May & Crok, 2024.

Der AMO-Index ist zwar nicht genau dasselbe wie die 60- bis 70-jährige globale Klimaschwankung, die gewöhnlich als Klimastadium-Welle bezeichnet wird, aber er ist ähnlich, und die AMO ist eine wichtige Komponente der Stadium-Welle (Wyatt M. G., 2012c) und (Wyatt & Curry, 2014). Man beachte, dass die AMO zwischen 1910 und 1925 sowie zwischen 1970 und 1980 ein Minimum aufweist und dass diese Minima annähernd mit den Tiefstwerten der HadCRUT4-Durchschnittstemperatur nach deren Trendbereinigung übereinstimmen.

In Abbildung 2 sind verschiedene Schätzungen des Meeresspiegelanstiegs dargestellt, darunter die Schätzung von Dangendorf et al.:

Abbildung 2. Ein Vergleich verschiedener Schätzungen der Geschwindigkeit des globalen Meeresspiegelanstiegs. Die Schätzungen von Jevrejeva sowie Church & White stammen von Gezeitenmessern, die NASA-Schätzung (Beckley, Callahan, Hancock, Mitchum, & Ray, 2017) von Satellitenmessungen und der Dangendorf-Datensatz ist eine komplexe Mischform.

Das erste, was uns in Abbildung 2 auffällt, ist, dass von 1900 bis 2000 alle langfristigen Raten des Meeresspiegelanstiegs einigermaßen linear sind, mit Raten zwischen 1,4 und 2,0 mm/Jahr. Zweitens ist ein ähnliches zyklisches Muster von zunehmender und abnehmender Beschleunigung des Meeresspiegelanstiegs in allen Rekonstruktionen zu erkennen. Alle zeigen eine Beschleunigung von etwa 1920 bis etwa 1950-1960, gefolgt von einer Verlangsamung bis zu den frühen 1990er Jahren und einer erneuten Beschleunigung nach den 1990er Jahren. Zufälligerweise beginnen die Satellitenaufzeichnungen mit dem Beginn der zyklischen Beschleunigung in den frühen 1990er Jahren.

Laut Dangendorf et al. ist die Beschleunigung des Meeresspiegelanstiegs, die seit den 1960er Jahren (nahe dem Höhepunkt des Zyklus) beobachtet wurde, nicht wesentlich größer als die in den 1920er und 1930er Jahren festgestellte Beschleunigung. Es scheint wahrscheinlich, dass das in Abbildung 1 dargestellte natürliche Klimamuster die Beschleunigung des Meeresspiegelanstiegs in beiden Beschleunigungsperioden stark beeinflusst. Ein Vergleich der Beschleunigung von 1960-2016 mit der von 1920 bis 1950 beobachteten ist in Abbildung 3 für das Dangendorf-Hybridmodell und die Jevrejeva-Pegelrekonstruktion dargestellt:

Abbildung 3. Vergleich der Beschleunigung des Meeresspiegelanstiegs von 1960 bis 2016 (links) mit der von 1920 bis 1950 beobachteten Beschleunigung (rechts) für die beiden Aufzeichnungen zum Meeresspiegelanstieg von Dangendorf und Jevrejeva. Die aus einem Polynom 2. Ordnung berechnete Beschleunigung ist für jedes Diagramm angegeben.

In Abbildung 3 wird deutlich, dass die Jevrejeva-Aufzeichnung des Meeresspiegelanstiegs viel detaillierter und weniger bearbeitet ist als die komplexe hybride Dangendorf-Rekonstruktion, aber beide zeigen ähnliche Beschleunigungsraten für die jeweiligen Zeiträume. Die größte Beschleunigung weist die Jevrejeva-Rate für den Zeitraum 1920 bis 1950 auf, die kleinste die Dangendorf-Rate für denselben Zeitraum. Die moderne Dangendorf-Beschleunigungsrate ist bescheiden und kleiner als die moderne Jevrejeva-Rate.

Wie in Dangendorf et al. festgestellt, ist die Beschleunigungsrate im Zeitraum 1920 bis 1950 ähnlich hoch wie die Rate im modernen Zeitraum, und die Jevrejeva-Daten von 1920 bis 1950 deuten darauf hin, dass die Beschleunigung in diesem Zeitraum höher war als im aktuellen Zeitraum. Da die Beschleunigungsrate zu Beginn des 20. Jahrhunderts wahrscheinlich nicht durch Treibhausgasemissionen beeinflusst wurde, gibt es keinen Grund zu der Annahme, dass die Beschleunigung in der heutigen Zeit anders ist.

Die Treibhausgas-Emissionen von 1950 bis 1990 waren höher als von 1920 bis 1950, doch die Beschleunigung des Meeresspiegelanstiegs war damals geringer und möglicherweise negativ, wie in Abbildung 4 dargestellt:

Abbildung 4. Beschleunigung nach Dangendorf bzw. Jevrejeva von 1950 bis 1991.

Die sehr stark bearbeitete Aufzeichnung des Meeresspiegels von Dangendorf et al. zeigt eine geringe Beschleunigung von 1950 bis 1991, aber die Aufzeichnung des Pegels von Jevrejeva zeigt tatsächlich eine Verlangsamung in diesem Zeitraum.

Diskussion und Schlussfolgerungen

Es gibt bestimmte Bruchpunkte in den Klimatrends um 1912 und 1972, wie im AMO-Index in Abbildung 1 zu sehen ist. Diese Bruchpunkte sind auch in der trendbereinigten HadCRUT4-Aufzeichnung der globalen mittleren Temperatur zu erkennen. Weitere Informationen über Klimabruchpunkte, auch bekannt als Klimaverschiebungen, findet man hier, hier und hier. [Und natürlich bei Kowatsch et al. A. d. Übers.]

Auch bei der Anstiegsrate des Meeresspiegels treten Unterbrechungen auf, wie in Abbildung 2 dargestellt, die jedoch leicht verschoben sind, etwa zu ±1928 und ±1991. Alle Aufzeichnungen des Meeresspiegelanstiegs in Abbildung 2 zeigen diese Bruchstellen, wenn auch in unterschiedlicher Ausprägung.

Es ist unklar, warum sich das Klima zu diesen Zeiten ändert oder ob die Änderungen mit den Änderungen der Anstiegsrate des Meeresspiegels zusammenhängen. Dies ist ein Bereich, der noch weiter erforscht werden muss. Die Darstellungen lassen jedoch darauf schließen, dass sich die Beschleunigung des Meeresspiegelanstiegs in einem Zyklus von 60-70 Jahren ändert. Die Veränderungen folgen einem ähnlichen Muster wie die Veränderungen der globalen Temperatur und der Atlantischen Multidekadischen Oszillation.

Dangendorf et al. sind der Ansicht, dass die Veränderungen im 20. Jahrhundert bei der Beschleunigung des Meeresspiegelanstiegs eng mit Veränderungen der atmosphärischen Zirkulation verbunden sind, insbesondere der Zirkulation im Pazifik und im Südlichen Ozean. Wir sehen keinen Grund, dieser Meinung zu widersprechen. Die Veränderungen bei der Beschleunigung des Meeresspiegelanstiegs scheinen nicht mit Treibhausgas-Emissionen oder menschlichen Aktivitäten zusammenzuhängen.

Was wäre, wenn es in diesem Jahrhundert keine Perioden der Verlangsamung des Anstiegs oder eine tatsächliche Verlangsamung des Meeresspiegelanstiegs gibt? Mit anderen Worten, was wäre, wenn die derzeitige natürliche Beschleunigung seit 1960 bis zum Jahr 2100 anhält? Wie hoch würde der mittlere globale Meeresspiegel ansteigen? In Tabelle 1 wird diese Berechnung anhand der Daten für jede in diesem Beitrag besprochene globale Meeresspiegel-Rekonstruktion durchgeführt. Die in den Berechnungen von Jevrejeva und Dangendorf verwendeten Funktionen sind in Abbildung 3 auf der linken Seite dargestellt. Die anderen verwendeten Funktionen finden Sie in der zusätzlichen Tabelle, die am Ende dieses Beitrags verlinkt ist.

Tabelle 1. Der erwartete Meeresspiegelanstieg im Jahr 2100 unter Verwendung der Beschleunigung seit 1960 (oder der ersten Schätzung) bis zur endgültigen Schätzung.

Wie Tabelle 1 zeigt, beträgt der Anstieg des Meeresspiegels im Jahr 2100 nur 41 bis 84 cm, wenn die beobachtete Beschleunigung seit dem letzten Aufschwung um 1960 in jeder Rekonstruktion extrapoliert wird. Dies ist weniger als der durchschnittliche tägliche Tidenhub und stellt für niemanden ein Problem dar. Es ist sehr unwahrscheinlich, dass sich die natürliche Beschleunigung seit 1960 bis zum Jahr 2100 fortsetzt; sie sollte bald wieder zu einer langsameren Beschleunigung zurückkehren, so wie es irgendwann zwischen 1955 und 1965 der Fall war.

Eine Tabellenkalkulation mit den Daten, die zur Erstellung der Zahlen und der Tabelle verwendet wurden, kann hier heruntergeladen werden.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/08/04/is-sea-level-rise-accelerating/

Übersetzt von Christian Freuer für das EIKE

 




Hurrikane und andere üble Winde

Paul Schwennesen

Als der Hurrikan Beryl über den Golf von Mexiko auf das US-amerikanische Festland zog, waren ihm die Aufmerksamkeit heischenden Schlagzeilen weit voraus – die Behauptung, dass es sich um einen bemerkenswerten Ausreißer handelte, tauchte bereits mehr als eine Woche zuvor in Klima-frenetischen Berichten auf. CBS News behauptete, es sei „historisch“, neben Schlagzeilen über „Wie man mit seinen Kindern über Klimaangst spricht“. Die BBC berichtete, es sei „der erste Hurrikan, der im Juni die Kategorie vier erreicht, seit das NHC [National Hurricane Center] Aufzeichnungen führt, und der früheste, der im Juli die Kategorie fünf – die höchste Kategorie – erreicht“. Diese Behauptungen sind zwar technisch gesehen richtig und verdienen eine gewisse Erwähnung, doch werden die aktuellen wissenschaftlichen Erkenntnisse über Hurrikane und die Auswirkungen des Menschen auf den Klimawandel durch Unterstellungen und Assoziationen falsch dargestellt.

Der wissenschaftliche Konsens in Bezug auf Hurrikane, über den in der atemberaubenden Klimaberichterstattung nicht berichtet wird ist, dass der Mensch im letzten Jahrhundert keinen erkennbaren Einfluss auf Hurrikane hatte. Im vom U.S. Global Change Research Program veröffentlichten National Climate Assessment heißt es zum Beispiel in Anhang 3:

Es ist weder ein signifikanter Trend bei der weltweiten Zahl der tropischen Wirbelstürme noch ein Trend bei der Zahl der auf das Festland übertretenden Hurrikane in den USA zu erkennen.

Was ist also wirklich los? Ist das historisch frühe Auftreten von Beryl ein Anzeichen für etwas grundlegend anderes in Bezug auf die Hurrikanaktivität? Stellt sie die bittere Frucht der ökologischen Sünden der Menschheit dar oder nicht? Die Antwort lautet mit ziemlicher Sicherheit nein. Vielmehr stellt der Hype um Beryls frühes Auftreten ein großes Missverständnis dar, ein Massenphänomen, das Beweise sieht, wo es eigentlich keine gibt.

Historisch gesehen sind Hurrikane im Golf natürlich alltäglich. „Hurricane“ leitet sich von dem prähistorischen Taíno-Namen für den Gott der bösen Winde, Jurucán, ab. Die Spanier übernahmen den Namen schnell, um die heftigen Stürme zu beschreiben, die bei ihren Entdeckungsreisen in die Neue Welt so viel Schaden anrichteten. Sowohl die Narváez- als auch die De Soto-Expedition von 1527 und 1539 wurden beispielsweise von Hurrikanen heimgesucht, die durchaus die Kategorie 5 erreicht haben könnten, wenn es das NHC [National Hurricane Center] gegeben hätte, um sie als solche einzustufen. Es ist zwar denkbar, dass Beryl eine große Anomalie und ein Vorbote böser Nachrichten ist, aber es ist sehr unwahrscheinlich, dass das so ist.

Stattdessen ist die Darstellung in den Medien als Beweismittel für den anthropogenen Klimawandel grundlegend falsch. Die heutigen düsteren Schlagzeilen sind ein perfektes Beispiel für das, was Steve Koonin in seinem Buch Unsettled als „das lange Telefonspiel, das mit der Forschungsliteratur beginnt und über die [wissenschaftlichen] Bewertungsberichte zu den Zusammenfassungen der Bewertungsberichte und weiter zur Medienberichterstattung führt“ bezeichnet. Die Medien, so sagt er, verbreiten am Ende oft ein Narrativ, das im direkten Widerspruch zu den tatsächlichen Beweisen steht. Sie tun dies zum Teil, weil sie die wissenschaftliche und statistische Bedeutung von Beobachtungen missverstehen, vor allem aber, weil extreme Schlagzeilen zu einem allgemein verständlichen Narrativ passen. Solche Berichte werden von der Öffentlichkeit viel eher wahrgenommen und aufgegriffen. Diese selektive Aufmerksamkeit führt zu einer Voreingenommenheit für Extremismus in der Klimaberichterstattung, die das politische Klima erheblich anheizt – zu unserem kollektiven Nachteil.

Wenig bekannt sind zum Beispiel Fakten wie die Tatsache, dass die Zahl der schweren Hurrikane seit 2011 unter den 170-Jahres-Durchschnitt gefallen ist. Oder die Tatsache, dass das Great Barrier Reef, einst ein Aushängeschild für den Klimawandel, heute einen Rekordbestand an Korallen aufweist. Man braucht nicht viel Fantasie, um sich vorzustellen, wie die Schlagzeilen lauten würden, wenn sich diese positiven Fakten umkehren würden: „Schwere Wirbelstürme: Höchste Zahl seit Jahrhunderten“ oder „Barrier Reef verzeichnet niedrigsten Bewuchs in der Geschichte“. Das sind Schlagzeilen, die wir uns leicht vorstellen können, die wir aber nicht gesehen haben, weil sie völlig verkehrt sind.

Stattdessen ist es so, dass Meldungen, die technisch gesehen wahr sind (wie Beryls rekordverdächtig frühes Auftreten), nur dann in den Mainstream einfließen, wenn sie in das allgemeine alarmistische Narrativ passen. Die BBC veranschaulicht dies perfekt in ihrer Berichterstattung, indem sie anmerkt, dass „die rekordverdächtige Natur von Hurrikan Beryl die Rolle des Klimawandels ins Rampenlicht gerückt hat.“ Dann heißt es am Ende eines Artikels, den die meisten Menschen nie ganz lesen werden:

Die Ursachen der einzelnen Stürme sind komplex, so dass es schwierig ist, bestimmte Fälle vollständig dem Klimawandel zuzuschreiben. Aber außergewöhnlich hohe Meerestemperaturen werden als Hauptgrund dafür angesehen, dass der Hurrikan Beryl so stark war.

So funktioniert die Ablenkungsmanöver: BBC-Reporter waren gezwungen, zweifellos in Interviews mit Hurrikan-Experten, ein wenig über die Auswirkungen von Beryls rekordverdächtiger Klassifizierung zu streiten. Man beachte, dass es „schwierig“ (eigentlich unmöglich) ist, Beryls Verhalten dem Klimawandel als solchem zuzuschreiben. Und sie haben Recht, dass die hohen Meerestemperaturen ein wichtiger Faktor für die außergewöhnliche Stärke von Beryl sind. Aber es ist die Art und Weise, wie diese technischen Wahrheiten präsentiert werden, die zu Fehlschlüssen führt. Nur sehr wenige Gelegenheitsleser würden den Artikel mit der Überschrift „Wie der rekordverdächtige Hurrikan Beryl ein Zeichen für eine sich erwärmende Welt ist“ lesen und nicht auf den kausalen Schluss einer vom Menschen verursachten Erwärmung kommen. Das ist ein Problem, denn eine solche Schlussfolgerung wird in der Tat durch keine wissenschaftlich anerkannten Beobachtungen gestützt.

[Hervorhebung vom Übersetzer]

Dies gilt natürlich in beide Richtungen. Damit soll nicht behauptet werden, dass die menschlichen Emissionen keine Auswirkungen haben, sondern nur, dass wir sehr genau darauf achten müssen, was die Beweise tatsächlich aussagen, bevor wir sie in politische Empfehlungen umwandeln. Ich will damit auch nicht sagen, dass wir alle negativen Berichte über die Umwelt einfach ignorieren können, denn es gibt eindeutig Probleme, die unsere kollektive Aufmerksamkeit verdienen. Ich habe zum Beispiel selbst ein wenig getrickst: Ich habe zwar richtig bemerkt, dass die Zahl der schweren Wirbelstürme unter dem historischen Durchschnitt liegt, aber ich habe nicht darauf hingewiesen, dass die Zahl der Wirbelstürme insgesamt gestiegen ist. [Besser soll es wohl heißen, dass die Anzahl der Wirbelsturm-Beobachtungen stark gestiegen ist.. A. d. Übers.] Ähnlich verhält es sich mit dem Great Barrier Reef: Die Korallenbedeckung hat zwar deutlich zugenommen, aber die Art der Monokulturen, die für den Anstieg verantwortlich ist, gibt immer noch Anlass zu ökologischer Besorgnis.

Der eigentliche Punkt ist, dass wir in der Klimaberichterstattung Ehrlichkeit, einschließlich kontextueller Komplexität, verlangen müssen. Gerade weil so viel auf dem Spiel steht (sei es in Sachen Umwelt oder individueller Freiheit), können wir es uns nicht leisten, mit Halbwahrheiten und Verschleierungen zu spielen. Intelligente, freie Menschen verdienen eine vollständigere, umfassendere und weniger aktivistische Berichterstattung über den Klimawandel. Beryl hat eine Art Rekord aufgestellt, ja. Was dieser Rekord im Zusammenhang mit dem vom Menschen verursachten Klimawandel wirklich bedeutet, ist im Grunde wissenschaftlich unbekannt. Vielleicht wäre das eine bessere Überschrift.

This piece originally appeared at AIER.org and has been republished here with permission.

Link: https://cornwallalliance.org/2024/07/hurricanes-and-other-evil-winds/

Übersetzt von Christian Freuer für das EIKE

 




Kohlendioxid bestimmt keinen Temperaturverlauf

Josef Kowatsch, Matthias Baritz

Im jüngsten Kältereport von Christian Freuer ist ein ausführlicher Abschnitt über Grönland enthalten. Hier wollen wir den Beitrag von Cap Allon dazu mit eigenen Untersuchungen belegen.

Diese Wetterstation auf Grönland zeigt nämlich den wirklichen Temperaturverlauf, ohne Einfluss der Zivilisation. Name: Tasiilaq

Abb. 1: Juli ist der Hochsommermonat in Grönland, weil die Sonnen noch nicht untergeht. Die Temperaturen waren in den 30er Jahren höher als in der Gegenwart, d.h. der Juli war damals wärmer.

Abb. 2: CO₂-Kurve seit 1900, als der kräftige CO₂-Anstieg begann, sanken die Temperaturen.

Erkenntnis: Die CO₂-Zunahme Zunahmekurve der Atmosphäre hat überhaupt keine Übereinstimmung mit den Juli-Temperaturen dieser Wetterstation.

Lage der Station in Grönland, an der Südostküste.

Abb. 3: Tasiilaq, 65.5997N, 37.6331W, befindet sich an der Südostküste Grönlands ca.700 km westlich von Island

Merke: Der Temperaturverlauf dieser Station in Grönland wird von ganz anderen Wetter- und Klimafaktoren bestimmt. CO₂ bestimmt gar nichts.

Die IR-Adsorption von CO₂ ist nachgewiesen, hat aber keinen realen Einfluss

Damit ist widerlegt, dass CO₂-der Haupttreiber der Temperaturen ist. Die CO₂-Treibhauserwärmung ist ein erfundenes Märchen.

Auswertung der Temperatur-Messdaten von Tasiilaq:

1) Diese Wetterstation in Grönland zeigt ein leichtes Abkühlen seit Messbeginn, also seit 1895, in 130 Jahren um 0,6 Grad!!!

2) in Einzelabschnitten: von der kleinen Eiszeit kommend bis 1930 eine Erwärmung

3) Trendumkehr um 1930 und starke Abkühlung bis etwa 1980

4) Trendumkehr ab 1980 und starke Erwärmung bis 2015

5) Trendumkehr ab 2015 und Beginn der gegenwärtigen erneuten Abkühlung.

6) Wir befinden uns derzeit immer noch auf dem oberen Wärmeplateau der letzten 20 Jahre, die Trendlinie zeigt allerdings seit 20 Jahren bereits abwärts. (leicht negative Trendlinie)

Eis und Schnee werden wieder zunehmen.

Abb. 4. Das neuzeitliche Temperaturplateau ist seit 2003 erreicht, es wird nicht mehr wärmer, 2016 war der Wärmehöhepunkt und zugleich die Trendumkehr.

Auch dieser Temperaturverlauf der Gegenwart spricht gegen die Treibhauserwärmung. Es gibt schlichtweg keine Erwärmung in den letzten 20 Jahren

Um diese realen Temperaturverhältnisse zu verschleiern, betrügt die Treibhauskirche, denn das Geld für die Klimarettung soll weiter in ihre Kassen fließen und insbesondere wir Deutschen sollen weiter ausgenommen werden.

Der Betrug der Treibhauskirche geschieht vor unseren Augen, es werden nur die Entwicklungen seit 1958 gezeigt, als die CO₂-Messung am Mouna Loa begann. Und das Grönland-Gletschereis ist wegen der Erwärmung in diesem Zeitraum auch gestiegen.

Weiterhin müssen wir uns jährlich neue erfundene Hiobsbotschaften der Treibhausreligion über die starke Gletscherschmelze in Grönland mitsamt bevorstehendem Meeresspiegelanstieg anhören.

Die Frage ist nun, wenn nicht CO₂ die Temperaturen in der Realität bestimmt, welche Ursache(n) ist/sind verantwortlich für diese harmonische Schwingung der Temperatur bei dieser Station?

Es wird Zeit, dass sich die seriösen Klimawissenschaftler endlich dieser Frage widmen und nicht ständig nur versuchen, die Treibhausreligion zu widerlegen. Es ist noch dringender, dass die Klimapanikmache der Regierung, der Medien und der bezahlten Treibhausforscher endlich mit dieser Grafik 1 kräftigst widersprochen wird. Ein Gegenbeweis genügt, hat schon Einstein gesagt.

Josef Kowatsch, unabhängiger Klimaforscher, Naturschützer und Naturbeobachter.

Matthias Baritz, Naturwissenschaftler und Naturschützer

 




Ein Grundsatzpapier der Mittelstands- und Wirtschaftsunion (MIT) und die Energiewende

„Das nachfolgende Grundsatzpapier fasst die Untersuchungsergebnisse der Arbeitsgruppe Energie für die Bundesfachkommission Energie, Klima und Umwelt der MIT-Bund zusammen, inwieweit diese Voraussetzungen nach heutigem Erkenntnisstand (April 2024) erfüllt werden können.“

von Peter Würdig Dipl. Ing. (Physik)

Da hatten wir doch mal eine Klimakanzlerin, und nun hat die Mittelstands- und Wirtschaftsunion (MIT) erste zaghafte Schritte einer Korrektur gewagt, immerhin. Dazu wurde das „Grundsatzpapier zum Energiesystem Deutschland“ beschlossen, das kann man hier downladen: Grundsatzpapier zum Energiesystem Deutschland | Mittelstands- und Wirtschaftsunion (MIT) (mit-bund.de)

Die MIT reklamiert darin  zu Recht:

„Bedauerlicherweise  werden in zahlreichen Veröffentlichungen und Debattenbeiträgen mangels ausreichender Kenntnis die Einheiten W und Wh und somit die physikalischen Begriffe Leistung und Energie verwechselt.“

Es ist wohl nicht nur mangelnde Kenntnis sondern eher das Gefühl (und die gelebte Praxis), dass grundlegende Erkenntnisse der Physik (und der Naturwissenschaften) im Umgang mir der Energiewende eher als störend empfunden werden, man hat die Meinung, es müsste doch auch ohne Physik gehen, zumindest wenn man politische Macht und ausreichend Geld einsetzt. Mangelnde ausreichende Kenntnis gibt es aber nicht nur bei zahlreichen Veröffentlichungen, die gibt es auch bei der MIT selbst, wie wir noch sehen werden.

Im Text wird weiterhin ganz zutreffend festgestellt:

„Wesentliche Industrie- und Wirtschaftszweige verlassen bereits heute den Standort Deutschland. Bei noch höheren Energiekosten läuft der Industrie-Standort Deutschland Gefahr, sich flächendeckend zu deindustrialisieren.“

Dass das eine logische Folge der Politik der Klimakanzlerin ist, wird allerdings nicht erwähnt. Man stellt weiter ganz zutreffend fest:

„Entsprechende Einschnitte auf die wirtschaftliche Leistungsfähigkeit unseres Landes, unsere Arbeitsplätze und unseren Lebensstandard werden die Folge sein.“

Das wird von der MIT anscheinend als eine gottgegebene bzw. klimagegebene Entwicklung angesehen, denn Ideen, wie dem gegengesteuert werden könnte, sucht man vergebens. Es wird offensichtlich nicht erkannt, dass unser Sozialsystem einer solchen Entwicklung nicht gewachsen ist und dass es zu sozialen Unruhen kommen wird.

Weiter wird in dem Papier zu Recht angeführt:

„Zu oft wird die Rolle der Erneuerbarer Energien (EE) und das Gelingen der Energiewende auf den Beitrag der heimischen Stromproduktion somit den „Stromsektor“ reduziert, der gerade einmal ein Fünftel unseres Energiebedarfs abdeckt.“

Diese Kritik ist ja berechtigt, aber nun macht die MIT selbst einen gravierenden Fehler, dass sie nämlich hier (und im folgenden) vom Bruttobetrag der Erneuerbarer Energien (EE) ausgeht und nicht von derem Anteil an gesicherter Leistung. Die Bruttobeträge, die im weiteren Text durchgehend angeführt werden, vernachlässigen den Umstand, dass mit steigendem Ausbau der EE der Anteil an elektrischer Leistung, der zur falschen Zeit geliefert wird und der nicht nur unbrauchbar ist sondern auch noch unter zusätzlichen Kosten entsorgt werden muss, immer größer wird. Im elektrischen System müssen stets die Produktion von Energie und deren Verbrauch im Millisekunden-Bereich im Gleichgewicht stehen, sonst kommt es zum Blackout mit drastischen Folgen für das Land. Daher müssen die Anlagen, die EE liefern, immer auch noch ein Backup-Kraftwerk haben, das den ständig schwankenden Output der EE-Anlagen laufend ausgleicht. Da die MIT keinen Unterschied macht zwischen gesicherter Leistung und der weitgehend Wetterabhängigen vergleicht man also Apfel mit Birnen, oder wie es Prof. Sinn in seinen Vorträgen noch deutlicher ausgedrückt hat, man vergleicht „Äpfel mit Eiern“. Das macht die weiteren Berechnungen in dem Papier eigentlich wertlos.

Als ein Beispiel dieser falschen Strategie muss man das „Bild 1 Bruttostromerzeugung nach Energieträgern“ ansehen, dort werden ungerührt sichere Leistungen (z.B. Braunkohle) in einer Säule addiert mit EE-Strom. Das Verfahren heißt: was ist die Summe aus drei Äpfeln und vier  Birnen ? Naja, Mischobst.  Völlig unterschlagen wird in dieser Grafik, dass ein Teil des EE-Stroms eigentlich nur Wegwerf-Strom ist, und dass ein Teil des Braunkohlestroms zum laufenden Ausgleich des EE-Stroms verwendet werden muss.

Dass die Verwendung von Bruttobeträgen als Maßstab für die Bewertung unbrauchbar und irreführend ist, zeigt auch sehr schön das Beispiel der „Smart region Pellworm“. Auf der Insel Pellworm war damals (2014) der Bruttobetrag der EE deutlich über 100%, das nützte aber nichts, der Versuch einer Vollversorgung mit dem Projekt  „Smart region Pellworm“ endete mit einem Ergebnis um die 97%, und das ist eben auch nicht dicht am Ziel, denn für eine wirkliche Autarkie hätte man die Speichereinheiten wohl um den Faktor fünf bis zehn erhöhen müssen, das aber gaben die bis dahin verpulverten Förder-Millionen nicht her, und so wurden die Anlagen in 2017 dann klammheimlich alle wieder abgebaut, dafür hat man jetzt dort einen Hundespielplatz eingerichtet. Eine Versorgung zu 97% bedeutet ja, dass auf dem Festland dann immer noch ein Kraftwerk („Kohle“ oder „Atom“) in ständiger Bereitschaft gehalten werden muss, um minutengenau einspringen zu können.  Ich habe dazu einen Film gemacht, Titel: „Drei Inseln / drei Pleiten“. Der Film über Pellworm ist auch in einer Veröffentlichung von PI-News enthalten, das kann man hier sehen: https://www.pi-news.net/2024/04/champagner-fuer-bayern/

Die MIT erwähnt weiterhin völlig zu Recht:

„Die Notwendigkeit zur Schaffung von Speicherkapazitäten zum Ausgleich der volatilen Einspeisung und der damit verbundenen jahreszeitlichen (saisonalen) Schwankung der Erneuerbaren Stromerzeugung bedarf keiner weiteren Erklärung. Die Vorstellungen der Bundesregierung über die Dimension der erforderlichen Strom-Speicherkapazität bei Verzicht auf Kernkraft und Kohle entbehren bisher jedoch jeden Bezug zur Realität.“

Allerdings hat nicht nur die Bundesregierung sonder auch die MIT keine Vorstellung über die notwendige Dimension, denn es fehlt in dem Papier jeder Versuch, die  Dimension der erforderlichen Strom-Speicherkapazität wenigstens abzuschätzen. Das erinnert an den bekannten Spruch von Prof. Sinn in seinen Vorträgen: „Haben die denn keinen Taschenrechner ?“. Nun, ich habe einen, und ermuntert durch eine Nachricht von Focus  (Sogar alte AKWs machen mit: Jetzt kommt die Speicher-Revolution nach Deutschland – FOCUS online ), in der uns auch mitgeteilt wird, dass sich der Ausbau von Speicherkapazitäten jetzt in Deutschland „schlagartig“ beschleunigen würde, habe ich dann mal nachgerechnet. Wenn man das jetzige Tempo beim Ausbau noch mal verdoppelt, dann braucht man für die Vollendung der Energiewende nur noch 75.600 Jahre, man sieht, für große Projekte muss man auch etwas Geduld aufbringen ! Meine Berechnung ist in einem Artikel von PI-News dargestellt: Speichern für die Wende! | PI-NEWS  Ob sich allerdings die Bürger im Lande heute erhebliche Einschränkungen in der Lebensqualität gefallen lassen werden mit der Aussicht, dass erst nach sehr langer Zeit ferne Ur-ur-Enkel die Energiewende feiern können, das darf bezweifelt werden.




Wissenschaftler: IPCC stellt Satellitendaten falsch dar

Cap Allon

In ihrem Artikel „Misrepresentation of Critical Satellite Data by IPCC“ (etwa: Falsche Darstellung kritischer Satellitendaten durch den Weltklimarat) argumentieren die Wissenschaftler Ned Nikolov und Karl Zeller, dass der IPCC in seinem Bericht 2021 kritische Satellitendaten manipuliert hat, um die Theorie zu stützen, dass menschliche Aktivitäten die Hauptursache für die jüngste globale Erwärmung sind.

Das NASA-Projekt Clouds and the Earth’s Radiant Energy System (CERES) liefert seit über 24 Jahren detaillierte Daten über die reflektierte Sonnen- und Wärmestrahlung der Erde. Diese Daten zeigen, dass die Absorption der Sonnenenergie auf der Erde seit dem Jahr 2000 deutlich zugenommen hat, was in erster Linie auf eine Abnahme der tiefen Wolken zurückzuführen ist.

„CERES-Daten haben gezeigt, dass die durchschnittliche jährliche Absorption von Sonnenenergie auf der Erde zwischen 2000 und 2020 um 2,0 W/m² (und zwischen 2000 und 2023 um 2,7 W/m²) zugenommen hat, was auf eine Abnahme der planetarischen Albedo zurückzuführen ist, die hauptsächlich durch eine Verringerung der tiefliegenden Wolken verursacht wurde“, heißt es in dem Artikel.

Nikolov und Zeller argumentieren, dass der Sechste Sachstandsbericht des IPCC (AR6) diesen Anstieg der Sonnenenergieabsorption ignoriert und Schlüsseldaten falsch dargestellt hat. Insbesondere behaupten sie, dass der IPCC-Bericht die Trends für die reflektierte Sonnen- und Wärmestrahlung falsch darstellt, was suggeriert, dass Treibhausgase und nicht solare Veränderungen die Hauptursache für die jüngste Erwärmung sind.

Sie behaupten, dass „nicht nur der gemessene, von der Albedo gesteuerte solare Antrieb als Klimatreiber in den Schlussfolgerungen des Berichts ignoriert wurde, sondern dass Abschnitt 7.2.2 in Kapitel 7 die Abbildung 7.3 enthält, die entgegengesetzte Trends der reflektierten solaren und ausgehenden Wärmeströme zu den von CERES beobachteten zeigt“.

Die Autoren entdeckten, dass der IPCC-Bericht die Trends der CERES-Daten invertiert hatte, wodurch der irreführende Eindruck entstand, dass der solare Antrieb keine Rolle bei der jüngsten Erwärmung spielte, was zu falschen Trends führte.

„Wir fanden heraus, dass die globalen CERES-Anomalien der reflektierten kurzwelligen und ausgehenden langwelligen Strahlung in dem Computercode, der zur Erstellung von Abb. 7.3 verwendet wurde, mit -1 multipliziert wurden. Dies führte zu einer Umkehrung der langfristigen Trends dieser wichtigen Klimaparameter.“

Abbildung 7.3 entnommen aus Seite 936 aus: IPCC Climate Change 2021: The Physical Science Basis (IPCC 2021).

Das Problem mit der IPCC-Abbildung 7.3 ist, dass die Diagramme der reflektierten Sonnen- und der ausgehenden Wärmestrahlung im Vergleich zu den tatsächlichen CERES-Beobachtungen entgegengesetzte zeitliche Trends aufweisen. Die folgenden Abbildungen 1 und 2 veranschaulichen diese Tatsache.

Gleichzeitig weist der Nettofluss (auch bekannt als das Energie-Ungleichgewicht der Erde oder EEI) in der IPCC-Abbildung einen korrekten Trend auf (Abb. 3).

Abbildung 1. Trends der von der Erde reflektierten Sonnenstrahlung im CERES-Datensatz (oberes Feld) und in der IPCC AR6 WG1 Abb. 7.3(a) (unteres Feld). Man beachte, dass die 13- bzw. 12-monatigen Mittelwerte keinen Einfluss auf die Trends der Strahlungsflüsse haben.

Abbildung 2. Trends der von der Erde ausgehenden Wärmestrahlung im CERES-Datensatz (oberes Feld) und in Abb. 7.3(b) der IPCC AR6 WG1 (unteres Feld). Man beachte, dass die 13- bzw. 12-monatigen laufenden Mittelwerte keinen Einfluss auf die Trends der Strahlungsflüsse haben.

Abbildung 3. Trends des Netto-Strahlungsflusses der Erde (Energieungleichgewicht) im CERES-Datensatz (oberes Feld) und in Abb. 7.3(c) der IPCC AR6 WG1 (unteres Feld). Man beachte, dass der Trend des Nettostrahlungsflusses in Abb. 7.3 des IPCC nicht verändert worden ist.

Nikolov und Zeller sind der Ansicht, dass die Auswirkungen erheblich sind.

Würden die CERES-Daten korrekt dargestellt, so würde dies zeigen, dass die Zunahme der absorbierten Sonnenenergie die beobachtete Erwärmung erklären könnte, ohne dass diese auf Treibhausgase zurückgeführt werden müsste. Dies stellt natürlich die zentrale Behauptung des IPCC-Berichts in Frage, dass menschliche Aktivitäten die Hauptursache für die globale Erwärmung sind.

Den Autoren zufolge „erklärt der solare Antrieb die gesamte Erwärmung der Troposphäre seit dem Jahr 2000, und es gibt keine Anzeichen für einen ‚Wärmeeinfang‘ durch Treibhausgase in diesem System.“

Nikolov und Zeller fordern eine unabhängige Neubewertung der Klimawissenschaft, frei von politischer Einflussnahme, um eine unvoreingenommene Darstellung der Daten in künftigen IPCC-Berichten zu gewährleisten. Sie plädieren für eine Entpolitisierung der Klimawissenschaft.

Die beiden kommen zu dem Schluss, dass „es im besten Interesse der Welt wäre, eine unabhängige, kritische Neubewertung der grundlegenden Prämissen der Klimatheorie vom Standpunkt moderner Beobachtungen aus einzuleiten und ein neues, objektives Peer-Review-System einzurichten, das eine vollständige und unvoreingenommene Darstellung aller verfügbaren Daten in den IPCC-Berichten gewährleistet.“

In den letzten Jahren hat Nikolovs Arbeit gezeigt, dass die CERES-Satellitendaten die Treibhausgas-Theorie der globalen Erwärmung effektiv widerlegen. Die jüngste Erwärmung, so zeigen seine Forschungen, wurde durch eine Abnahme der Wolkenbedeckung und der Albedo der Erde verursacht, nicht durch einen Anstieg des CO2.

Nikolov setzt große Hoffnungen in seine Entlarvung der falschen Darstellung der CERES-Daten seitens des IPCC und schrieb kürzlich auf X: „Diese Entdeckung könnte in ihrem Potenzial, das gesamte Narrativ des anthropogenen Klimawandels zum Einsturz zu bringen, stärker sein als ClimateGate.“

Link: https://electroverse.substack.com/p/remarkable-summer-gains-on-the-greenland?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE