Ozeane der Erde kühlen sich rasant ab – und Wissenschaftler haben noch keinen von der Partei anerkannten Grund dafür gefunden!

Cap Allon

Jüngste Daten zeigen einen signifikanten und raschen Rückgang der Temperaturen der Ozeane weltweit, was die Wissenschaftler vor ein Rätsel stellt – oder genauer gesagt, sie „suchen immer noch nach einer Erklärung, die mit dem Mainstream-Narrativ übereinstimmt“.

Die mit dieser plötzlichen Abkühlung einhergehende Konfusion steht in krassem Gegensatz zu dem Alarm und der Gewissheit, die mit den steigenden Temperaturen der letzten Jahre einhergingen. Ohne zu zögern schrieb „The Science“ die wärmeren Ozeane dem vom Menschen verursachten Klimawandel zu, wobei die Hitze „32,4-mal wahrscheinlicher auf den menschlichen Wohlstand zurückzuführen ist“ – oder so ähnlich. Doch nun, da die Temperaturen sinken, ist allgemeines Kopfschütteln zu beobachten, während das Establishment verzweifelt nach einer von der Partei genehmigten Antwort sucht.

Wie schon oben erwähnt werden sie niemals behaupten, dass das Klimasystem der Erde durch natürliche Einflüsse/Zyklen für immer ein Gleichgewicht anstrebt, was bedeutet, dass es keinen Grund zur Sorge gibt. Niemals. Seit fast zwei Jahren ist das Thema „kochende Ozeane“ ein beliebtes Thema für Aktivisten, Wissenschaftler und Panikmacher gleichermaßen, das häufig zur Rechtfertigung drastischer Maßnahmen und zum Schüren öffentlicher Ängste verwendet wird.

Ein wichtiges, bis vor kurzem weit verbreitet Bild war die Grafik der globalen Meerestemperaturen (SST). Im Jahr 2023 und in der ersten Hälfte des Jahres 2024 zeigte die Grafik steigende Temperaturen. In den letzten Monaten ist jedoch ein signifikanter und unangenehmer Rückgang zu beobachten, und die Alarmisten haben ein amüsantes Maß an „Bewältigung“ desselben gefunden:

Obwohl es sich um ein globales Phänomen handelt, sind die Temperaturen im Atlantischen Ozean am schnellsten gesunken, insbesondere in den zentralen äquatorialen Regionen, die jetzt etwa 1°C unter dem Durchschnitt für diese Jahreszeit liegen.

Die NOAA stellte fest, dass das Jahr mit der stärksten Erwärmung seit 1982 begann, was den raschen Übergang zur Kühle noch beeindruckender macht: „Noch nie zuvor hat der östliche Äquatorialatlantik so schnell von einem Extremereignis zum anderen gewechselt“, schrieb die Behörde in einem aktuellen Bericht.

Die Abkühlung des Atlantiks ist zum Teil auf einen saisonalen Prozess zurückzuführen, den so genannten Auftrieb, bei dem kälteres, tieferes Wasser an die Oberfläche steigt, wenn Südwinde wärmeres Oberflächenwasser vom Äquator wegdrücken. Allerdings fiel der Auftrieb in dieser Saison mit einem Ereignis zusammen, das normalerweise zu wärmeren Anomalien führt, nämlich der Abschwächung der Passatwinde, was das Rätsel noch größer macht.

Wie bereits erwähnt, ist die starke Abkühlung nicht auf den Atlantik beschränkt:

Im Pazifik hat sich ein starkes El-Niño-Ereignis verflüchtigt, das den Ozean auf natürliche Weise erwärmt und die globalen Wettermuster beeinflusst, und die im vergangenen Jahr verzeichneten hohen SST-Anomalien sind stark zurückgegangen.

Die neuesten Zahlen der NOAA zeigen eine rollierende Drei-Monats-Anomalie von nur 0,2 °C für Mai, Juni und Juli 2024:

Die NOAA berichtet, dass die SST-Werte in drei der vier Pazifikregionen, die zur Bestimmung des Vorhandenseins eines El Niño herangezogen werden, nun wieder unter dem historischen Trend liegen. Darüber hinaus sind die Temperaturen in vielen Teilen des Pazifiks deutlich bis in 300 Meter Tiefe gesunken, was auf eine breitere Abkühlung hindeutet. Außerdem zeigen die NOAA-Daten, dass in den letzten 25 Jahren alle signifikanten globalen Temperaturspitzen mit starken El-Niño-Ereignissen zusammenfielen, nämlich 1998, 2016 und jetzt 2024. Die Spitzen sind natürlichen Ursprungs, ebenso wie die darauf folgenden Abkühlungsphasen. Die in den letzten Jahrzehnten beobachtete leichte Erwärmung ist natürlich, ebenso wie die darauf folgende Abkühlung. Werden die KALTEN ZEITEN im Jahr 2030 beginnen, wie ich behaupte? Das hängt allein von der Sonne und anderen kosmologischen Kräften ab, nicht von mir und nicht von Herrn Mann.

Die heutige wissenschaftliche Gemeinschaft ist durch Politik, Agenden und Ideologien völlig korrumpiert worden. Sie ist wirklich nicht der Ort für ehrliche Untersuchungen und Debatten. Ihre offensichtliche Verwirrung über die jüngste rasche Abkühlung ist bezeichnend. Ihr Schweigen ist ohrenbetäubend. Wenn die Temperaturen steigen, ist die Erklärung einfach. Wenn die Temperaturen sinken, verkriechen sich die Wissenschaftler wieder in die Hecke. Diese Diskrepanz, diese Verwirrung, ist auf die Grenzen der derzeitigen Modelle zurückzuführen, die der chaotischen und nichtlinearen Natur des Klimasystems nicht Rechnung tragen. Das macht sie jedes Mal fertig.

Link: https://electroverse.substack.com/p/rare-august-snow-clips-montanas-peaks?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Kohlendioxid und kein Ende

Einführung des Übersetzers: Hier folgen zwei Beiträge von Blogger Cap Allon aus seiner werktäglichen Kolumne, in denen es um das gleiche Thema geht: Kohlendioxid. Die Sinnlosigkeit der Politik in dieser Hinsicht beleuchtet der erste Beitrag, und dass der „Kampf“ gegen dieses Lebense3lixier jeder Grundlage entbehrt, zeigt der zweite Beitrag. Alle verlinkten Studien sind ohne Zahlschranke verfügbar.

Die meisten klimapolitischen Maßnahmen tragen nichts zur Verringerung der Emissionen bei

Cap Allon

Die meisten klimapolitischen Maßnahmen führen nicht zu einer Verringerung der Emissionen, was die Befürchtung aufkommen lässt, dass es bei diesen wirtschaftlich belastenden Initiativen eher darum geht, den Wohlstand von arm nach reich zu expedieren als den Planeten zu retten.

Diese beunruhigende Realität wurde in einer Studie unter der Leitung von Nicolas Koch am Mercator Research Institute on Global Commons and Climate Change in Berlin aufgezeigt. Koch und sein Team untersuchten die Wirksamkeit von 1500 klimapolitischen Maßnahmen, die zwischen 1998 und 2022 in 41 Ländern auf sechs Kontinenten umgesetzt wurden.

Die Ergebnisse zeichnen ein besorgniserregendes Bild – auf beiden Seiten der Klimadebatte: Von diesen 1500 Maßnahmen konnten die Forscher nur 63 mit lohnenden Gesamtemissionsreduktionen (zwischen 0,6 und 1,8 Gt CO₂) identifizieren.

Die überwiegende Mehrheit der klimapolitischen Maßnahmen ist ineffektiv, lautet die einzige Schlussfolgerung. Sie sind eine Verschwendung von Zeit, Mühe und Geld. Noch schlimmer ist, dass diese Maßnahmen oft zu wirtschaftlichen Härten für die Öffentlichkeit führen, indem sie den unteren Klassen den Reichtum entziehen und ihn nach oben weitergeben, wodurch sich die ohnehin schon große Kluft zwischen den Besitzenden und den Habenichtsen, zwischen den Mächtigen und den Machtlosen weiter vergrößert.

Der frühere IPCC-Beauftragte und Professor für Klimaökonomie an der Technischen Universität Berlin Ottmar Edenhofer hat den leisen Teil berüchtigt laut ausgesprochen: „Man muss sich von der Illusion befreien, dass internationale Klimapolitik Umweltpolitik ist. In der Klimapolitik geht es darum, wie wir de facto den Reichtum der Welt umverteilen.“

Die vollständige Studie steht hier.

————————————————————-

Dass der Kampf gegen das Lebenselixier CO₂ wie oben schon erwähnt ohnehin sinnlos ist, zeigt auch der folgende Beitrag:

Neue Studie: Wolken und nicht Kohlendioxid beeinflussen das Klima

Cap Allon

Eine neue Studie von Ned Nikolov und Karl F. Zeller, „Roles of Earth’s Albedo Variations and Top-of-the-Atmosphere Energy Imbalance in Recent Warming: New Insights from Satellite and Surface Observations“ (Neue Erkenntnisse aus Satelliten- und Oberflächen-Beobachtungen) befasst sich mit der Rolle der Albedo der Erde und der Energiebilanz des Planeten an der Obergrenze der Atmosphäre (TOA). Die Autoren kommen zu dem Schluss, dass diese Faktoren für den bescheidenen globalen Temperaturanstieg seit dem Jahr 2000 viel entscheidender sind als CO₂.

Die Albedo bezieht sich auf die Menge an Sonnenlicht, die von der Erdoberfläche und der Atmosphäre reflektiert wird, und eine Abnahme der Albedo bedeutet, dass mehr Sonnenstrahlung absorbiert wird. Daten aus dem Clouds and the Earth’s Radiant Energy System (CERES) der NASA zeigen, dass die Albedo der Erde abgenommen hat, was zu einem erheblichen Anstieg der vom Planeten absorbierten Sonnenenergie führt.

Dieser Anstieg der absorbierten Sonnenstrahlung – etwa 2,7 Watt pro Quadratmeter (W/m²) – ist in seiner Größenordnung auffallend ähnlich dem gesamten anthropogenen Antrieb, den der IPCC für die letzten 270 Jahre berechnet hat.

Für die Autoren ist der Einfluss von Albedo-Veränderungen auf die globalen Temperaturen DER entscheidende Faktor.

Abbildung 1. Aus dem CERES EBAF 4.2-Datensatz abgeleitete monatliche Strahlungsanomalien: (a) Globale Albedo der Erde, berechnet durch Division der reflektierten All-Sky-Kurzwellenanomalie durch den global gemittelten einfallenden Sonnenfluss am TOA (d. h., (b) den absorbierten Sonnenstrom der Erde, der durch Multiplikation der CERES-Anomalie der reflektierten Himmelskurzwellen mit -1 berechnet wird, da die Strahlungsabsorption der Reflexion entgegengesetzt (und ergänzend) ist.

In der Studie wird auch argumentiert, dass die Schwankungen der Gesamtsonneneinstrahlung (TSI) – die Menge an Sonnenenergie, die die Erde erreicht – nur eine geringe Rolle bei der jüngsten Erwärmung gespielt haben. Die TSI blieb relativ stabil, wobei die Schwankungen im Vergleich zum Rückgang der Albedo verblassten.

Abbildung 2. Saisonbereinigte monatliche Anomalien der Gesamtsonneneinstrahlung (TSI), berechnet aus CERES-Beobachtungen durch Multiplikation der gemeldeten TOA-Anomalien der globalen Kurzwellenisolation mit 4,0.

Die Autoren entwickelten ein neues Modell der Klimasensitivität auf der Grundlage von NASA-Planetendaten. Dieses Modell verknüpft ausdrücklich Schwankungen der Erdtemperatur mit Veränderungen der TSI und der Albedo, ohne sich auf traditionelle Treibhausgasmetriken oder Rückkopplungsschleifen zu stützen.

Dem Modell zufolge ist der solare Antrieb, der TSI- und Albedo-Änderungen kombiniert, zu 100 % für den beobachteten globalen Erwärmungstrend seit dem Jahr 2000 verantwortlich. Darüber hinaus erklärte das Modell 83 % der zwischenjährlichen Schwankungen der globalen Lufttemperatur an der Erdoberfläche.

Ein weiterer zentraler Punkt der Studie ist die Überprüfung des Energieungleichgewichts der Erde (EEI), der Differenz zwischen der von der Erde absorbierten Sonnenenergie und der in den Weltraum abgegebenen langwelligen Strahlung. In der Mainstream-Klimawissenschaft wird eine positive EEI in der Regel als Beweis für eine Wärmespeicherung in der Atmosphäre interpretiert, die größtenteils auf Treibhausgase zurückzuführen ist. Die Autoren argumentieren hier jedoch, dass diese Interpretation fehlerhaft ist. Sie schlagen stattdessen vor, dass das beobachtete Energieungleichgewicht nicht das Ergebnis eines Wärmeeinschlusses durch Treibhausgase ist, sondern ein Nebenprodukt des natürlichen Abkühlungsprozesses in der Atmosphäre, wenn die Luft aufsteigt und sich ausdehnt. Dieser quasi-adiabatische Prozess, bei dem die aufsteigende Luft aufgrund des abnehmenden Drucks Energie verliert, erklärt die Diskrepanz zwischen den Energieflüssen an der Oberfläche und denen, die an der TOA gemessen werden. Nach dieser Auffassung ist der EEI kein Zeichen für eine künftige Erwärmung, sondern spiegelt vielmehr einen natürlichen Prozess der Energiedissipation wider, bei dem Sonnenenergie absorbiert und vom Planeten abgestrahlt wird.

Dies hat zur Folge, dass Bemühungen zur Verringerung der CO₂-Emissionen keinen Einfluss auf das Energieungleichgewicht des Planeten haben werden, da der EEI keinen Prozess der Wärmespeicherung, sondern einen Energieverlust im Klimasystem darstellt.

Abbildung 3. Beziehung zwischen dem von CERES gemessenen Energieungleichgewicht der Erde (EEI) und den GSAT-Anomalien auf der Grundlage von sechs globalen Datensätzen: (a) Vergleich von GSAT- und EEI-Zeitreihen, die 13-monatige laufende Mittelwerte darstellen; (b) lineare Korrelation zwischen EEI und GSAT. Die gestrichelte rote Linie ist eine lineare Regression. Der EEI erklärt nur 36% der interannualen Variabilität von GSAT, während der solare Antrieb 83% davon erklärt.

Nikolov und Zeller kommen zu dem Schluss, dass, wenn die gängigen Klimamodelle korrekt wären, die die Auswirkungen steigender Treibhausgaskonzentrationen propagieren, es eine zusätzliche Erwärmung geben müsste, die über das hinausgeht, was allein durch Albedoänderungen und Sonnenabsorption erklärt werden kann. Die Autoren fanden jedoch keine solche zusätzliche Erwärmung in den Daten.

Außerdem ist die Sensitivität der Erde gegenüber der absorbierten Sonnenstrahlung viel geringer als die Klimamodelle derzeit simulieren. Die Autoren schätzen die Sensitivität des Erdklimas auf etwa 0,29 bis 0,30 K pro W/m², verglichen mit den viel höheren Schätzungen, die in vielen Klimamodellen verwendet werden, die von einer erheblichen zukünftigen Erwärmung ausgehen.

Die Beziehung zwischen Wolken-Albedo-Rückkopplungen und möglichen kosmischen Einflüssen auf die Wolkenbildung wird ebenfalls diskutiert. Es wird vermutet, dass externe kosmische Kräfte wie kosmische Strahlung und Sonnenwind wahrscheinlich eine wichtige Rolle bei der Wolkenbildung spielen, die wiederum die Albedo der Erde beeinflusst. Die beiden wollen den Fokus weg von den allzu simplen Rückkopplungseffekten der Treibhausgase und hin zu komplexeren Wechselwirkungen lenken, die noch nicht vollständig verstanden sind und weiterer Untersuchungen bedürfen.

Die vollständige, Paradigmen verändernde Studie in voller Länge steht hier.

Erfreulicherweise spricht es sich herum. Die Studie steht derzeit an dritter Stelle bei MDPI, einem Verlag, der 439 von Experten begutachtete Zeitschriften herausgibt und jährlich etwa 285.000 Artikel veröffentlicht.

Link: https://electroverse.substack.com/p/august-snow-has-us-resorts-planning?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




CO₂: DAS Lebens-Molekül

Einführung des Übersetzers: Hier wird ein mehrteiliger Beitrag gepostet, der beide das Thema Kohlendioxid behandeln. Da es sich dabei um DAS Lebenselixier schlechthin handelt, kann man die Bedeutung dieses Spurengases gar nicht oft genug unterstreichen. Umso unsinniger, ja gemeingefährlicher kommt die aktuelle Klima- und Energiepolitik daher!

Neue Studie zeigt, wie ein erhöhter CO₂-Gehalt das Wachstum der Vegetation und die WASSERVERFÜGBARKEIT in der nördlichen Hemisphäre steigert

Lance D Johnson

Der „Green New Deal“ der Demokraten sieht vor, Kohlendioxid zu bekämpfen und in Verfahren zu investieren, mit denen dieses wichtige atmosphärische Gas im Boden gebunden werden kann. Neuen Forschungsergebnissen zufolge sind erhöhte CO₂-Werte jedoch nicht nur für das Wachstum der Vegetation wichtig, sondern spielen auch eine Rolle bei der Erhaltung der Wasserverfügbarkeit in der nördlichen Hemisphäre. Künstliche Kohlenstoffabscheidung und andere Geo-Engineering-Projekte könnten die Hauptursache für Waldbrände, Dürreperioden und den Zusammenbruch des Grundwasserspiegels in der nördlichen Hemisphäre sein.

Die in der Fachzeitschrift Environmental Research Letters veröffentlichte Studie zeigt, dass sich das Verhältnis zwischen Vegetationswachstum und Wasserverfügbarkeit in den mittleren Breiten der nördlichen Hemisphäre in den letzten drei Jahrzehnten erheblich verändert hat. Die von Yang Song und Kollegen geleitete Studie zeigt die Auswirkungen des erhöhten Kohlendioxidgehalts (CO₂) auf diese Beziehung und deutet auf einen engeren Zusammenhang zwischen Vegetationswachstum und Wasserverfügbarkeit hin als bisher angenommen.

Genau die Substanz, auf welche die Demokraten abzielen – CO₂ – ist eigentlich die Lösung für den Erhalt von Ackerland, Grasland, Wäldern und Wasservorräten für die wachsende Bevölkerung.

—————————————–

Studie: Der CO₂-Gehalt hilft der Vegetation, dem Boden und der Wasserversorgung und verringert das Dürrerisiko.

Die mittleren Breiten der nördlichen Hemisphäre, die verschiedene Ökosysteme wie Ackerland, Grasland und Wälder umfassen, sind aufgrund der hohen Bevölkerungsdichte und der bedeutenden terrestrischen Kohlenstoffsenken von entscheidender Bedeutung. Die Studie analysierte Daten aus den Jahren 1982 bis 2015 und konzentrierte sich dabei auf das Vegetationswachstum, gemessen mit dem Normalized Difference Vegetation Index (NDVI), und die Wasserverfügbarkeit, bewertet mit dem Palmer Drought Severity Index (PDSI).

Die Studie ergab asynchrone Trends. Während das Vegetationswachstum in den letzten drei Jahrzehnten im Allgemeinen zugenommen hat, zeigte die Wasserverfügbarkeit schwankendere Trends. Dieses asynchrone Verhalten deutet auf eine Entkopplung zwischen Vegetationswachstum und Wasserverfügbarkeit in vielen Gebieten hin. Trotz der allgemeinen Entkopplung dieser Beziehung ergab die Studie, dass sich diese Beziehung in vielen Regionen der nördlichen Hemisphäre verstärkt hat.

Diese Beobachtung wurde vor allem bei Ackerflächen, Grasland und Wäldern gemacht. Acker- und Grünlandflächen werden zunehmend durch Wasserdefizite beeinträchtigt. In der Studie wurde festgestellt, dass sowohl Acker- als auch Grünland mit stärkeren Wassereinschränkungen konfrontiert sind, die im Laufe der Zeit immer ausgeprägter werden. Im Gegensatz dazu werden Wälder weniger durch Wasserdefizite als vielmehr durch Wasserüberschüsse beeinträchtigt. Die Beziehung zwischen Vegetationswachstum und Wasserressourcen in bewaldeten Gebieten hat sich abgeschwächt, was darauf hindeutet, dass eher Wasserüberschüsse als Wasserdefizite zu einem begrenzenden Faktor werden.

Die Rolle des atmosphärischen CO₂ in dieser Beziehung

In der Studie wurde das atmosphärische CO₂ als dominante Triebkraft für Veränderungen im Verhältnis zwischen Vegetationswachstum und Wasserressourcen ermittelt. Tatsächlich beeinflussten die CO₂-Werte über 45 % der Gitterzellen. Erhöhte CO₂-Werte fördern das Vegetationswachstum durch den so genannten „Düngeeffekt“ und verbessern die Wassernutzungseffizienz. Dieser indirekte Effekt erhöht die Wasserverfügbarkeit, indem er den Gesamtwasserverbrauch pro Einheit Biomasse verringert.

Die Studie machte auch deutlich, dass sich diese Veränderungen in den verschiedenen Ökosystemen unterschiedlich auswirken: Auf Anbauflächen nahm das Wasserdefizit in der Vegetation durchweg zu. Auf Grünland nahmen die Einschränkungen ebenfalls zu, wenn auch langsamer als auf Ackerland. In Wäldern war ein relativer Rückgang des Wasserüberschusses zu verzeichnen, was die Fähigkeit der tief wurzelnden Bäume widerspiegelt, Wasserdefizite effektiver zu bewältigen.

Die Ergebnisse deuten darauf hin, dass die CO₂-induzierte Begrünung in bestimmten Ökosystemen weitere Vorteile mit sich bringt, darunter Veränderungen in der Wasserdynamik, die das künftige Dürrerisiko und die landwirtschaftliche Produktivität eines bestimmten Gebiets beeinflussen könnten.

Die Abscheidung von Kohlendioxid ist ein schwerwiegender Fehler, der wichtige Ökosysteme in der nördlichen Hemisphäre langsam, aber unaufhaltsam schädigen wird. Während Waldbrände und Dürren zunehmen, werden die Demokraten natürlich weiterhin den „Klimawandel“ als die größte Bedrohung verhöhnen und die Welt dazu verpflichten, mehr für die Entfernung von Kohlendioxid aus der Atmosphäre zu zahlen. Es ist eine Spirale von Tod und Zerstörung, die von einem Todeskult ausgeht, der vorgibt, der Retter des Planeten zu sein.

[Hervorhebung vom Übersetzer]

Quellen u. A.: Wattsupwiththat.com, IopScience.iop.org, CNN.com

Link: https://climate.news/2024-08-16-study-important-relationship-elevated-CO₂-levels-vegetation-water.html

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Der Meeresspiegel stieg vor 8200 Jahren um 4,7 Zentimeter pro Jahr – 30 Mal schneller als heute

Kenneth Richard

Die heutige Anstiegsrate des Meeresspiegels liegt nicht einmal annähernd außerhalb des Bereichs der natürlichen Variabilität.

Eine neue Studie erinnert uns daran, dass der Meeresspiegel vor 8200 Jahren in einem Zeitraum von nur 140 Jahren weltweit um 6,5 Meter gestiegen war. Das sind 470 Zentimeter pro Jahrhundert, 4,7 Zentimeter pro Jahr, und das in einer Zeit, in der der CO₂-Gehalt angeblich bei „sicheren“ und stagnierenden 260 ppm lag.

Um diese Veränderungsrate in die richtige Perspektive zu rücken: der globale Meeresspiegel stieg von 1900 bis 2018 mit einer Rate von 1,56 Millimetern pro Jahr, einschließlich einer Rate von 1,5 mm pro Jahr während des jüngeren Zeitraums von 1958-2014 (Frederikse et al., 2020, Frederikse et al., 2018). Das sind knapp 16 Zentimeter pro Jahrhundert oder sechzehn Hundertstel eines Zentimeters (0,16 cm) pro Jahr.

Es wird angenommen, dass die Nettoschmelze des grönländischen Eisschilds (GIS) den größten Beitrag zum Anstieg des Meeresspiegels in den letzten Jahrzehnten geleistet hat. Um die GIS-Änderung jedoch in einen Kontext zu stellen, betrug der gesamte Beitrag der Eisschildschmelze zum Meeresspiegelanstieg zwischen 1992 und 2020 nur 1,2 Zentimeter (Simonsen et al., 2021):

Die natürliche Schwankungsbreite des Meeresspiegelanstiegs auf der Erde, die zeitweise bis zu 4,7 cm pro Jahr betragen hatte, war somit 30-mal größer als die „anthropogene“ Rate der Neuzeit (1900-2018), die 0,156 cm pro Jahr beträgt.

Link: https://notrickszone.com/2024/08/26/study-sea-levels-rose-4-7-centimeters-per-year-8200-years-ago-30-times-faster-than-modern-rates/

Übersetzt von Christian Freuer für das EIKE

 




Die geheimnisvolle schwimmende Windenergie in Maine

David Wojick

Der US-Bundesstaat Maine hat soeben einen sehr merkwürdigen Offshore-Windpachtvertrag von den Bundesbehörden erhalten. Es handelt sich um einen Forschungspachtvertrag und nicht um einen kommerziellen Entwicklungspachtvertrag. Er weist einige mysteriöse Merkmale auf, über die es sich lohnt nachzudenken.

Möglicherweise liegt hier sogar ein milliardenschwerer Trick vor. Darauf gehen wir am Ende ein, nachdem wir die Geheimnisse kurz erklärt haben.

Zunächst einmal betrifft der Pachtvertrag ein „144-MW-Turbinenfeld für Forschungszwecke“, wie es genannt wird. Nun, 144 MW sind für die Forschung sehr viel. Die South Fork Wind-Anlage (feststehend, nicht schwimmend), die bereits in Betrieb ist, ist eine kommerzielle Anlage mit 12 Turbinen und 132 MW, so dass diese Anlage größer als die kommerzielle sein wird.

Sie könnte 3 Milliarden Dollar kosten – zuzüglich der Kosten für die Fabrik, in der die etwa ein Dutzend schwimmenden Anlagen hergestellt werden. Auf verschiedenen Websites werden unterschiedliche Turbinengrößen von 10 bis 12 MW angegeben. Wenn es sich wirklich um ein Forschungsprojekt handelt, könnten natürlich verschiedene Größen verwendet werden, aber die Gesamtsumme ist immer noch enorm.

Warum so groß, ist das erste Rätsel, und die offiziellen Erklärungen sind viel zu vage, um dies zu rechtfertigen. Meist ist die Rede von Forschungen zu Themen wie Effizienz, Lieferkette und sogar Arbeitsplätzen.

Es heißt auch, dass die Forschungsergebnisse in die kommerzielle Entwicklung schwimmender Windkraftanlagen einfließen werden, die im Golf von Maine mit 15 000 MW veranschlagt werden. Dies scheint jedoch unwahrscheinlich, da die Forschung Zeit braucht.

Die kommerziellen Pachtverträge für den Golf sollen in den nächsten Monaten verkauft werden (die Biden-Harris-Leute wollen so viel wie möglich vor der Wahl verpachtet haben, damit Trump nicht gewinnt), und die Forschungsanlagen müssen die gleichen Genehmigungsverfahren durchlaufen wie die kommerziellen Anlagen.

Die Entwicklung der kommerziellen Standorte und die Entwicklung der Forschungsanlagen beginnen zur gleichen Zeit und durchlaufen die gleichen Schritte. Es ist daher schwer zu erkennen, wie die kommerziellen Standorte von der Forschung profitieren könnten, zumal die Forschung die Entwicklung des Feldes wahrscheinlich verlangsamen wird. Forschungsarbeiten, die nach der Inbetriebnahme des Feldes durchgeführt werden, werden sogar noch später stattfinden, wenn die kommerziellen Anlagen bereits in Betrieb sind. Wer also von dieser milliardenschweren Forschung profitieren würde, ist das zweite Rätsel.

Wer diese Milliarden bezahlt, scheint klar zu sein, denn der Entwickler soll einen Stromabnahmevertrag (PPA) mit einem oder mehreren der großen Versorgungsunternehmen in Maine aushandeln. Bei dem Projektentwickler scheint es sich um Diamond Offshore Wind zu handeln, das zur Mitsubishi Corporation gehört. Das Unternehmen arbeitet schon seit geraumer Zeit aktiv an der patentierten schwimmenden Windtechnologie der Universität von Maine mit.

Hier werden die Dinge wirklich undurchsichtig. Erstens, wenn eine PPA für die Anlage plus Gewinn bezahlt werden soll, dann handelt es sich um eine kommerzielle Entwicklung. Zweitens ist Forschung teuer und die Ergebnisse unvorhersehbar, wie kann es also eine PPA geben, um sie zu bezahlen?

Es wird nicht erwähnt, dass die Forschung getrennt von der Anlage finanziert wird, was, gelinde gesagt, kompliziert wäre. Und wer entscheidet eigentlich, welche Forschung im weiteren Verlauf durchgeführt wird? Diamond, die Universität oder der US-Bundesstaat Maine? Es sieht so aus, als würde Diamond für Maine arbeiten, aber es muss mit dem Geschäft Geld verdienen, was die Sache sehr seltsam macht.

Abgesehen davon gibt es noch eine andere Möglichkeit. Bei diesem Projekt geht es nicht um Forschung, sondern um den Bau der Floater-Fabrik und die Demonstration der Universitätstechnologie.

Es gibt einen großen Joker im Spiel mit dem schwimmenden Wind, und das ist die Fabrik. Windkraftanlagen mit festem Boden sind an Land sehr einfach. Alles, was man braucht, ist ein gutes Dock, einen großen Kran und einen Platz, an dem die Komponenten aufgestellt werden können, bis sie zum Standort gebracht und installiert werden. Es gibt nur ein paar einfache Komponenten – Monopile, Turm, Turbine und Flügel. Das alles wird anderswo hergestellt.

Schwimmende Windkraftanlagen werden von Grund auf an Land hergestellt und dann als Ganzes zum Offshore-Standort geschleppt. Bei der von der EU patentierten Technologie werden Schwimmer aus Beton verwendet, die 15 000 Tonnen oder mehr wiegen können und komplexe Strukturen darstellen. Der Bau von Schwimmkörpern in der Fabrik ist eine riesige Aufgabe.

Diese Tatsache wird bei schwimmenden Windkraftanlagen nur selten erwähnt, und wenn, dann ist die Sprache meist irreführend. Die Industrie spricht von „Häfen“, nicht von Fabriken, und die Floater-Fabrik in Maine wird als Hafen bezeichnet. Siehe meine Anmerkung, dass die Fabrik von Diamond betrieben werden wird.

Es könnte also Folgendes passieren: Als Teil der „Forschung“ baut Maine die Floater-Fabrik und genügend Floater, um zu demonstrieren, dass die patentierte Uni-Technologie funktioniert. Die Entwickler der 15.000 MW kommerzieller Windkraftanlagen im Golf von Mexiko müssen sich für eine Technologie für ihre verschiedenen Standorte entscheiden. Wenn sie sich für eine der über hundert Technologien entscheiden, müssen sie eine Fabrik bauen, um sie herzustellen.

Die Tatsache, dass die Uni-Tech-Fabrik bereits existiert, ist ein starker Anreiz, diese Technologie einzusetzen. Wir sprechen hier von 100 Milliarden Dollar oder mehr an Floatern. In diesem Szenario verdient Diamond eine Menge Geld, ebenso wie die Universität von Maine und der US-Bundesstaat Maine. Das Gleiche gilt für alle Zulieferer und Arbeiter. Ob das alles legal ist, ist eine Frage, denn die Demonstration einer patentierten Floater-Technologie ist keine Forschung.

Wohlgemerkt, ich behaupte nicht, dass dies der Fall ist, aber es macht durchaus Sinn, diese angebliche Forschungseinrichtung zu nutzen. Das Haupthindernis besteht darin, dass die Uni-Technologie noch nie im 10-12-MW-Maßstab gebaut wurde und möglicherweise nicht realisierbar ist. Auch das Fabrikdesign, das ich gesehen habe, funktioniert nicht, aber das ist ein anderes Thema.

Es wird sehr interessant sein zu beobachten, wie sich dieses zweihundert Milliarden Dollar schwere Spiel entwickelt.

Link: https://www.cfact.org/2024/08/27/maines-mysterious-floating-wind-research/

Übersetzt von Christian Freuer für das EIKE