Solarenergie erzeugt Abfall und Verschmutzung

H. Sterling Burnett

Die Mainstream-Medien wachen vielleicht endlich auf und erkennen, dass Solarenergie nicht so umweltfreundlich ist, wie ihre Befürworter behauptet und wie sie weitgehend unkritisch berichtet haben.

Meine Kollegen vom Heartland Institute und ich haben bereits früher die Umweltauswirkungen der Solarenergie-Erzeugung beschrieben, angefangen bei der Produktion von Solarmodulen in Bezug auf Abfall und Umweltverschmutzung bis hin zu den Auswirkungen auf Vögel und andere Spezies sowie den Fußabdruck auf dem Land.

Ein weiteres Problem, das Heartland-Wissenschaftler bereits mehrfach erörtert haben, sind die zunehmenden Abfälle von Solarmodulen, der durch kaputte Module und solche anfällt, die das Ende ihrer Lebensdauer erreicht haben.

Das letztgenannte Problem erhält allmählich die Aufmerksamkeit, die es verdient. Ein kürzlich erschienener Untersuchungsbericht der BBC hat ergeben, dass die Milliarden von Solarmodulen, die derzeit weltweit auf Dächern und in industriellen Solaranlagen installiert sind, und die weiteren Milliarden, die nach den Plänen der Regierungen rund um den Globus installiert werden sollen, Berge von Abfällen erzeugen oder in Kürze erzeugen werden, für die es in der Branche keine gute Lösung gibt.

Es ist schwierig, ausgemusterte Solarmodule zu entsorgen oder zu recyceln. Gegenwärtig werden die meisten gebrauchten Solarmodule entweder auf Mülldeponien entsorgt oder zur Verwendung im Ausland verschifft. Weniger als 1 von 10 Solarmodulen wird recycelt.

Solarmodule werden in der Regel entfernt, wenn die von ihnen erzeugte Energie deutlich nachlässt, was in der Regel nach 20 bis 30 Jahren der Fall ist, wenn sie nicht zuvor beschädigt oder funktionsunfähig geworden sind. Solche Paneele produzieren zwar immer noch Energie, aber deutlich weniger als für Hausbesitzer, Unternehmen und Energieversorger erforderlich ist, um davon zu profitieren. Einige Unternehmen haben einen wachsenden Markt für gebrauchte, minderwertige Solarmodule in Entwicklungsländern entdeckt. Die Lebensdauer der Paneele geht jedoch irgendwann zu Ende, so dass sich das Entsorgungsproblem nur von den Industrieländern auf die ärmeren Länder verlagert.

Darüber hinaus rückt das Abfallproblem durch verbesserte Solartechnologien zeitlich immer näher. Wie bei Fernsehern, Computern, Autos und anderen Technologien ersetzen viele Menschen bestehende Solarmodule durch neuere, effizientere, wenn sich die Technologie verbessert, und zwar nach nur 10 oder 15 Jahren der Nutzung, also lange vor dem Ende der Lebensdauer der Module, wie die BBC berichtet. Dadurch entsteht schon früher mehr Abfall.

Solarmodule enthalten eine Mischung aus wertvollen und giftigen Materialien, von denen einige recycelbar sind, andere nicht oder zumindest nicht leicht. Natürlich werden große Mengen an Glas verwendet, aber auch kleine Mengen an Kupfer, Silber und verschiedenen kritischen Materialien. Wie die BBC berichtet, ist das Recycling der Paneele aufgrund ihrer Beschaffenheit sehr teuer. Selbst wenn sie recycelt werden, ist der größte Teil des Abfalls damit noch nicht abgedeckt. Nicolas Defrenne von Soren, einem französischen Unternehmen, das mit anderen an der Wiederverwertung von Solarmodulen in Frankreich arbeitet, erklärte gegenüber der BBC: „Über 60 % des Wertes sind in 3 % des Gewichts der Solarmodule enthalten.“

Darüber hinaus enthalten Solarmodule giftige Metalle wie Blei, Kadmium und Selen. Die Vermischung von wiederverwertbaren und giftigen Elementen macht es unerschwinglich, die geringe Menge an wertvollen Materialien in jedem Panel von den giftigen zu trennen.

„Der Grund dafür, dass sich nicht mehr Unternehmen mit dem Recycling von Solarmodulen befassen ist, dass es wirtschaftlich keinen Sinn macht“, sagte A. J. Orben, Vizepräsident von We Recycle Solar, gegenüber GreenBiz. „Es kostet mehr, ein Panel zu zerlegen und die Rohstoffe zurückzugewinnen, als die Rohstoffe selbst wert sind“.

Wie groß ist die Herausforderung? Ein von der BBC befragter Analyst schätzt, dass derzeit weltweit 2,5 Milliarden Solarmodule auf Dächern und in industriellen Solaranlagen installiert sein könnten. Bei einer jährlichen Wachstumsrate im zweistelligen Bereich und der Tatsache, dass die Regierungen immer mehr Solarenergie subventionieren und vorschreiben, können wir davon ausgehen, dass in den nächsten Jahrzehnten Hunderte von Milliarden Solarpaneele installiert werden – vorausgesetzt, es können genügend Rohstoffe abgebaut und in Paneele umgewandelt werden, was derzeit noch sehr unwahrscheinlich ist.

Ute Collier, stellvertretende Direktorin der Internationalen Agentur für erneuerbare Energien, beschrieb die Herausforderung gegenüber der BBC:

„Bis zum Jahr 2050 werden wir einen Müllberg haben, wenn wir nicht jetzt Recyclingketten in Gang setzen. …“

Bis 2030 werden wir wohl vier Millionen Tonnen Schrott haben – was immer noch überschaubar ist – aber bis 2050 könnten es weltweit mehr als 200 Millionen Tonnen sein.

Das ist nur das Entsorgungsproblem bei der Solarenergie. Weitere kostspielige Schwierigkeiten entstehen, wenn Unternehmen, die große industrielle Solaranlagen entwickeln, die indirekten Umweltauswirkungen der Entwicklung nicht berücksichtigen, wie Solarentwickler kürzlich in einem Gerichtsverfahren feststellen mussten.

Ein US-Bundesgericht hat kürzlich einem Ehepaar im Südwesten Georgias 135,5 Millionen Dollar Schadensersatz und Strafschadensersatz zugesprochen, nachdem die Abwässer der 400 Hektar großen Lumpkin-Solaranlage Gewässer und Böden auf ihrem ländlichen Grundstück verschmutzt und einen Angelsee zerstört hatten.

Meta, die Muttergesellschaft von Facebook, lobte noch vor Kurzem die Lumpkin-Anlage für die Bereitstellung von grüner Energie für ihr Rechenzentrum in Georgia. „Wir danken der Silicon Ranch … für ihr Engagement für eine erfolgreiche Umsetzung und dafür, dass sie unsere Verpflichtung teilt, einen positiven Einfluss auf die Gemeinden zu haben, in denen wir uns niederlassen“, sagte Metas Direktor für erneuerbare Energien bei der Unterzeichnung des Stromvertrags.

Angesichts der von ihr verursachten Umweltverschmutzung kann die von ihr erzeugte Energie kaum als umweltfreundlich bezeichnet werden oder zumindest für einige Menschen in der Gemeinde eine positive Wirkung haben.

Als IEA für den Bau der 100-Megawatt-Solaranlage von Silicon Ranch in Lumpkin rund 400 Hektar Wald-, Farm- und Jagdland rodete, versäumte das Unternehmen offenbar, angemessene Maßnahmen zur Bekämpfung der Umweltverschmutzung zu ergreifen. Diese Maßnahme mag zwar kostensparend gewesen sein, aber sie kam das Unternehmen teuer zu stehen. Schwere Regenfälle schwemmten Schlamm und Sedimente auf das Grundstück von Shaun und Amie Harris.

„Das Ergebnis ist das, was man erwarten würde – bei Regen ergoss sich die Verschmutzung bergab und flussabwärts auf das Grundstück der Nachbarn, überschwemmte Feuchtgebiete mit Schlamm und Sedimenten und verwandelte einen 8 Hektar großen Angelsee in ein Schlammloch“, so James E. Butler, der Anwalt des Paares, in einer Erklärung.

Anstatt die gebührende Umsicht und die übliche Sorgfaltspflicht walten zu lassen, haben die Unternehmen „ein Ärgernis geschaffen, betrieben und aufrechterhalten …, das zu einer Verschmutzung der Feuchtgebiete, Bäche und des Sees der Kläger durch Sedimente führte“, urteilte Bundesbezirksrichter Clay D. Land. „Das Gericht stellt ferner fest, dass diese Belästigung seit etwa zwei Jahren unvermindert anhält“.

Dies ist nur ein Fall, aber es ist etwas, auf das man achten sollte, wenn mehr große Solaranlagen entwickelt werden. Umweltprobleme, die von diesen Anlagen ausgehen, können in vielerlei Hinsicht auftreten.

Sources: Climate-Science Press; CFACT; BBC

Link: https://heartlanddailynews.com/2023/06/climate-change-weekly-474-solar-power-creates-waste-and-pollution/

Übersetzt von Christian Freuer für das EIKE

Kommentar des Übersetzers: Das hier angesprochene Müllproblem von Solarpaneelen ist ja nur eines von vielen weiteren Umwelt-Zerstörungen. Über das Problem der teils hoch giftigen Rohstoffe für diese Dinger wurde schon in anderen Beiträgen berichtet. Etwas, das bei der ganzen Diskussion aber kaum eine Rolle spielt: Solarfelder sind eine gigantische Heizanlage für die freie Atmosphäre! Die Dinger werden heiß in voller Sonne – man schaue mal ein Infrarotbild eines solchen Feldes an. Gleichzeitig ist damit eine erhebliche Austrocknung der Luft verbunden – Feuchtigkeit kann nur aus dem Boden kommen, aber der ist ja abgeschattet – also keine Verdunstung möglich. Solarfeld = heiß und extrem trocken – das ist der Klimawandel á la EU!

 




Unbekannte und ungewisse Ozean-Wassertemperatur

Tony Brown

Vorbemerkung des Übersetzers: Dieser Beitrag ist schon älter, genauer gesagt stammt er aus dem Jahr 2011. Auch die hinterlegten Links sind natürlich die aus jener Zeit. Aber angesichts jüngster Meldungen über „extrem hohe Temperaturen im Nordatlantik“ und vor dem Hintergrund eines wahrscheinlichen neuen El Nino ist er heute noch hoch aktuell, weshalb er hier übersetzt wird. – Ende Vorbemerkung

Im Laufe der Jahre hat mich die Art und Weise fasziniert, in der historische Aufzeichnungen der Temperatur – die nie dazu gedacht waren, mehr als ein grobes Abbild des Mikroklimas um sie herum zu sein – verwendet wurden, als ob es sich um hochgenaue wissenschaftliche Daten handelte, und in der Folge zur Information der Politik genutzt wurden. Ich habe zwei Artikel über ihre historische Genauigkeit geschrieben, die beide über diesen Link abgerufen werden können.

Das ozeanische Äquivalent – die Meerestemperaturen (SST) – haben sogar noch zweifelhaftere Ursprünge als die Landtemperaturen, werden aber auch als wissenschaftliche Aufzeichnung wahrgenommen, die unser globales Verständnis der SST bis in die mittleren Jahrzehnte des 19. Jahrhunderts ebenfalls geprägt haben. In gewisser Weise sind sie sogar noch wichtiger als die Landtemperaturen, da der Ozean 70 % unseres Globus‘ ausmacht.

In diesem Artikel befassen wir uns mit den Verfahren zur Berechnung der SST – am bekanntesten ist das Hadley/Met Office, das die hier gezeigte Grafik der SST-Anomalien ab 1850 erstellt hat. Die Methodik wird vom Met Office Hadley Centre hier beschrieben:

„Die SST-Daten stammen aus dem International Comprehensive Ocean-Atmosphere Data Set, ICOADS, von 1850 bis 1997 und aus dem NCEP-GTS von 1998 bis heute. HadSST2 wird durch In-situ-Messungen der SST von Schiffen und Bojen erstellt, wobei Messungen, welche die Qualitätskontrollen nicht bestehen, zurückgewiesen werden, die Messungen in Anomalien umgewandelt werden, indem klimatologische Werte von den Messungen abgezogen werden, und ein robuster Mittelwert der resultierenden Anomalien auf einem monatlichen Gitter von 5° mal 5° Grad berechnet wird. Nach der Rasterung der Anomalien werden Verzerrungskorrekturen vorgenommen, um falsche Trends zu beseitigen, die durch Änderungen der SST-Messverfahren vor 1942 verursacht wurden. Für die gerasterten Monatsdaten wurden die Unsicherheiten aufgrund einer zu geringen Stichprobengröße berechnet, ebenso wie die Unsicherheiten bei den Verzerrungskorrekturen gemäß den in der Arbeit beschriebenen Verfahren.“

Wikipedia definiert die Meerestemperatur wie folgt:

„Die Meerestemperatur (SST) ist die Wassertemperatur in der Nähe der Oberfläche des Ozeans. Die genaue Bedeutung der Oberfläche variiert je nach verwendetem Messverfahren, liegt aber zwischen 1 Millimeter und 20 Metern unter der Meeresoberfläche.“

Die Komplexität der Definition der Meerestemperatur wird hier jedoch näher erläutert:

Die SST ist ein schwer genau zu definierender Parameter, da der obere Ozean (~10 m) eine komplexe und variable vertikale Temperaturstruktur aufweist, die mit den Turbulenzen im Ozean und den Wärme-, Feuchtigkeits- und Impulsflüssen zwischen Luft und Meer zusammenhängt. Definitionen der SST bieten einen notwendigen theoretischen Rahmen, der zum Verständnis des Informationsgehalts und der Beziehungen zwischen SST-Messungen durch verschiedene Satelliten- und In-situ-Instrumente verwendet werden kann.

Um herauszufinden, wie die grundlegenden SST-Daten physikalisch erfasst, verfeinert und anschließend als Grundlage für Informationen verwendet werden, die von Regierungen auf der ganzen Welt und in Verbindung mit der CRU als endgültige Aufzeichnung der globalen Land-/Meerestemperaturen genutzt werden, lohnt es sich, unsere Entdeckungsreise zu beginnen, indem wir den oben genannten Wikipedia-Artikel vollständig lesen;

„Es gibt eine Vielzahl von Verfahren zur Messung dieses Parameters, die zu unterschiedlichen Ergebnissen führen können, weil unterschiedliche Dinge gemessen werden. Außerhalb der unmittelbaren Meeresoberfläche werden allgemeine Temperaturmessungen mit einem Hinweis auf die spezifische Messtiefe versehen. Der Grund dafür sind die erheblichen Unterschiede zwischen Messungen in verschiedenen Tiefen, insbesondere tagsüber, wenn geringe Windgeschwindigkeiten und starke Sonneneinstrahlung zur Bildung einer warmen Schicht an der Meeresoberfläche und zu starken vertikalen Temperaturgradienten führen können (tageszeitliche Thermokline). Die Messungen der Meerestemperatur beschränken sich auf den oberen Teil des Ozeans, die so genannte oberflächennahe Schicht.“

[Es ist unklar, ob das heute noch genauso bei Wikipedia steht. Vielleicht hat einer der Kommentatoren etwas dazu. Mir fehlt die Zeit zur Recherche. A. d. Übers.]

Die Methoden zur Erfassung der Meerestemperaturen umfassen Messungen von Schiffen (Eimer und Motoreinlässe), auf der Meeresoberfläche schwimmende Bojen, Wetterschiffe und in den letzten Jahren den Einsatz einer Reihe von Tauchbojen („Argo“). Satellitenmessungen, die in den 1970er Jahren begannen, werden in diesem Artikel nicht behandelt. Alle Verfahren messen in unterschiedlichen Tiefen, von der obersten „Haut“ des Ozeans bei 0,01 mm bis zu Hunderten von Metern unter der Oberfläche, und daher kann ein Verfahren nicht ohne weiteres mit einem anderen verglichen werden, da die Temperatur je nach Tiefe wahrscheinlich erheblich variiert.

„Die Temperatur des Weltozeans ist an der Oberfläche sehr unterschiedlich und reicht von weniger als 0 °C in der Nähe der Pole bis zu mehr als 29 °C in den Tropen. Er wird durch das Sonnenlicht von der Oberfläche nach unten erwärmt, aber in der Tiefe ist der größte Teil des Ozeans sehr kalt. Fünfundsiebzig Prozent des Ozeanwassers fallen in den Temperaturbereich von -1 bis +6°C und in den Salzgehalt von 34 bis 35.“ (Referenz)

Die frühesten Messungen der Weltmeere und nicht der Küstengewässer wurden von Schiffen aus vorgenommen. Ein frühes Beispiel dafür war Benjamin Franklin, der auf seiner Reise zwischen den USA und Europa ein Quecksilberthermometer an ein Schiff hängte, als er im späten 18. Jahrhundert seine Beobachtungen bzgl. des Golfstromes durchführte. Die Temperaturen können jedoch relativ konstant sein, wenn es eine Strömung – wie den Golfstrom – gibt, die sich durch die verschiedenen Ebenen zieht, wie die folgenden Beispiele zeigen. Dies sind die ersten zuverlässigen Hinweise auf systematische und detaillierte Messungen der Meerestemperatur zu wissenschaftlichen Zwecken, die dem Autor bekannt sind. Sie stammen aus den 1820er Jahren, als die Royal Society Expeditionen unternahm, um das „beispiellose“ Abschmelzen der Arktis zu untersuchen.

„Eine Beobachtung, die an dieser Stelle interessant ist und die einen Beweis für den sehr geringen Unterschied zwischen der Oberflächentemperatur und der Temperatur in einer gewissen Tiefe liefert, wird in der Reise von Kapitän Graah, S. 21, erwähnt. Er sagt: „Am 5. Mai 1828 wurde in 57° 35′ nördlicher Breite und 36° 36′ westlicher Länge die Oberflächentemperatur auf 6°-3 und in einer Tiefe von 660 Fuß auf 5°5 + K. gemessen.“ Dies beweist, dass es an dem erwähnten Ort südöstlich von Cape Farewell keine kalte Unterwasserströmung gibt. Ein noch schlüssigeres Experiment wurde von Sir Edward Parry in seinem Bericht über seine erste Reise am 13. Juni 1819 aufgezeichnet: in 57° 51′ nördlicher Breite, 41° 5′ Länge. 41° 5′, mit einer sehr leichten südlichen Strömung, war die Oberflächentemperatur 4,4°C. und in 235 Faden 3,9°C, ein Unterschied von nur 0,5 K.“ (Referenz).

Jegliche Messung der Meeresoberfläche oder des tieferen Untergrunds vor der Mitte des 19. Jahrhunderts wird im Allgemeinen als von relativ begrenztem wissenschaftlichem Wert angesehen, da die Datenerfassung wenig einheitlich war.

1853 half Leutnant MF Maury bei der Organisation der internationalen Schifffahrtskonferenz in Brüssel, auf der sich alle teilnehmenden Länder darauf einigten, gemeinsame Verfahren zur Überwachung meteorologischer und mariner Informationen einzuführen, von denen die SST nur einen kleinen Teil ausmachte. Sein 1855 erschienenes Buch „The Physical Geography of the Sea“ wurde zur Pflichtlektüre.

Doch erst nach dem Zweiten Weltkrieg gewann die Wissenschaft der SST-Messung an Schwung, als neue und zuverlässigere Verfahren zu ihrer Messung entwickelt wurden, die während des Internationalen Geophysikalischen Jahres 1957/8 einen weiteren Auftrieb erhielten. Doch auch in den letzten Jahren hat der Ozean immer wieder für Überraschungen gesorgt. So wurde beispielsweise Mitte der 1990er Jahre entdeckt, dass die Strömungen in der Tiefsee sowohl viel stärker als auch viel variabler sind als bisher angenommen. In diesem Zusammenhang kann man sagen, dass die Entwicklung immer genauerer SST-Werte (wenn sie aus wissenschaftlichen Quellen stammen), auch wenn sie räumlich noch unvollständig sind, erst im letzten halben Jahrhundert stattgefunden hat. Davor gesammelte Daten sind mit einem großen Fragezeichen versehen, wie wir noch feststellen werden.

Kapitel 5 des Buches „Descriptive Physical Oceanography“ von M. P. M. Reddy beschreibt einige der verwendeten Methoden, ist aber vielleicht noch interessanter wegen der allgemeinen Vorgeschichte.

Angemessene wissenschaftliche Expeditionen, wie die der Royal Society in den 1820er Jahren, waren wahrscheinlich in der Lage, während eines kurzen Zeitfensters, bevor das Schiff weiterfuhr, die Meerestemperaturen für einen winzigen Abschnitt des Ozeans weitgehend genau (auf wenige Grad genau) zu bestimmen (vorbehaltlich aller relevanten Vorbehalte, die in dem Artikel über Landtemperaturen erwähnt wurden). Dann würde der Beobachter ein Stück Ozean abtasten, das möglicherweise völlig andere Temperatureigenschaften aufweist, denn wie jeder Schwimmer bestätigen wird, vermischt sich das Wasser nicht immer sehr gut, und wie bereits festgestellt, spielt die Tiefe eine entscheidende Rolle für die Temperatur.

Die meisten früheren Aufzeichnungen erfolgten jedoch nicht unter strengen wissenschaftlichen Bedingungen, sondern auf einer viel zwangloseren Ad-hoc-Basis durch Mitglieder der internationalen Seestreitkräfte und Fischer. Das Verfahren der Probenentnahme war recht einfach: Ein Holz- oder Segeltucheimer wurde an einem in Fadenlänge markierten Seil befestigt, das Ensemble über Bord geworfen, der Eimer anschließend angehoben und ein Thermometer hineingesteckt, um die Temperatur dieses kleinen Teils des Ozeans zu messen. (siehe Abbildung). Ein Verfahren, das, mit kleinen Abweichungen, 140 Jahre lang beibehalten wurde.

Zu den Unstimmigkeiten in den Daten wird in dieser Studie angemerkt:

„…Ein neuer Artikel von David Thompson und anderen NOAA-Atmosphärenforschern in Nature liefert eine andere Erklärung (für die Genauigkeit). Die meisten Kriegsmessungen der Meerestemperaturen, die in den globalen Durchschnitt einflossen, stammten von US-Kriegsschiffen, die im Gegensatz zur britischen Marine dazu neigten, die Messwerte des Wassereinlass-Thermometers im Maschinenraum als repräsentativ für die Temperatur des Meeres zu erfassen. Die hartgesottenen Matrosen, die gegen Ende des Krieges in den meteorologischen Dienst zurückkehrten, verließen sich stattdessen wie immer auf das altehrwürdige Verfahren, einen Eimer über die Bordwand zu werfen, ihn einzuholen und an Deck zu stellen, damit ein mit einem Thermometer bewaffneter Chief oder Offizier ihn messen konnte. Der spätviktorianische Wechsel von Eichenholzkübeln zu verzinktem Stahl wurde vor dem Zweiten Weltkrieg noch verschärft, als nicht nur britische, sondern auch holländische und japanische Hydrographen mit porösen und daher kühlungsanfälligen Segeltuchschaufeln ausgestattet wurden – eine schlechte Idee, da der Wind auf einem fahrenden Schiff in der Regel lebhaft ist. Das entnommene Seewasser kühlte zwangsläufig ab, und zwar in der Zeit, die es brauchte, um es zur Messung an Deck zu bringen.“

Man kann sich vorstellen, wie schwierig es ist, ein so empfindliches Instrument wie ein Thermometer in einem Stück zu halten, geschweige denn zu kalibrieren. Auf ernsthaften wissenschaftlichen Expeditionen wurde es vielleicht in der Kabine des Kapitäns verschlossen aufbewahrt, aber unter vielen anderen Umständen konnte es bei jedem Wetter draußen an einem Haken hängen bleiben.

Dieser Link zeigt ein Schiffsbarometer und -thermometer aus der Zeit um 1855. Das im Eimer verwendete Thermometer war oft eine robuste, eigenständige Version des Instruments links im Hauptbild.

[Bild aus dem angegebenen Link entnommen]

Um die Probleme zu verdeutlichen, die mit der Aufzeichnung von „Eimer“-Temperaturen auf diese Weise verbunden sind, kann ich nichts Besseres tun als ein Gespräch wiederzugeben, das ich vor einigen Jahren mit jemandem geführt habe, der in den 40er und 50er Jahren in der britischen Marine gedient hat, als die Eimer-Messungen noch üblich waren (sie wurden schließlich in den frühen 60er Jahren eingestellt).

Er wies sachlich darauf hin, dass das Wasser aus allen möglichen Tiefen entnommen wurde (was stark von der Kraft und der Veranlagung des Betreffenden abhing) und das Wasser in dem Behälter (nicht immer ein zugelassener Eimer) für unbestimmte Zeiträume stehen gelassen wurde, was Zeiten mit heißem Sonnenschein und die Kühle der Nacht einschloss. Auch die Qualität der Thermometer war nicht immer die beste, die Kalibrierung erfolgte nur selten, und die Thermometer wurden in der Umgebungstemperatur an Deck belassen, bevor die Wasserprobe oft nur flüchtig abgelesen wurde, was die Unsicherheit noch erhöhte.

Sein ungläubiges Lachen, als ich ihm von der großen Bedeutung erzählte, die Wissenschaftler Messwerten wie dem seinen beimaßen, ist mir noch in Erinnerung. Damit soll natürlich nicht gesagt werden, dass alle SST-Werte auf diese Weise erhoben wurden, aber es waren viel zu viele, als dass die allgemeine Aufzeichnung als wissenschaftlich solide und aussagekräftig gelten könnte.

Das Folgende stammt aus einer Veröffentlichung aus dem Jahr 1947 mit dem Titel „A new bucket for measurement of sea surface temperatures“:

„Es ist seit vielen Jahren bekannt, dass das Standardverfahren zur Messung der Meerestemperaturen durch Entnahme einer Probe mit einem Leineneimer mit erheblichen Fehlern behaftet ist.“

Ganz genau.

In diesem Buch aus dem Jahr 1963 bemerkt H. F. Herdman, dass die Probe zu oft in einem Leineneimer entnommen und die Temperatur nach einer beträchtlichen Zeit abgelesen wird.

Dieses interne Memorandum des hoch angesehenen D. E. Parker aus dem Jahr 1985 mit dem Titel „A comparison of bucket and non-bucket measurements of sea surface temperatures“ (Vergleich von Messungen der Meerestemperatur mit und ohne Eimer) betrifft die Temperaturunterschiede zwischen Wasser, das in isolierten und nicht isolierten Eimern gesammelt wurde. Der Autor scheint der festen Überzeugung zu sein, dass trotz aller gegenteiligen Beweise das aus Eimern entnommene Wasser auf Zehntelgrade genau analysiert werden kann. Er zeigt auch das Gittersystem, das zur Messung von Daten über die 70 % der Erdoberfläche, die aus Ozeanen bestehen, verwendet wird, und veranschaulicht die Präzision, von der Hadley glaubt, dass sie sie haben. Unverzichtbare Lektüre für alle, die sich ernsthaft mit der SST beschäftigen, da sie einen Einblick in die frühe Entwicklung der SST-Datenbank gibt.

Es gab eine Abwandlung des Eimer-Verfahrens, bei dem das Thermometer in den Eimer gesteckt wurde, bevor man es über die Bordwand absenkte, wobei in späteren Jahren ein Gummipolster als Schutz diente. Ein Umkehrthermometer – im Allgemeinen für größere Tiefen als die Oberfläche verwendet – wurde 1874 entwickelt und von 1900 bis 1970 verwendet.

Im Allgemeinen waren die gesammelten SST-Daten von unterschiedlicher Qualität, was auf die Methodik und die Qualität der Instrumente zurückzuführen ist. Hinzu kommt das Fehlen von „räumlichen“ Daten – die Messungen wurden nur sporadisch über einen winzigen Teil der Weltmeere durchgeführt, wie hier beschrieben ist:

„Aus den ICOADS-Daten wurden auch Karten der mittleren Temperatur erstellt. Die Daten sind zeitlich und räumlich schlecht verteilt, außer in einigen Gebieten der nördlichen Hemisphäre. Darüber hinaus stellten Reynolds und Smith (1994) fest, dass die Temperaturdaten von Schiffen doppelt so große Fehler aufweisen wie die Temperaturfehler in den Daten von Bojen und AVHRR. Somit sind die von Reynolds verarbeiteten Weltraumdaten genauer und besser verteilt als ICOADS.“

Ein wenig mehr Einblick in die Erstellung von Aufzeichnungen der Meerestemperatur wurde von Richard Verney (in den Kommentaren) gewährt, der hier über das Verfahren schreibt, das schließlich die Eimer ablöste – die Messungen an den Motoreinlässen:

„Es scheint mir, dass das Met Office und die CRU nicht verstehen, wie die Daten von Schiffen erhoben werden. Die von Schiffen gemeldete Seewassertemperatur wird aus dem Seewasser entnommen, das zur Kühlung des Motors verwendet wird. Woher dieses Wasser entnommen wird, hängt von der Konstruktion und Konfiguration des Schiffes ab und davon, ob das Schiff mit Ballast fährt oder beladen ist. Schiffe versuchen, lange Ballastfahrten zu vermeiden, da diese nicht zu den Einnahmen bringenden Strecken gehören. Bei einem beladenen Schiff wird das zur Kühlung entnommene Seewasser etwa 10 m unter der Wasseroberfläche entnommen (das kann überall zwischen 7 und 13 m liegen, typisch sind jedoch etwa 10 m).

Was bedeutet das? Es bedeutet, dass Schiffe die Meerestemperatur in einer Tiefe von etwa 10 m messen, während Bojen die Meerestemperatur in einer Tiefe von etwa 1 m (bis 3 m) messen. (Anmerkung der Autoren: Bojen messen die Temperatur in verschiedenen Tiefen, je nach Position des Werfers, Satelliten in 0,01 mm Tiefe). Allgemein gilt: je tiefer, desto kühler.

Daraus (d.h. aus dem Tiefenunterschied) folgt, dass man erwarten würde, dass die Daten des Schiffsmotoreneinlasses eine niedrigere (und nicht eine höhere) Temperatur aufzeichnen, wenn man sie mit den ähnlichen Messungen der Bojen (die näher an der Oberfläche messen) vergleicht. Das bedeutet, dass man entweder die Bojentemperatur nach unten oder die Schiffstemperatur nach oben korrigieren muss, um einen vergleichbaren Vergleich anstellen zu können. Es gibt keinen Grund, die Bojentemperatur nach oben zu korrigieren, da dies den Unterschied zwischen den Tiefen, in denen die Daten gemessen wurden, noch vergrößert.

Darüber hinaus neigt eine nicht unerhebliche Anzahl von Schiffen dazu, die Meerestemperatur absichtlich zu niedrig aufzuzeichnen. Viele Schiffe befördern flüssige Ladungen, die erhitzt werden müssen (verschiedene Chemikalien, Palmöl, Pflanzenöl usw.). Vereinfacht gesagt, wird der Schiffseigner für die Erwärmung dieser Ladungen bezahlt…. In sehr warmen tropischen Meeren kühlt die Ladung natürlich langsamer ab, und die natürlich vorherrschende Meerwassertemperatur kann ausreichen, um die Ladung frei fließen zu lassen, so dass eine Erwärmung nicht unbedingt erforderlich ist. Es liegt daher im Interesse des Schiffseigners, Seewassertemperaturen aufzuzeichnen, die etwas niedriger sind als die tatsächlich vorherrschenden Temperaturen, so dass er Heizkosten geltend machen und in Rechnung stellen kann, obwohl in Wirklichkeit keine Heizkosten anfallen. Ich behaupte nicht, dass diese Praxis in der gesamten Schifffahrtsbranche einheitlich ist, aber sie kommt sicherlich vor. So wird auf einer Reihe von Schiffen eine niedrigere Temperatur aufgezeichnet/angegeben, als sie tatsächlich herrscht.

Aus diesen beiden Gründen besteht Grund zu der Annahme, dass die von den Schiffen gelieferten Temperaturaufzeichnungen die Meerestemperatur unterbewerten/unterzeichnen. In diesem Fall könnten die Meerestemperaturen sogar noch stärker gesunken sein, als das ‚Team‘ (oder die ihm nahestehenden Personen und/oder seine Befürworter) zu akzeptieren bereit sind.“

Diese Interpretation wird von der Seafriends-Website von Dr. J. Floor Anthoni bestätigt, von der dieser Auszug über die Meerestemperaturen stammt:

„Die Temperatur der Meeresoberfläche wird schon seit mehreren Jahrhunderten von Schiffen gemessen. Zunächst wurde das Oberflächenwasser während der Fahrt in einem Eimer aufgefangen, später wurde der Kühlwassereinlass des Motors verwendet. Leider machte dies einen Unterschied, da der Wassereinlass in einer gewissen Tiefe unter Wasser liegt. Heute kann dies von Vorteil sein, da Satelliten nur die obersten paar Zentimeter des Meeres messen können, wird doch die Infrarotstrahlung vom Wasser schnell absorbiert. Da das Wasser ständig aus dem Meer verdunstet, ist der Oberflächenfilm etwas kälter als ein paar Meter tiefer.“

Ungeachtet des Verfahrens der Datenerfassung muss auch berücksichtigt werden, dass die wenigen Messwerte von Schifffahrtswegen stammen, die nur einen winzigen Bruchteil der Meeresoberfläche ausmachen, und hier kommt ein weiterer, bereits angesprochener Faktor zum Tragen, denn neben der Qualität der Informationen ist auch die Quantität der Daten von Bedeutung, da nur relativ wenige Messwerte erfasst wurden und die geografische Abdeckung viel geringer ist als selbst bei den unzureichenden Aufzeichnungen der Landtemperatur.

Diese Grafik [die sich leider nicht vergrößern lässt, ohne unscharf zu werden, A. d. Übers.] – Reynolds 2000 – zeigt den Verkehr der Schiffe, die in der Woche vom 1. bis 8. Januar 2000, einer Zeit höchster wirtschaftlicher Aktivität, zur Erhebung von SST-Daten eingesetzt wurden. (Die Breite der Fahrspuren wurde zu Darstellungszwecken stark übertrieben). Schon damals war die Abdeckung sehr dürftig, aber eine Momentaufnahme aus dem Jahr 1850 würde eine weitaus geringere Aktivität erkennen lassen. Beobachtungen und Berechnungen von SST-Anomalien sind in dieser WG2-Analyse des IPCC dargestellt.

Die heutige Hightech-Version dieser älteren Messverfahren sind ARGO-Bojen:

„ARGO ist ein globales System von 3.000 frei treibenden Messbojen, die die Temperatur und den Salzgehalt in den oberen 2000 Metern des Ozeans messen. Dies ermöglicht zum ersten Mal eine kontinuierliche Überwachung der Temperatur, des Salzgehalts und der Strömungsgeschwindigkeit des oberen Ozeans, wobei alle Daten innerhalb von Stunden nach der Erfassung weitergeleitet und öffentlich zugänglich gemacht werden.“

Dieses derzeit kurzlebige Experiment hatte einen umstrittenen Anfang, da die Bojen anfangs einen sinkenden Wärmeinhalt des Ozeans aufzeichneten (wenn auch nicht streng nach denselben Kriterien wie die SST). Dies war eine offensichtliche Anomalie, da die Ozeantemperaturen laut Computermodellen eigentlich steigen sollten. Diese Abweichung wurde in diesem Artikel erläutert, der auch nützliche Informationen darüber liefert, welcher Anteil des Ganzen – wie Wärmeausdehnung und Gletscherschmelze – den einzelnen Aspekten des Meeresspiegelanstiegs zuzuschreiben ist.

„Im Jahr 2004 veröffentlichte Willis eine Zeitreihe zum Wärmeinhalt des Ozeans, aus der hervorging, dass die Temperatur in den oberen Schichten des Ozeans zwischen 1993 und 2003 gestiegen war. Im Jahr 2006 leitete er eine Folgestudie unter der Leitung von John Lyman am Pacific Marine Environmental Laboratory in Seattle, in welcher die Zeitreihe für 2003-2005 aktualisiert wurde. Überraschenderweise schien sich der Ozean abgekühlt zu haben.

Es überrascht nicht, sagt Willis mit einem Augenzwinkern, dass diese Studie viel Aufmerksamkeit erregte, aber nicht immer in dem Maße, wie es ein Wissenschaftler begrüßen würde. In Gesprächen mit Reportern und der Öffentlichkeit bezeichnete Willis die Ergebnisse als „Bremsklotz“ auf dem Weg zur globalen Erwärmung, als Beweis dafür, dass es selbst bei einer Erwärmung des Klimas aufgrund von Treibhausgasen immer noch Schwankungen geben würde. Die Botschaft kam jedoch nicht bei allen an. In Blogs und Radiotalkshows zitierten Leugner der globalen Erwärmung als Beweis dafür, dass die globale Erwärmung nicht real sei und dass die Klimawissenschaftler nicht wüssten, was sie täten.“

Die obige Interpretation wurde jedoch durch diese Studie vom November 2010 mit dem Titel „Recent energy balance of earth“ von Knox und Douglass überholt, die nach einer Untersuchung der Daten der ARGO-Bojen zeigen, dass der Wärmehaushalt der Ozeane im jüngsten Zeitraum 2003-2008 tatsächlich immer noch abkühlt und sich nicht erwärmt.

Abstract: Eine kürzlich veröffentlichte Schätzung des globalen Erwärmungstrends der Erde liegt bei 0,63 ± 0,28 W/m², berechnet aus den Daten der Anomalie des Wärmeinhalts der Ozeane im Zeitraum 1993-2008. Dieser Wert ist nicht repräsentativ für die jüngste Erwärmungs-/Abkühlungsrate (2003-2008), da um 2001-2002 eine „Abflachung“ eingetreten ist. Wenn wir nur die Daten der ARGO-Bojen von 2003-2008 verwenden, stellen wir mit vier verschiedenen Algorithmen fest, dass der jüngste Trend zwischen -0,010 und -0,160 W/m² liegt, mit einer typischen Fehlerbreite von ±0,2 W/m². Diese Ergebnisse stützen nicht die Existenz eines häufig zitierten großen positiven berechneten Strahlungsungleichgewichts.

Die erneute Bestätigung, dass sich die Ozeane generell abzukühlen scheinen, löste eine lebhafte Debatte in diesem Blogbeitrag aus.

Bislang ist dieses Verfahren zur Erfassung der Meerestemperaturen aufgrund der in dem Papier genannten Anpassungen, der Kürze des Projekts und der Schwierigkeit, kontinuierlich Daten zu erhalten, noch nicht bewiesen.

Schlussfolgerungen zu den Temperaturen an der Meeresoberfläche

Bei den Landtemperaturen haben wir festgestellt, dass wir oft Äpfel mit Birnen verglichen haben. Ähnlich verhält es sich mit den SST-Werten, bei denen wir eine Vielzahl inkompatibler Verfahren zur Datenerfassung miteinander vermischen und feststellen müssen, dass die Anzahl der Probenahmen im Ozean gemessen an der physikalischen Zahl sehr gering ist und die Methodik selbst möglicherweise schwerwiegende Mängel aufweist. Hinzu kommt, dass das begrenzte Wissen, das wir über die Meerestemperaturen haben, exponentiell abnimmt, je weiter die Zeit zurückliegt und je abgelegener das Gebiet ist, da die Messpunkte so begrenzt sind. Erschwerend kommt hinzu, dass dort, wo die Daten spärlich sind, sie statistisch aus Gebieten aufgefüllt werden, in denen sie noch spärlicher sein könnten.

Nichts von alledem wird Hadley (und andere) davon abhalten, die globalen SST-Werte bis auf einen Bruchteil zu analysieren und die Robustheit der Antwort zu erläutern, was dann vom IPCC und den nationalen Regierungen als positiver Beweis für den Erlass weiterer Maßnahmen zum Schutz gegen die Erwärmung angesehen wird.

Die von Klimawissenschaftlern, Statistikern und Analysten in gutem Glauben verwendeten historischen Temperaturdaten, ob zu Lande oder an der Oberfläche, scheinen grundlegenden Qualitäts-Kontrollmaßnahmen nicht zu genügen und sind nicht für den Zweck geeignet, Temperaturen auf Zehntelgrade genau zu bestimmen. Insbesondere historische Meerestemperaturen sind höchst unsicher und sollten nicht als verlässliches Maß angesehen werden.

References

220,000 log books of the Royal Navy from 1669 to 1976 are being studied for meteorological information that can give an insight into climate change.

A project to recover worldwide weather observations made by Royal Navy ships around the time of World War I.

Metrology of thermometers is the science of measuring as described here

Fascinating article about various types of historic measurements taken at sea

Bob Tisdale has an excellent web site dealing with all aspects of ocean temperatures

Link: https://judithcurry.com/2011/06/27/unknown-and-uncertain-sea-surface-temperatures/

Übersetzt von Christian Freuer für das EIKE

 




Grüne Industrialisierung erhöht CO₂-Emissionen erheblich

David Wojick

Obwohl die Linke eine rasche Senkung der CO₂-Emissionen fordert, treibt sie die grüne Industrialisierung voran, welche die Emissionen in absehbarer Zeit drastisch erhöhen wird. Diese offensichtliche Absurdität muss aber erst noch zugegeben werden.

Einerseits gibt es immer mehr Literatur über den enormen Materialbedarf, der für den Bau einer großen Anzahl von Wind- und Solarstromanlagen erforderlich ist. Andererseits wächst die Erkenntnis, dass die CO₂-Emissionen der erneuerbaren Energien durch die Unterstützung von Gaskraftwerken hoch bleiben werden. Siehe meinen Aufsatz hier [in deutscher Übersetzung hier].

Die Kombination dieser beiden Faktoren bedeutet, dass die CO₂-Emissionen mit fortschreitender grüner Industrialisierung steigen und nicht sinken sollten. Beide Faktoren werden ignoriert, aber beide sind wichtig. Die Energiewende erhöht die Emissionen. So einfach ist das.
Auf der materiellen Seite geht es um das, was ich als „Emissionen der Lieferkette“ bezeichne. Es sollte klar sein, dass der Umbau des Stromnetzes sehr emissionsintensiv ist. Wir sprechen hier von einer enormen Menge an Bergbau, Verarbeitung und Bau, mit viel Transport auf jeder Stufe.

Nehmen wir als Beispiel eines meiner Lieblingsthemen – die riesigen Fundamente, in denen die Offshore-Windkrafttürme verankert werden. In diesem Fall konzentrieren wir uns auf das lächerliche Ziel von New Jersey, 11.000 MW an Offshore-Windkraftanlagen zu errichten, während es derzeit noch gar keine Windkraftanlagen gibt. Es ist lächerlich, weil New Jersey bereits über die gesamte benötigte Erzeugungskapazität verfügt. Angeblich soll diese Windkraft das Wetter verbessern oder vor einer Verschlechterung bewahren, aber das ist ein anderes Thema.

Diese Fundamente sind sehr groß. Nehmen wir der Einfachheit halber an, dass ein Stahlzylinder einen Durchmesser von 9 m und eine Länge von 90 m hat, obwohl einige größer sind. Jeder wiegt etwa 2.500 Tonnen. Er wird zunächst in den Meeresboden gerammt, dann ausgehöhlt und mit Beton verfüllt.

Sowohl die Stahl- als auch die Zementherstellung verursachen eine Menge CO₂-Emissionen, und für beide gibt es sogenannte Emissionsfaktoren. Bei der Stahlherstellung entstehen etwa 2 Tonnen CO₂ pro Tonne Stahl, so dass allein die Herstellung des Rohstahls für einen Fundamente 5.000 Tonnen CO₂ verursacht. Darin ist die Herstellung des Fundamentes nicht enthalten, die eine Menge an Formgebung, Schneiden, Schweißen usw. beinhaltet.

Ein fertiger Fundamente enthält etwa 15.000 Tonnen Beton, und der chemische Emissionsfaktor beträgt etwa 1.250 Pfund CO₂, was etwa 9.000 Tonnen CO₂ pro Pfahl ergibt. Darin nicht enthalten ist die Energie, die für das Kochen des Kalksteins zur Herstellung von Zement benötigt wird, wofür eine große Menge an Wärme erforderlich ist.

Allein die Herstellung der Grundstoffe verursacht also etwa 14.000 Tonnen CO₂ pro Monopile. Wenn man der Einfachheit halber davon ausgeht, dass die durchschnittliche Turbine 11 MW hat, benötigen wir 1.000 Monopiles, was allein für die Herstellung des Stahls und des Betons satte 14.000.000 Tonnen CO₂ ausmacht.

In dieser enormen Zahl sind energieintensive Aktivitäten wie der Abbau von Eisenerz und Kalkstein oder das Kochen von letzterem sowie die zahlreichen Transportschritte auf dem Weg von der Mine zur endgültigen Errichtung nicht enthalten.

Zurzeit werden die Stahlpfähle in Europa, wahrscheinlich in Spanien, hergestellt, so dass sie etwa 5.000 Meilen weit transportiert werden müssen. Viele der riesigen Umspannwerke, von denen jedes einen Tieflader füllt, kommen von so weit her wie Indonesien, Thailand und Singapur. Eisenerz selbst ist ein wichtiger Rohstoff für den Seetransport. Es wird also eine Menge Transport-Emissionen geben.

Und das sind nur die Fundamente. Hinzu kommen die riesigen Türme, Turbinen und Schaufelsätze. Allein die Turbinenbaugruppen wiegen heute bis zu 850 Tonnen, einschließlich vieler Tonnen Kupfer. Hinzu kommen Tausende von Kilometern an Unterseekabeln. Jeder Generator ist mit einem Umspannwerk verbunden, das wiederum an massive Stromleitungen angeschlossen ist, die zurück an Land führen. Hinzu kommt ein umfangreicher Ausbau des Stromnetzes an Land, um all diesen neuen Strom aus neuen Gebieten zu verarbeiten.

Dies ist eine Emissions-intensive Industrialisierung im großen Stil. Die CO₂-Emissionen werden in den nächsten zehn oder mehr Jahren sicherlich enorm sein. Was wir brauchen, ist eine Emissionsanalyse der Lieferkette.

Es gibt keine Möglichkeit, die Emissionen in absehbarer Zeit durch eine grüne Industrialisierung der Elektrizität zu reduzieren.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2023/06/12/green-industrialization-greatly-increases-co2-emissions/

Übersetzt von Christian Freuer für das EIKE




Ist der „Klimawandel“ die angepasste Klimaerzählung zum sich stetig verringernden Bildungsniveau?

Helmut Kuntz

Diese Eingebung kam dem Autor, als er aktuell in seiner Tageszeitung lesen durfte, wie der Stadtförster die Entstehung von Waldbränden erklärt: „(Die Sonne) Sie wird dort gefährlich, wo sie in lichte Kiefernwälder scheint und dort trockene Nadeln in Brand setzt“.
Vor dem Publizieren solchen Unsinns hätte die berichtende Redaktion den Stadtförster natürlich „retten“ können. Allerdings hätte es diese dazu selbst besser wissen müssen [1] [2]. Damit ist die Redaktion allerdings seit Langem bei vielen Themen heillos überfordert. Schließlich kaufen unsere modernen Zeitungen ihr „Wissen“ bei der dpa fertig ein und verändert – falls überhaupt etwas – nur noch die Überschriften (Bild 1).
An die Redaktion hat der Autor zwar eine Kommentierung gemailt und dabei auch versucht zu erklären, dass die Globaltemperatur und die Entzündungstemperatur zwar beide in Grad Celsius angegeben sind, jedoch zwei unterschiedliche Werte haben. Aber das ist so sinnlos, wie einem GRÜNen erklären zu wollen, dass bei Wind und Solar die Installierte Leistung nicht gleich der gelieferten Energie ist [5].

Immer neu schlägt der Klimawandel zu

Nun fand Anfang Mai der Bonner Klimadialog statt. Jedes Jahr der Beginn einer neuen Klimawandel-Untergangs-Propagandaaktion, welche erst wieder nach dem obligatorischen Klimagipfel im Dezember abnimmt.

Der UN-Generalsekretär schlägt dazu den Takt. Diesmal, indem er die Klima-Reparationszahlungen an die armen Länder einforderte [3]. Wie immer, beklagen die üblichen NGOs unisono dazu bitterst, dass das Bisschen an Maßnahmen den Planeten nicht mehr rettet, während die „Klimawissenschaft“ dazu die unverzichtbaren Belege liefert.

Und der Belege sind viele. Denn der Klimawandel schlägt inzwischen ja regelmäßig, konsequent und unerbittlich zu. Diesmal ist der Klimaeinschlag schon wieder ganz nah und zeigt erneut, dass auch der reiche Westen nicht verschont wird.

Die Camargue, ein Naturparadies verschwindet im steigenden Mittelmeer …

Merkur [4] Auf lange Sicht ist das größte Risiko für die Camargue, in der 70 Prozent des Landes weniger als einen Meter über dem Meeresniveau liegen, aber der steigende Meeresspiegel. Stierhalter Raynaud verfügte vor gut 50 Jahren noch über 1000 Hektar. Heute schätzt er sein Land auf nur noch 850 bis 900 Hektar.

Wieder erschütternd, was ein dort Lebender berichtet, Klimawissenschaftler bestätigen und jeder Deutsche erfahren muss:

Bild 1 Medienschwemme

Merkur: [4] Der Klimawandel hinterlässt in dem Schwemmland versalzene Böden, durch den steigenden Meeresspiegel droht das Meer sich immer größere Teile der flachen Küste einzuverleiben und die Camargue schließlich ganz unter sich zu begraben.
Flusspegel sinken
„Die Camargue ist wie alle Deltas wirklich an der Frontlinie des Klimawandels“, sagt Jean Jalbert, Leiter des Forschungszentrums Tour du Valat in der Camargue …

Wie grottenfalsch alleine die Aussage ist: Dass „alle Deltas wirklich an der Frontlinie des Klimawandels“ seien, hat der Autor in vielen Detailanalysen zu solchen Flußdeltas schon gezeigt [6] [7] [8] [9]. Immer waren es meist selbst verursachte Landsenkungen oder/und teils einfach Küstenlinienverlagerungen durch starke Strömungen. Aber nirgendwo ein unnatürlich ansteigender Meerespegel.

Sogar das Mittelmeer wurde schon nachgesehen. Und auch diese Sichtung „entlastete“ dessen Meerespegelanstieg, belastete allerdings das Institut, welches das Gegenteil darüber berichtete:
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 07.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)

Daten von dieser „Frontlinie des Klimawandels“

Meerespegel

Aber können sich Klimaforscher immer irren? Leider ja, weil sie es zur Finanzierung ihrer Institute und von sich selbst „müssen“ (rein persönliche Überzeugung des Autors). Zumindest zeigt sich, dass es mit der Camargue nicht wirklich anders ist.

Nachdem der steigende Meerespegel bei der Camargue die Hauptursache für die Probleme sein soll, anbei aktuelle Darstellungen dazu.

Bild 2 Pegelbild von Toulon

Bild 3 Pegelbild von Marseille

Bild 4 Pegelbild von Marseille

Bild 5 Pegelbild von St. Jean de Luz

Überdeutlich zeigen diese Pegelverläufe, dass das Meer dort unbeirrt so steigt, wie seit Beginn der Pegelmessungen und eine Beschleunigung nicht zu erkennen ist. Gängig wird dieses Verhalten als natürlicher Pegelanstieg beschrieben, eine zum Glück schon drastisch reduzierte „Nachwehe“ der letzten Eiszeit.

Versalzung durch Eindeichung

Wenn es demnach nicht der angeblich aufgrund unserer Emissionen stark ansteigende Meerespegel ist, was kann es dann sein? Wer die vorher gelisteten Publizierungen zu den Küsten gelesen hat, ahnt es: Veränderungen durch die Menschen vor Ort. Und darüber findet googl auch spontan viel Literatur:
Montcalm (weinhalle.de)
Domaine de Montcalm
Die südfranzösische Camargue ist eine Moor- und Natur-Landschaft besonderen Reizes. Sie liegt auf den Schwemmsandböden des Rhône-Deltas auf 1 bis 2 m über Meereshöhe und besteht aus zwei grundverschiedenen Teilen
Die Grande Camargue wird von den beiden Rhône-Armen begrenzt. Diese sind vollständig eingedeicht, so daß es dort nicht mehr zu den früher üblichen Überschwemmungen kommt, wodurch die Böden dort so versalzt sind, daß im Norden noch Reisanbau stattfindet, im Süden aber ist Landwirtschaft nicht mehr möglich.
Ganz anders die westlich des Deltas liegende fruchtbare Petite Camargue. Sie ist das Zentrum des Weinbaus der Camargue. Dort stehen die Reben, übrigens oft noch wurzelecht, auf purem Schwemmsand. Als die Reblaus im späten neunzehnten Jahrhundert den Weinbau in ganz Europa zerstört, sind die Weine der Camargue plötzlich gefragt wie nie, denn die Reblaus verschont Sandböden, hier gibt es Wein. 

13.08.2016 Wie das Land, so der Mensch – arte | programm.ARD.de
Wie das Land, so der Mensch Frankreich – Die Camargue | arte
In der Region Camargue stoßen seit Jahrtausenden die Süßwasserfluten der Rhône auf die salzigen Gezeitenströme des Mittelmeers. Durch dieses Naturphänomen kam es zu einer Versalzung des Schwemmlandes, wodurch es für die Landwirtschaft unbrauchbar und so gut wie unbewohnbar wurde. Mit seinen 150.000 Hektar ist das Feuchtgebiet der Camargue nach dem Donaudelta das zweitgrößte Flussdelta Europas. Es erweckt den Eindruck eines naturbelassenen, wilden Lebensraums, doch seit dem 19. Jahrhundert wird der Wasserzufluss im Rhône-Delta durch ein Geflecht von Deichen und Kanälen reguliert.

Riz de Camargue safrané aux crevettes – Sophie Bonnet (sophie-bonnet.de)
Erst im Jahr 1860, als die Böden nach dem Bau eines Schutzdeiches gegen die Überflutungen der Rhône zu versalzen drohten, beschloss man, diesem Problem mit dem Anbau ausgedehnter Reisfelder und deren intensiven Bewässerung zu begegnen.

Bonner-Zoologische-Beitraege_8_0005-0055.pdf (zobodat.at)
Ökologisch-Faunistische Studien im Rhone-Delta, unter besonderer Berücksichtigung der Mollusken Von HERBERT ENGEL, München
Die Mündungsinsel bat anscheinend noch seit der griechisch-römischen Zeit ihr Niveau verändert. Es gibt zahlreiche archäologische Spuren landwirtschaftlicher Nutzung und Besiedelung von heutzutage unter Wasser liegenden Böden. Mithin scheint eine nachträgliche Senkung der rezenten Alluvionen eingetreten zu sein.
Das Verschwinden aller Stromarme bis auf die beiden an der Peripherie der Mündungsinsel, und damit das Verschwinden rasch fließenden Süß- wassers in der Camargue selbst, hatte eine fortschreitende Versalzung zur Folge. Das Niveau des Terrains und die Konsistenz der Böden spielen dabei eine erhebliche Rolle. Höher gelegene und sandige Böden werden durch das Regenwasser viel schneller ausgewaschen und entsalzen. Die künstliche Eindeichung der Camiargue gegen die Rhönearme und die südlichsten Strandlagunen hatte — wie derartige gewaltsame Eingriffe nur zu oft — zum „Krankwerden“ natürlicher Landschaft beigetragen. Denn es ist in der Folge nicht gelungen, die periodischen Salz- u. SüßwasserEinbrüche vom Meer und Strom her durch künstliche Bewässerung regulierend zu ersetzen. Letztlich resultiert die übergroße Versalzung des Deltas auch mit von diesen verfehlten Maßnahmen her (vgl. Hoffmann, 1953).

Alleine diese Fundstellen reichen aus, um die wirklichen Probleme zu zeigen. Dass die Trockenheit der letzten Jahre dazu noch zusätzlich etwas beiträgt, mag stimmen, ist aber niemals die berichtete Ursache.

Die Rettung war leider nicht ausreichend subventioniert

Nun steht in diesen Berichten, dass der Reisanbau wegen der notwendigen Bewässerung die „Rettung“ vor dem Versalzen war. Wenn man nun folgendes liest:
Reisanbau in der Camargue – frwiki.wiki
Reisanbau in der Camargue
In 1958 erstreckten sich die Reisfelder über 30.000 Hektar, produziert 141.000 Tonnen Reis.
Im Jahr 2008 wurde in der Camargue auf 16.640 Hektar Reis mit einer Produktion von 98.176 Tonnen Rohreis angebaut
Nach einem Rückgang der Subventionen aus der
gemeinsamen Agrarpolitik ging der Reisanbau in der Camargue 2014 auf 12.000 Hektar zurück und war mit dem allmählichen Verschwinden der von Brüssel gewünschten Finanzhilfe zum Verschwinden verurteilt ….

Ahnt man sofort, warum die Camargue „untergeht“.
Und man weiß, von „Klimawandel-Fachpersonen“ wieder belogen tendenziös informiert zu werden. Zum i-Tüpfelchen an Desinformation hätte nur noch gefehlt, dass eine „Fachperson“ zur Lösung noch viel mehr Emissionsminderung fordert.

Dieses Fehlende lässt sich allerdings in Deutschland finden

Katrin Göring Eckhart wollte kürzlich ihre Dummheit ganz besondere Sachkunde zu Klimafolgen und Ursachen unbedingt wieder in die Welt hinausposaunen (man hat den Eindruck, Twitter musste erfunden werden, damit der Bürger die Dummheit seiner „Intelligenz“ endlich täglich neu erfahren kann). Dazu postete sie:

Bild 6 Tweet zur Deutschen Wüste in Brandenburg

Wo sich ausreichend Klimahysterie findet, findet sich öfters jemand vom PIK zur Unterstützung. Schließlich gäbe es dieses Institut für Klimaalarm-Simulation ohne immer schlimmer werdenden Klimawandel nicht:

Bild 7 Tweet

Nur ist diese Wüste überhaupt kein Produkt von zu viel CO₂, sondern alleine vom Menschen verursacht. Und – Ironie der Geschichte – von einer Stiftung für Naturschutz wird verhindert, dass diese verschwindet:
Wüsten-Panik: Grüne möchte Klimawandel mit Bild von Truppenübungsplatz „beweisen“ (tichyseinblick.de)
Die beschriebene Wüste gibt es seit 1942 in Brandenburg entstanden ist sie durch einen Waldbrand. Danach übten die Wehrmacht und später die Rote Armee auf dem 5 Quadratkilometer großem Gelände, wo keine Bäume bei Schießübungen im Weg standen. Die Wüstenbildung hat also recht wenig mit dem Klimawandel zu tun, auch wenn Göring-Eckhardt das so suggeriert. Sie hätte eigentlich nur den verlinkten Artikel lesen müssen, hätte…
Die Berliner Zeitung:
“Seither gilt die Lieberoser Wüste als einzige Wüste Deutschlands. Und sie blieb über Jahrzehnte so kahl, weil nach der SS die Rote Armee dort den Krieg übte. Seit ein paar Jahren betreibt eine Stiftung nun Naturschutz vor Ort und will verhindern, dass sich das Gebiet wieder bewaldet und die schöne und seltene Wüste wieder verschwindet.” 

Warum es Personen gibt – und niemand von der „Intelligenz“ dagegen opponiert – die erst aufhören wollen, wenn Deutschland wie im folgenden Bild aussieht, bleibt dem Autor weiterhin ein Rätsel.

Bild 8 Energie-Erntelandschaft. Das Vorbild für ganz Deutschland. Screenshot. Quelle: 02. Juni 2023 Land und Forst. Die Stimme der Landwirtschaft. Seit Generationen

Vielleicht dient die Idee des Vereins, die einzige Deutsche Wüste zu schützen, dazu, diesen Flecken künftigen Generationen einmal als Begründung der vielen Wenden vorzeigen zu können. Denn sie werden irgendwann ja nach der Ursache dieses Irrsinns fragen.
Man muss dann ja nicht dazu beichten, damals auf ein kleines Fleckchen in der Streusandbüchse des Heiligen- Römischen Reiches – wie man die Gegend früher bezeichnete – hereingefallen zu sein, nur weil das Bildungsniveau der „Eliten“ damals zur Zeit einer „Ampel“ einen absoluten, historischen Tiefpunkt erreicht hatte.
Hoffen wir, dass das diese „Zukunftsvorhersage“ mit dem Tiefpunkt stimmt und er nicht noch weiter fällt.

Quellen

[1] Kachelmann über Waldbrände: „Schwachsinn der angeblichen Selbstentzündung“ (msn.com)

[2] Löst die Hitzewelle Waldbrände aus? | tagesschau.de

[3] Petersberger Klimadialog 2023 (unbonn.org)

[4] Südfrankreich: Klimawandel bedroht die Camargue (merkur.de)

[5] Von Melonen und Millionen – KlimaNachrichten

[6] EIKE, 27.05.2022: Wieder schlägt der Klimawandel unbarmherzig zu: Nun versinkt auch Lagos (Nigeria) im Atlantik

[7] EIKE, Apr 29, 2022: Seit der Klimawandel an jedem Übel schuld ist, kann man sich jede andere Erklärung sparen

[8] EIKE 22.11.2021: Klimakrise: Weltkulturerbestadt Saint-Louis (Senegal) versinkt im Meer. Nur ist der Meeresspiegel dort gar nicht gestiegen.

[9] EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…

 




Anomale ozeanische Anomalien

Willis Eschenbach

Nach drei ungewöhnlichen La Nina-Jahren mit niedrigeren Meerestemperaturen in Folge sind die Alarmisten in heller Aufregung über dieselben, da wir uns El Nino Bedingungen nähern. Wir hören Behauptungen wie diese:

Die Weltmeere sind im Moment so heiß, dass Wissenschaftler auf der ganzen Welt um eine Erklärung für dieses Phänomen ringen. Die Meerestemperaturen im Juni liegen so weit über den Rekordwerten, dass es in einem Klima ohne globale Erwärmung statistisch gesehen fast unmöglich ist.

Diese überzogenen Behauptungen werden in der Regel von Grafiken wie dieser begleitet:

Abbildung 1. Der Titel sagt alles.

YIKES! Das Thermageddon steht vor der Tür! Habt große Angst!! …

Also… was kann man daran nicht mögen? Nun, zunächst einmal haben sie die in der Nähe der Pole liegenden kälteren Gebiete des Ozeans ausgelassen. Das ist Rosinenpickerei, um eine Erwärmung zu übertreiben. Aber das ist nur der Anfang.

Diejenigen, die meine Arbeit lesen wissen, dass ich den Zahlen im Allgemeinen nicht traue, bevor ich sie selbst überprüft habe. Also habe ich mir ihre Datenquelle angesehen. Die von ihnen verwendeten Daten sind die NOAA Optimum Interpolation Sea Surface Temperature (OISST) Daten. Von der OISST-Website:

„Die NOAA 1/4° tägliche optimale Interpolation der Meerestemperatur (OISST) ist ein langfristiger Klimadatensatz, der Beobachtungen von verschiedenen Plattformen (Satelliten, Schiffen, Bojen und Argo-Bojen) in ein regelmäßiges globales Gitter einbezieht. Der Datensatz wird interpoliert, um Lücken im Gitter zu füllen und eine räumlich vollständige Karte der Meerestemperatur zu erstellen. Satelliten- und Schiffsbeobachtungen werden auf Bojen bezogen, um Plattformunterschiede und Sensorverzerrungen auszugleichen“.

Das Herunterladen der Daten hat eine Weile gedauert. Es handelt sich um 15.259 Dateien, eine für jeden Tag, jede 1,7 Megabyte, insgesamt etwa 26 Gigabyte… ein großer Spaß.

Nachdem ich alles heruntergeladen hatte, habe ich die täglichen Werte grafisch aufbereitet. Aber nicht die oben gezeigten Anomaliewerte. Ich habe die tatsächlichen Tageswerte der Meerestemperatur (SST) des gesamten Ozeans grafisch dargestellt, um zu sehen, wie sich die SST tatsächlich verhält:

Abbildung 2. OISST-Meerestemperaturen (SST) für den globalen Ozean.

In Abbildung 2 sind einige Dinge erwähnenswert:

● Man erkennt die Spitzen der vorangegangenen El Ninos 1998-99, 2010-11, 2016-17 und des sich derzeit entwickelnden El Nino.

● Wie bei natürlichen Datensätzen üblich, ändert sich das Bild in Schüben: eine Zeit lang wird es wärmer, dann kühlt es ab, dann wird es etwas wärmer, dann kühlt es wieder ab …

● Sie können die jüngsten kühlen La-Nina-Jahre kurz vor dem Höchststand von 2023 sehen

● Der Temperaturhöchststand wurde am 2. April 2023 erreicht, und die Temperatur ist seither um etwa ein Viertel Grad gesunken.

Und schließlich, liegt dies „weit über dem Rekordniveau“, wie die Leute behaupten?
Nun … mit einem Wort: nein. Die Temperatur vom 2. April ist 0,04 °C höher als der bisherige Rekord aus dem Jahr 2016.

Vier Hundertstel eines Grades

(Und wenn wir nur den ausgewählten Ozean von 60°N bis 60° Süd betrachten [nicht gezeigt], sind es satte 0,06°C …)

Zum Vergleich: Jeder, der schon einmal einen Berg bestiegen hat weiß, dass es mit zunehmender Höhe kühler wird. Diese Abkühlung wird als „adiabatisches Temperaturgefälle“ bezeichnet. Im Allgemeinen kühlt [sich trockene] Luft pro 100 Höhenmeter um etwa 1 °C ab.

In menschlichen Maßstäben sind 0,04 °C etwa so viel Erwärmung, wie wenn man in einem Gebäude vom zweiten in den ersten Stock geht … mit anderen Worten, ohne ein sehr teures Thermometer ist dies nicht einmal feststellbar.

Es stellt sich natürlich die Frage: Warum gibt es einen solchen Unterschied zwischen den Abbildungen 1 und 2?

Der Grund ist einfach. Die Erwärmung im Jahr 2023 findet früher im Jahr statt. Die Temperatur ist nicht ungewöhnlich hoch. Es ist ungewöhnlich früh, was nicht überraschend ist, da wir gerade einige Jahre mit La Nina (niedrigen) Temperaturen hinter uns haben.

Und das ist der Grund, warum die Verwendung von Anomalien anstelle von tatsächlichen Werten zwar in einigen Situationen nützlich ist, in anderen Situationen aber in die Irre führen kann.
Weiter geht es mit der Hyperventilation im Nordatlantik. Hier sind die SST-Anomalien für diesen Teil des Ozeans:

Abbildung 3. Wie in Abbildung 1, aber nur für den Nordatlantik.

Auch hier sieht es nach einem drohenden Thermageddon aus … aber hier sind die tatsächlichen Temperaturen des Nordatlantiks:

Abbildung 4. OISST-Meerestemperaturen (SST) für den Nordatlantik.

Im Gegensatz zum globalen Ozean gibt es hier, da es sich nur um die nördliche Hemisphäre handelt, ein starkes jährliches Signal.

Und auch bei den Höchsttemperaturen gibt es nichts Außergewöhnliches. Tatsächlich sind die Höchsttemperaturen im Nordatlantik seit 2010 ziemlich konstant geblieben. Das Einzige, was passiert ist, dass sich der Nordatlantik, wie auch der globale Ozean, in diesem Jahr früher erwärmt als üblich.

TL;DR-Version?

Das Thermageddon-Festival 2023 wird abgesagt, und die Eintrittskarten werden nicht zurückerstattet.

Link: https://wattsupwiththat.com/2023/06/14/anomalous-anomalies/

Übersetzt von Christian Freuer für das EIKE