Es ist an der Zeit, die 50-jährige Sicherheitsbilanz der Marine bei der Stromerzeugung aus Kernenergie nachzuvollziehen

Ronald Stein und Oliver Hemmers.

Die Versorgung der Kunden mit bezahlbarem, reichlich vorhandenem, zuverlässigem, sauberem und emissionsfreiem Strom ist für die moderne Lebensqualität sehr wichtig. Das Erreichen dieses Ziels wird durch ein anfälliges Netz und die Unbeständigkeit der Stromerzeugung aus Wind und Sonne gefährdet. Um die kommende Krise in der Stromversorgung für die Anforderungen von Rechenzentren und KI zu bewältigen, ist es an der Zeit, Gespräche über die Stromerzeugung anzuregen, die den Bedürfnissen der Endverbraucher gerecht werden.

Die für die Marine entwickelten Kernkraftwerke haben fünf Jahrzehnte lang gut funktioniert. Alle seit 1975 in Dienst gestellte U-Boote und Superträger der US-Marine werden mit Kernkraft betrieben. Andere Militärdienste steigen jetzt ein. Wenn ein derartig zuverlässiges und widerstandsfähiges System für die Erzeugung von emissionsfreiem Strom, der kontinuierlich und unterbrechungsfrei ist, auf den kommerziellen Strommarkt ausgedehnt werden kann, würde es einer Vielzahl von Anbietern ermöglichen, um das Geschäft der Endverbraucher zu konkurrieren, was zu erheblich niedrigeren Strompreisen führen würde.

Heute sind rund 440 konventionelle Kernkraftwerke in 32 Ländern und Taiwan in Betrieb und 62 neue Reaktoren im Bau. Am 1. August 2023 gab es in den Vereinigten Staaten 54 Kernkraftwerke mit 93 in Betrieb befindlichen kommerziellen Kernreaktoren in 28 Bundesstaaten. Diese Anlagen erzeugen etwa 20 % der Elektrizität des Landes. Die Kernenergie hat den Wettbewerbsvorteil, dass sie die einzige Grundlaststromquelle ist, die den gewünschten Ausbau einer sauberen, emissionsfreien, kontinuierlichen und unterbrechungsfreien Stromversorgung der Endverbraucher ermöglichen kann.

– Im Mai 2024 waren weltweit 214 Kernreaktoren dauerhaft abgeschaltet. Die meisten Abschaltungen verzeichneten die Vereinigten Staaten mit 41 Blöcken. In jüngster Zeit wurden seit 2012 zwölf US-Kernreaktoren endgültig stillgelegt, und auch in Kalifornien und kürzlich in New York wurden Kernkraftwerke abgeschaltet, die durchaus lebensfähig und rentabel waren.

– Die Abschaltung von weitere sieben US-Reaktoren wurden bis 2025 angekündigt, mit einer Gesamterzeugungskapazität von 7.109 MW (das entspricht etwa 7 % der US-Kernenergieerzeugung).

– Die angekündigten Stilllegungen haben jedoch nicht immer wie geplant stattgefunden: 16 Reaktoren, deren endgültige Stilllegung angekündigt war, wurden aufgrund staatlicher Maßnahmen, die ihnen zusätzliche Einnahmequellen verschaffen, weiter betrieben. Diese 16 Reaktoren in 6 Bundesstaaten verfügen über eine Stromerzeugungskapazität von 15.734 MW (16 % der gesamten US-Kernenergieerzeugung). Viele andere US-Reaktoren wurden in jüngsten Studien als „gefährdet“ eingestuft, aus wirtschaftlichen Gründen stillgelegt zu werden, obwohl ihre Schließung nicht angekündigt wurde.

Reaktoren der nächsten Generation sind der Kleine Modulare Reaktor (SMR) und der Schnelle Brutreaktor (FBR). Bei den SMR handelt es sich um neue Reaktortypen, die leicht verbrauchte Kernbrennstoffe (SUNF) produzieren, diese aber NICHT recyceln. Der Einsatz von SMR-Reaktoren ist zwar für verschiedene Anwendungen von Vorteil und wird Teil des künftigen Strommixes sein, doch unterscheiden sich diese Reaktortypen deutlich von den Schnellen Brütern (FBR), die mit Hilfe schneller Neutronen mehr Kernbrennstoffe erzeugen, als sie bei der Stromerzeugung verbrauchen, wodurch die Effizienz der Energieressourcen drastisch erhöht wird.

Die Kommerzialisierung der Kernenergie zur Erzeugung von emissionsfreiem, kontinuierlichem und unterbrechungsfreiem Strom scheint praktikabler zu sein als je zuvor.

Die Einführung von intermittierendem Strom hat das System der „bedarfsgesteuerten“ Versorgung insofern gestört, als die Sonnen- und Windverhältnisse die Versorgungsunternehmen zwingen, eine gleichmäßigere „Grundlast“-Stromerzeugung an diese Verhältnisse anzupassen. Dies hat die Gefahr von Stromausfällen und Spannungsabfällen bei ungünstigen Wetterbedingungen erhöht. Der Grund für diese Veränderungen ist der Wunsch, die Stromerzeugung auf „sauberen Strom“ umzustellen.

Kohle und Erdgas können Grundlaststrom liefern, der kontinuierlich und unterbrechungsfrei ist und an den Bedarf angepasst werden kann. Sie gelten jedoch als „schmutziger Strom“. Da Grundlaststrom für eine konstante Stromversorgung unverzichtbar ist, werden zusätzliche Grundlaststromquellen wahrscheinlich Kernkraftwerke sein, da sie keinen „schmutzigen Strom“ erzeugen.

Eine konstante und stabile Stromversorgung ist nicht nur eine Frage der Lebensqualität, sondern auch eine Frage der nationalen Sicherheit. Die Menschen und die Wirtschaft sind inzwischen so sehr von Strom abhängig, dass sie im Falle eines Stromausfalls keine alternativen Methoden mehr haben, um Wärme, Licht, Lebensmittelkonservierung und Klimaanlagen zu ersetzen. Die Menschen müssen also zu 100 % mit wirtschaftlicher Elektrizität versorgt werden, sonst kommt es zu schwerwiegenden Störungen in ihrem Leben und in der Wirtschaft, die in bestimmten medizinischen Situationen sogar zum Tod führen können.

Das größte Hindernis auf dem Weg zu diesem Ziel scheinen die Mainstream-Medien und der Klima-NGO-Industrie-Umwelt-Komplex zu sein, die gegen die Kernenergie sind, da sie die Subventionen der Steuerzahler für erneuerbare Energien und die politische Haltung, die Kernenergie in den Vereinigten Staaten vom Markt zu nehmen, massiv erhöhen. Sie fördern auch eine massive unnötige staatliche Regulierung, die den Preis für Atomstrom in die Höhe treibt.

Die Kernkraftindustrie hat die beste industrielle Sicherheitsbilanz unter allen Stromerzeugungsindustrien. Die am meisten Aufmerksamkeit erfordernde Sorge ist also die um die abgebrannten Kernbrennstoffe, die gemeinhin als „Atommüll“ bezeichnet werden. Die Lösung liegt also in der Aufklärung von Staatsoberhäuptern, Mainstream-Medien und politischen Entscheidungsträgern, indem das Konzept des Recyclings auf die nicht verbrauchte Energie in verbrauchten Kernbrennstoffen ausgedehnt wird, ein Verfahren, das die Menschen davon überzeugen kann, dass das Problem des „nuklearen Abfalls“ in den Griff zu bekommen ist, dass die Stromkosten wettbewerbsfähig sind und dass die Erzeugung von Kernkraftstrom sicher ist.

[Hervorhebungen vom Übersetzer]

Das Recycling von schwach verbrauchtem Kernbrennstoff (SUNF) in einem Schnellen Brutreaktor (FBR) bietet alle diese Abhilfemaßnahmen auf eine Weise, die wettbewerbsfähig und öffentlich akzeptabel ist.

[Hervorhebung im Original]

Die Wiederverwertung gebrauchter Kernbrennstoffe in Schnellen Brutreaktoren hat viele Vorteile:

1. Sie bietet eine Lösung für die Entsorgung des Lagerbestands an schwach verbrauchtem Kernbrennstoff (Slightly Used Nuclear Fuel; SUNF)

2. Die derzeitigen Bestände an SUNF bieten einen im Wesentlichen unbegrenzten Vorrat an einheimischem Brennstoff.

3. Das Brennstoffmaterial ist bereits abgebaut, so dass die erzeugte Energie nahezu 100 % sauber ist und weitere Umweltbelastungen durch den Abbau nicht erforderlich sind.

4. Die Öffentlichkeit wäre der Kernenergie gegenüber aufgeschlossener, da „Abfall“ als „Brennstoff“ verwendet wird, wodurch die Rückhaltung nicht verbrauchter Brennstoffe reduziert und die wahrgenommenen Risiken verringert werden.

5. Die Konstruktion ist „inhärent sicher“. Das bedeutet, dass der Reaktor so ausgelegt ist, dass er sich bei einem Unfall ohne menschliches Zutun ausreichend abkühlt.

6. Der derzeitige Vorrat an SUNF hat einen Wert von 10 Billionen Dollar, wenn die von ihm erzeugte elektrische Energie zu 1 Cent pro kWh verkauft wird.

7. Die Prozesswärme kann für industrielle Zwecke wie die Wasserstoff- und Süßwasserproduktion sowie die Herstellung synthetischer Kraftstoffe genutzt werden.

Anstatt auf „erneuerbare“ Energien wie Wind und Sonne zu setzen, die riesige Flächen beanspruchen, vom Steuerzahler subventioniert werden und selbst dann nur gelegentlich Strom erzeugen, ist es an der Zeit, unsere technologischen Ressourcen auf die Kernenergie zu konzentrieren, die unter allen Unternehmen die beste Sicherheitsbilanz aufweist und nachweislich den billigsten, nicht subventionierten Strom erzeugt.

[Hervorhebung vom Übersetzer]

Der Schwerpunkt liegt auf der Kommerzialisierung emissionsfreier, kontinuierlicher und unterbrechungsfreier Elektrizität zur Deckung des exponentiell wachsenden Strombedarfs von Rechenzentren, KI, Flughäfen, Krankenhäusern, Telemetrie und dem Militär. Eine gute Grundlage für Definitionen und Unternehmen, die sich mit kleinen modularen Reaktoren (SMR) und schnellen Brutreaktoren (FBR) beschäftigen, befindet sich hier.

Eine kurze Einführung in den Markt der Stromerzeugung gibt es auch in diesem einstündige Video mit Chris Powers und Robert Bryce von Power Hungry an, in dem sie über Energie, Politik, Kernkraft und fossile Brennstoffe sprechen.

Die stärkste Zunahme des Stromverbrauchs kommt von den neuen Rechenzentren, die KI-Technologien beherbergen. Es wird erwartet, dass in den nächsten Jahrzehnten 50 % des zusätzlichen Stroms allein für KI benötigt werden, aber Rechenzentren können NICHT mit gelegentlichem Strom aus Wind und Sonne betrieben werden. Es ist an der Zeit, Gespräche über die Stromerzeugung anzuregen, um die Anforderungen der Endverbraucher zu erfüllen.

This article first appeared at AmericaOutLoud.news and has been republished here with permission.

Link: https://cornwallalliance.org/its-time-to-follow-the-navys-50-year-safety-record-of-nuclear-power-generation/

Übersetzt von Christian Freuer für das EIKE

 




Unterdrückung von wahrer Wissenschaft und unbequemen Wahrheiten

Andy May

Dies ist der Text eines Vortrags, den ich am 26. September 2024 auf einer Tagung des American Institute for Economic Research Bastiat Society of Houston gehalten habe.

Der Bericht AR6 des IPCC und der sogenannte „Klimakonsens“ verbergen und unterdrücken viele unbequeme Wahrheiten, die ihrer Hypothese widersprechen, wonach der vom Menschen verursachte Klimawandel gefährlich ist. Ich werde in diesem Beitrag einige Beispiele auflisten und erörtern, weitere sind in unserem kürzlich erschienenen Buch The Frozen Climate Views of the IPCC: Eine Analyse des AR6.

Doch zunächst einige persönliche Beispiele für die Unterdrückung von Konzepten, die nicht dem Konsens entsprechen.

Zwei Studien aus politischen Gründen abgelehnt

Abbildung 1. Zwei meiner eingeladenen Arbeiten, welche die Überprüfung bestanden haben und später von höheren Stellen abgelehnt worden sind.

Beide in Abbildung 1 gezeigten Studien wurden eingereicht, beide haben den Peer-Review und/oder die redaktionelle Prüfung bestanden, wurden aber schließlich von höheren Stellen in den jeweiligen Organisationen abgelehnt, und zwar kurz vor dem geplanten Veröffentlichungstermin und ohne Angabe von Gründen. Ich nahm dies als klares Zeichen dafür, dass beide Ablehnungen rein politisch motiviert waren. Schließlich hätten alle technischen Gründe für die Ablehnung während des Begutachtungsprozesses vorgebracht werden müssen.

Die PETM-Studie wurde von der Rocky Mountain Association of Geologists (RMAG) eingereicht. Sie beabsichtigte, den Artikel in ihrer Online-Publikation „The Outcrop“ zu veröffentlichen. Artikel für „The Outcrop“ werden von den Mitarbeitern und Redakteuren geprüft, jedoch nicht auf formale Art und Weise, wie dies bei Artikeln in wissenschaftlichen Zeitschriften der Fall ist.

Die Ablehnung der Studie erfolgte nicht aus fachlichen, sondern aus eklatanten politischen Gründen und nach monatelanger Arbeit des Herausgebers, eines anderen RMAG-Mitarbeiters und von mir. Die Ablehnung war eine Vorstandsentscheidung, die in letzter Minute und ohne Erklärung oder Rechtfertigung getroffen wurde, außer dem Hinweis, dass ich kein „ausgebildeter Klimatologe“ und ein „Blogger“ bin. Es war also ziemlich klar, dass die Studie nicht wegen irgendwelcher Probleme abgelehnt wurde, sondern wegen meiner Person.

Als ich mich beschwerte, schickte der Vorstand die Studie an einen weiteren Gutachter, nachdem die Studie bereits geprüft und angenommen worden war. Dem zusätzlichen Gutachter wurde ein früher Entwurf und nicht die endgültige Fassung zugesandt. In einer Telefonkonferenz wies er auf mehrere Fehler hin, von denen ich wusste, dass sie in der endgültigen Fassung nicht enthalten waren, was zu großer Verwirrung führte, bis ich erkannte, dass er die falsche Version der Studie in Händen hielt.

Der Ausschuss hat also entweder die endgültige Fassung nicht gesehen, als er die Entscheidung des Herausgebers und der Gutachter aufhob, oder er hat seinem zusätzlichen Gutachter absichtlich oder versehentlich die falsche Fassung geschickt. Ich habe dies alles erklärt, aber der Antrag wurde trotzdem abgelehnt, ohne dass ich ihn noch einmal überdacht oder auch nur einen Blick auf den endgültigen Entwurf geworfen hätte. Es handelte sich also eindeutig um eine politische Entscheidung, die auf den Schlussfolgerungen der Studie beruhte, der Tatsache, dass ich kein ausgebildeter Klimatologe bin, und der Tatsache, dass ich ein Blogger bin,. Die Studie erscheint nun in meinem Blog und ist einer meiner beliebtesten Beiträge.

Die zweite eingeladene, aber letztendlich abgelehnte Studie wurde für die Creative Society auf deren Wunsch hin geschrieben. Sie wollten, dass ich eine Studie über Klimaverschiebungen schreibe, wie sie etwa 1925, 1947, 1976 und 1997 stattgefunden haben. Sie baten mich, es in einem Online-Interview am 10. Oktober 2022 vorzustellen. Das Interview wurde aufgezeichnet, und als ich nachfragte, wann es online gestellt werden würde, hieß es, man werde sich bei mir melden. Das geschah nie, also habe ich die Studie in meinem Blog veröffentlicht. Mir wurde nie ein Grund genannt, warum es von der Creative Society nicht online gestellt wurde.

Die Diskussion über die Klimaverschiebungen war interessant, da sie mit den periodischen Veränderungen im Erdmantel zusammenhängen könnten.

Eine Studie, die einen Redakteur zum Rücktritt veranlasste

Abbildung 2. Eine sehr fundierte Studie von Roy Spencer und William Braswell, die den Herausgeber, der sie veröffentlichte, zum Rücktritt veranlasste.

Wolfgang Wagner, der damalige Chefredakteur der Zeitschrift Remote Sensing, trat 2011 wegen einer völlig plausiblen, aber gegen den „Konsens“ gerichteten Studie von Roy Spencer und William Braswell zurück. Spencer und Braswell präsentierten solide Beobachtungen und Fakten, während ihre Kritiker nur Modellergebnisse vorlegten.

Die Debatte zwischen den beiden Seiten ist komplex und dreht sich hauptsächlich um das Vorzeichen und das Ausmaß der Rückkopplungen auf die Erwärmung durch Treibhausgase (hauptsächlich CO₂). So sollte Wissenschaft eigentlich funktionieren. Wenn ein Redakteur von oben herab verkündet, dass eine gut belegte Meinung falsch und die andere richtig ist, ohne dass eine angemessene Diskussion und Debatte stattfindet, ist das Politik und keine Wissenschaft.

Zwei Studien, die zur Entlassung der Redakteure führten

Abbildung 3. Zwei von Prof. Richard Lindzens Studien, die dazu führten, dass die Redakteure gefeuert wurden, welche sie akzeptiert hatten. Die Studie auf der rechten Seite ist Lindzens bahnbrechende erste Studie über den Iris-Effekt.

Willie Soon und Dick Lindzen berichten, dass zwei Redakteure entlassen wurden, weil sie zwei von Lindzens Studien veröffentlicht hatten. In der ersten, 1990 veröffentlichten Studie werden Lindzens Einwände gegen die Vorstellung dargelegt, dass ein vom Menschen verursachter verstärkter Treibhauseffekt die Hauptursache für die derzeitige Erwärmung sein könnte; die Studie ist durchaus begründet und sicherlich kein Grund, jemanden zu entlassen. In der Studie wird davor gewarnt, dass noch mehr endgültige Beweise für die potenziellen Gefahren der vom Menschen verursachten globalen Erwärmung gefunden werden müssen, bevor drastische Maßnahmen wie der Verzicht auf fossile Brennstoffe ergriffen werden. Er erinnert uns daran, dass die Ergebnisse von Klimamodellen keine Beweise sind, sondern nur Vermutungen. Lindzens Studie ist auch heute noch gültig, da auch 34 Jahre später noch keine endgültigen Beweise und Beispiele für die Gefahren des vom Menschen verursachten Klimawandels gefunden worden sind. Dies wird in Tabelle 12.12 des AR6 WGI auf Seite 1856 gut veranschaulicht, die ein wenig später in diesem Beitrag gezeigt wird.

Die zweite ist Lindzens bahnbrechende erste Studie über den Iris-Effekt auf der rechten Seite von Abbildung 3. Heute, mehr als 23 Jahre später, ist der Iris-Effekt weithin anerkannt, und wenn er in Klimamodelle einbezogen wird, bringt er die Modellergebnisse näher an die Beobachtungen heran. Sicherlich ist die Annahme einer solch grundlegenden Studie kein Grund, jemanden zu entlassen.

Man muss bedenken, dass Albert Einsteins erste Doktorarbeit abgelehnt wurde. Jahre später reichte er eine Reihe von Studien bei Max Planck in der Zeitschrift Annalen der Physik ein, von denen eine als Dissertation angenommen wurde und er schließlich seinen Doktortitel erhielt. Planck veröffentlichte Einsteins neue Dissertation und mehrere andere Studien ohne formale Begutachtung durch Fachkollegen, und Einsteins Ruf wurde begründet. Max Planck sagte, es sei wichtig, riskante Studien zu veröffentlichen, aber es sei viel schlimmer, eine möglicherweise bahnbrechende Arbeit abzulehnen. Das Peer-Review-Verfahren kann wirklich innovative Arbeiten unterdrücken, und das geschieht auch häufig. Manchmal werden Studien einfach deshalb abgelehnt, weil sie neu sind und der „Konsens“-Meinung widersprechen.

Heute wird der Iris-Effekt in den IPCC-Berichten ausführlich erörtert, wenn auch oft ohne Erwähnung von Lindzens Namen, und eine Suche über Google Scholar zeigt sieben veröffentlichte Studien seit der Veröffentlichung der ursprünglichen Studie im Jahr 2001. Fünf davon wurden nach 2015 veröffentlicht, die jüngste im Jahr 2022. Über diese wichtige Entdeckung wurde in einer Zeitschrift berichtet, deren Herausgeber wegen der Veröffentlichung gefeuert wurde, und jetzt ist die Entdeckung anerkannte Wissenschaft. Ich konnte keine Beweise dafür finden, dass die Professoren entlassen wurden, welche Einsteins These ablehnten.

Die Zurückziehung der Studie von Alimonti

Abbildung 4. Eine ausgezeichnete Studie, die von Kapitel 12 des AR6 unterstützt wird, wurde von SpringerNature ohne Angabe von Gründen zurückgezogen, außer dass „Bedenken geäußert wurden…“.

Was Roger Pielke Jr. als das ungeheuerlichste Versagen moderner wissenschaftlicher Veröffentlichungen bezeichnet, ist die Tatsache, dass diese hervorragende Studie von Gianluca Alimonti und seinen Kollegen auf Druck des „Konsens’“ und der Mainstream-Medien zurückgezogen wurde. Pielke Jr. glaubt, dass der Rückzug allein auf dem folgenden Satz der Studie beruhte:

„Auf der Grundlage von Beobachtungsdaten lässt sich schlussfolgern, dass die Klimakrise, die wir nach Meinung vieler Quellen heute erleben, noch nicht offensichtlich ist.“

Das ist einfach dasselbe, was die AR6 WGI in ihrer Tabelle 12.12 in Abbildung 5 sagt. Die Rückzugsmeldung von SpringerNature enthielt keine inhaltlichen Einwände gegen die Studie, sondern besagt lediglich, dass „Bedenken geäußert wurden…“. Für weitere Details siehe hier.

AR6 und Extremwetter

Abbildung 5. Tabelle 12.12 im AR6 WGI. Die farbigen Kästchen zeigen die Klimaänderungen, die sich bisher aus dem Klimarauschen ergeben haben. Es wurden nur einige sehr harmlose Klimaänderungen beobachtet. Die meisten, einschließlich Überschwemmungen, Meeresspiegelanstieg, Dürre und Wirbelstürme, wurden nicht beobachtet.

Hier sehen wir einen Teil der bereits erwähnten Tabelle 12.12, aus AR6, Kapitel 12, Seite 1856. Die rechte Spalte der Tabelle zeigt die nachgewiesenen „Einflussfaktoren des Klimawandels“, die heute oder in der jüngeren Geschichte der Erde, d. h. seit ~1750 oder später, zu beobachten sind. Der IPCC definiert die Einflussfaktoren des Klimawandels als physikalische Bedingungen des Klimasystems, die sich auf ein Element der Gesellschaft oder der Ökosysteme auswirken. Vom Menschen verursachte CIDs können in verschiedenen Regionen der Erde schädlich, vorteilhaft, neutral oder eine Mischung aus beidem sein.

Das heißt, eine bestimmte Klimaveränderung kann in einem Teil der Welt vorteilhaft und in einem anderen nachteilig sein. Dies liegt auf der Hand, wird aber vom Klima-Establishment oft ignoriert, das dazu neigt, nur die negativen Auswirkungen des Klimawandels zu berücksichtigen. Ein Einflussfaktor des Klimawandels ist definiert als eine Veränderung, die ein Signal-Rausch-Verhältnis von eins überschritten hat. Sie tritt oberhalb eines bestimmten Niveaus zufälliger Veränderungen auf, dem so genannten „ Rauschpegel “. Die Definition des Klimawandels ist also statistisch. Es braucht Zeit, um festzustellen, ob eine bestimmte Veränderung auf der Zeitskala des Klimas real ist. Roger Pielke Jr. und seine Kollegen fanden heraus, dass wir, selbst wenn eine bestimmte Veränderung eintritt, erst nach über 100 Jahren sicher sein können, dass es sich um eine echte Klimaänderung handelt. So lange würde es dauern, bis man die notwendigen Daten gesammelt hat, um nachzuweisen, dass sich die Veränderung aus dem Rauschen herausgelöst hat.

Wie die Legende zeigt, bedeutet Orange eine Abnahme und Blau eine Zunahme, ein weißes Kästchen bedeutet, dass keine Veränderung oberhalb des Lärmpegels festgestellt wurde. Das Kästchen für tropische Wirbelstürme ist weiß, ebenso sind die Kästchen für Windgeschwindigkeit, Dürre, Überschwemmungen, Niederschlag, Waldbrände, Erdrutsche, Versauerung der Ozeane und Anstieg des Meeresspiegels weiß, was bedeutet, dass bei all diesen Elementen keine signifikante Veränderung festgestellt wurde.

Es wird eine Zunahme extremer Hitze festgestellt, aber die Fußnote beschränkt dies auf einige tropische Regionen und Regionen der mittleren Breiten, so dass nicht einmal eine Zunahme extremer Hitzeereignisse auf globaler Ebene zu erkennen ist. In den meisten Regionen ist ein Rückgang der Kälteperioden und ein Anstieg der mittleren Lufttemperatur zu verzeichnen. Ebenso ist ein Rückgang des Permafrosts, des See- und Flusseises und ein Anstieg der mittleren Meerestemperatur zu verzeichnen. Wenn die Wissenschaftler also nur diese offensichtlichen Veränderungen festgestellt haben, die weitgehend harmlos sind, warum tun die Politiker dann so, als ginge die Welt unter? Genau das müssen wir uns fragen. Ich schätze, sie haben nicht erwartet, dass jemand bis zur Seite 1856 liest.

[Hervorhebung vom Übersetzer]

Im Folgenden beleuchtet Andy May einzelne Elemente des Wettergeschehens. Das wird immer wieder an anderer Stelle auf diesem Blog des EIKE angesprochen, so dass hier – auch wegen der Länge des Beitrags – auf die Übersetzung verzichtet wird. Im Einzelnen spricht May an:

Zyklonen und Extremwetter, Stürme, den Anstieg des Meeresspiegels, das Modell im AR6 bzgl. der Erwärmung seit der Kleinen Eiszeit, die derzeitige Sonnenaktivität und das Moderne Solare Maximum.

Am Ende seiner Ausführungen bringt May noch eine „Discussion“, die wieder übersetzt wird:

Diskussion

Zensur ist eine hässliche Sache. Sie ist Präsidentschaftskandidaten und Wissenschaftlern widerfahren. Sie ist auch mir passiert. Zensur aus einem anderen Grund als dem Schutz von Kindern vor altersunangemessenen Bildern und Texten ist sowohl unwissenschaftlich als auch falsch. Die Hauptaufgabe eines jeden Wissenschaftlers ist es, akzeptierte Ideen mit Daten und Analysen zu hinterfragen, Wissenschaft ist mit Zensur unvereinbar.

[Hervorhebung vom Übersetzer]

In den Medien hören wir ständig, dass der vom Menschen verursachte Klimawandel bereits jetzt gefährlich ist oder dass es Anzeichen dafür gibt, dass schwere Klimakatastrophen unmittelbar bevorstehen. Die einzigen beobachteten so genannten Gefahren sind jedoch, dass die Welt ein wenig wärmer ist und der CO₂-Gehalt in der Atmosphäre zugenommen hat. Diese offensichtlichen Veränderungen haben die Welt einfach grüner und besser gemacht. Alle angeblichen „Gefahren“ werden von Klimamodellen in die Zukunft projiziert, und die Klimamodelle haben sich als ungenau erwiesen.

Die Erwärmung findet hauptsächlich in den höheren Breitengraden statt, die Temperaturen in den Tropen ändern sich kaum und werden durch Verdunstung und die daraus resultierende hoch reichende Konvektion warmer, feuchter Luft mit der Folge von Gewittern auf etwa 30 °C begrenzt. Der Wärmetransport von den Tropen zu den Polen wirkt wie ein Wärmemotor, der unser Wetter erzeugt: Je mehr Wärme transportiert wird, desto stürmischer ist es. Je mehr Wärme transportiert wird, desto stürmischer ist das Wetter. Wenn sich also die höheren Breitengrade erwärmen, auch bekannt als „globale Erwärmung“, wird weniger Wärme zu den Polen transportiert, und in den mittleren Breiten bilden sich weniger und weniger heftige Stürme. Alle im 20. Jahrhundert gesammelten Daten deuten darauf hin, dass die Stürme mit der Erwärmung der Welt abnehmen und nicht zunehmen.

Der Anstieg des Meeresspiegels seit 1900 verläuft zu etwa 96 % linear, wenn man alle gängigen Aufzeichnungen über den Meeresspiegelanstieg verwendet. Die offensichtliche Beschleunigung seit 1990 fällt mit einem Aufschwung der AMO und anderer Meeresschwingungen zusammen und ist wahrscheinlich natürlichen Ursprungs. Es ist verfrüht, dies auf menschliche Aktivitäten zu schieben. Wir werden es erst in 30 Jahren wissen, wenn diese Oszillation in die Negativ-Phase wechselt.

Der Einfluss der Sonne auf das Klima ist weitaus variabler, als vom IPCC und dem Klimakonsens angenommen. Außerdem korrelieren diese bekannten Schwankungen der Sonne sehr gut mit historischen Klimaveränderungen.

Die Voreingenommenheit in den UN-Berichten über den Klimawandel ist größtenteils eine Selektionsverzerrung. Sie wählen nur Studien aus, die ihre These stützen, dass der Mensch das Klima steuert, und ignorieren die umfangreiche Literatur, die zeigt, dass die Natur durch Wolkenbedeckung, Ozeanschwankungen und die Sonne einen großen Einfluss hat, wahrscheinlich den dominierenden Einfluss auf unser langfristiges Klima. Diese Zensur durch Auslassung führt zu einer radikalen Fehlinformation der Öffentlichkeit.

Die Wissenschaft ist das bewährte Verfahren, mit dem eine Person oder eine kleine Gruppe der Welt zeigen kann, dass die von ihr gehegten Überzeugungen falsch sind. Das funktioniert nur in einer offenen Welt mit freier Meinungsäußerung und einer freien Presse. Zensur, Unterdrückung der Redefreiheit und Konsensdenken sind die Feinde von Wissenschaft und Wahrheit.

Zensur und die Unterdrückung der freien Meinungsäußerung zerstören Innovation und menschlichen Fortschritt. Würde es in einer Welt, in der der Konsens regiert und neue Ideen unterdrückt werden, einen Personal Computer in jeder Tasche und jedem Portemonnaie oder ein SpaceX Starlink geben? Nein, dies waren die Visionen einiger weniger Personen unter der Führung von Steven Jobs bzw. Elon Musk. Andere würden die Ideen für verrückt halten, wie Einsteins These oder Richard Lindzens Hypothese des Iris-Effekts. Der so genannte „Konsens“ ist der Feind von Innovation und Wahrheit.

For more details on AR6 and its problems see: The Frozen Climate Views of the IPCC: An Analysis of AR6.

Link: https://andymaypetrophysicist.com/2024/09/27/suppression-of-science-and-inconvenient-truths/

Übersetzt von Christian Freuer für das EIKE

 




Klima-Kult und Betrüger

Cap Allon

In seiner Nobelpreisrede 2007 sagte Al Gore eine eisfreie Arktis bis 2014 voraus. Seit Gores Vorhersage hat es keinen Trend bei der minimalen, mittleren oder maximalen Ausdehnung des arktischen Meereises gegeben:

[Tony Heller]

Tatsächlich ist das Meereisminimum 2024 um 26 % größer als 2012.

Im Gegensatz zu den beängstigenden Verlautbarungen des Establishments geht es dem Meereis gut – und auch den Eisbären, deren Populationen inzwischen so stark zugenommen haben, dass die Einwohner von Grönland und sogar Island einige von ihnen aus Sicherheitsgründen erschießen müssen.

Der Wahrsager Al Gore erhielt 2007 den Friedensnobelpreis, weil er „das Bewusstsein für die globale Erwärmung geschärft“ hat. Er erhielt den Preis gemeinsam mit dem IPCC. Das Nobelkomitee „würdigte ihre Bemühungen, mehr Wissen über den vom Menschen verursachten Klimawandel aufzubauen und zu verbreiten und die Grundlagen für die notwendigen Maßnahmen zu seiner Bekämpfung zu schaffen“.

In Anbetracht der katastrophalen Erfolgsbilanz ihrer Vorhersagen sowie der Wohlstand umverteilenden und Armut verursachenden Maßnahmen, die zur „Gegensteuerung“ eingesetzt werden, plädiere ich für die Rückgabe der Preise.

Und wenn wir schon beim Thema Versagen des Establishments sind: James Hansen von der NASA sagte uns 2008, dass die Arktis bis 2018 „frei von Sommereis“ sein würde. Dieser Mann, der immer noch als der „Pate der globalen Erwärmung“ gilt, ist der König der gescheiterten Vorhersagen. Ein weiteres Beispiel: 1988 sagte Hansen, dass Lower Manhattan bis 2018 aufgrund des steigenden Meeresspiegels unter Wasser stehen würde.

Aha…

Wir sollten nicht zulassen, dass diese Scharlatane das Datum des Jüngsten Gerichts immer weiter in die Zukunft verschieben, da sich jede Verkündigung als falsch erweist. Die Katastrophe ist immer X Jahre entfernt: Die Arktis sollte Anfang der 2000er Jahre eisfrei sein, dann bis 2014, dann bis 2018, dann bis Mitte der 2020er Jahre. Und nun, da diese letzte Frist verstrichen ist, fordern neue Forschungsergebnisse (veröffentlicht im Jahr 2023) „unter Verwendung aktualisierter Satellitendaten und Klimamodellierung“ eine eisfreie Arktis irgendwann in den 2030er Jahren, ein Jahrzehnt, das auch der IPCC jetzt befürwortet.

Wenn eine Theorie so spektakulär scheitert, ist es angebracht, die Theorie zu überdenken.
In den frühen 1980er Jahren sagte uns The Science, dass der Planet in den 1990er Jahren eine „katastrophale Erwärmung der Erde aufgrund des starken Klimawandels“ erleben könnte…

…aber jetzt haben wir das Jahr 2024, und die Aktivisten blicken immer noch nervös zum Himmel in Erwartung von Feuer und Schwefel. Sie haben jetzt die Frechheit zu behaupten, dass jeder Regenschauer und jede Hitzekuppel der endgültige Beweis dafür ist, dass das Ende naht. Es ist alles vorbei X:

Eine Reaktion auf die herbstlichen Regenfälle, die derzeit Teile von UK heimsuchen.

Und was sagen die Verblendeten, wenn sie mit der endlosen Reihe von Misserfolgen konfrontiert werden? Nichts. Sie haben zu viel in die Sekte investiert, vor allem Zeit und Ansehen, und ihr Bedürfnis nach einem Sinn im Leben lässt sie sogar die Möglichkeit ausblenden, dass sie sich irren.

Aber wie oben dokumentiert, haben sie bereits viele Male bewiesen, dass sie falsch liegen, sie wollen es nur nicht akzeptieren. „Das nächste Mal wird es uns erwischen“ … „Die Katastrophe ist gleich um die Ecke.“ Sie klingen wie degenerierte Glücksspieler, wie verzweifelte Klima-Junkies – ignorieren Sie sie!

Link: https://electroverse.substack.com/p/big-cool-down-for-europe-south-africa?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Entdeckung eines systematischen Fehlers bei Wetterstationen: Neue Analyse stellt bisherige Klimadaten in Frage

Moritz Büsing

Im Zuge meiner langjährigen Beobachtungen der Klimaforschung und der Analyse von Berichten des IPCC und anderer Institutionen ist mir ein potenzieller Fehler bei der Auswertung von Wetterstationsdaten aufgefallen. Dieser Fehler, der auf die Homogenisierung von Messwerten zurückzuführen ist, könnte etwa die Hälfte der bisher dokumentierten Klimaerwärmung erklären.

Widersprüche in den Klimadaten

Seit Jahrzehnten verfolge ich die Entwicklungen in der Klimaforschung und habe zahlreiche Berichte des IPCC (Intergovernmental Panel on Climate Change) und anderer wissenschaftlicher Institutionen studiert. Dabei fiel mir ein bedeutender Trend auf: Die Abkühlungsphase zwischen den 1940er und 1960er Jahren, die in älteren Berichten klar erkennbar war, wurde in neueren Darstellungen immer flacher. Zudem verwandelte sich das Temperaturplateau von 1998 bis 2015 in einen ansteigenden Trend.

Diese Beobachtungen veranlassten mich, auch die absoluten globalen Mitteltemperaturen (nicht die Anomalie), wie sie in den Berichten des IPCC festgehalten wurden, genauer zu untersuchen. Als ich die Anomalie-Kurven entsprechend den damalig jeweils aktuellen absoluten Temperaturwerten verschob, stellte ich fest, dass die Vergangenheit in den neueren Kurven kälter dargestellt wurde als in älteren Versionen. Dies deutet darauf hin, dass ein Teil der festgestellten Erwärmung nicht auf reale Temperaturanstiege, sondern auf eine nachträgliche Abkühlung der Vergangenheit zurückzuführen ist.

Ursachen für die verzerrten Temperaturdaten

Nach eingehender Analyse wurde klar, dass der Hauptgrund für diese Diskrepanz in der Art und Weise liegt, wie Temperaturdaten von Wetterstationen bearbeitet und homogenisiert werden. Die amerikanische Behörde NOAA (National Oceanic and Atmospheric Administration) und das Goddard Institute for Space Studies (GISS) der NASA stellen umfangreiche Daten und Quellcodes zur Verfügung, was eine detaillierte Überprüfung ermöglichte.

Ein zentraler Prozess in der Datenauswertung ist die Homogenisierung, bei der Wetterstationsdaten so angepasst werden, dass klimafremde Einflüsse herausgefiltert werden. Dazu gehören vor allem Temperatursprünge durch Standortwechsel der Messstationen, Änderungen der Messinstrumente oder der Messmethoden. In den 80er und 90er Jahren wurde die Homogenisierungen von Experten manuell durchgeführt. Als Grundlage dienten vor allem die Protokolle der Messstationen. Die Homogenisierungen werden heutzutage größtenteils automatisiert basierend auf statischen Analysen benachbarter Wetterstationen durchgeführt, was die Verarbeitung von mehr Datenquellen ermöglicht, für welche keine Protokolle vorliegen. Insgesamt führte dies aber auch zu immer mehr Homogenisierungsanpassungen, sowohl insgesamt als auch pro Wetterstation. Die Sprünge wurden bei allen diesen Methoden auf die gleiche Weise „korrigiert“: Alle Messdaten vor einem Sprung wurden so verschoben, dass der Sprung geglättet wird.

Hier entdeckte ich den entscheidenden Fehler: Die Annahme, dass Temperatursprünge immer dauerhaft sind, obwohl sie in vielen Fällen nur temporär auftreten. Ein Beispiel hierfür ist die Alterung der weißen Farbe an den Wetterstationen. Neu gestrichene Stationen absorbieren weniger Sonnenstrahlung und Wärmestrahlung als ältere, verschmutzte Stationen, was zu einem schleichenden Anstieg der gemessenen Temperaturen führt. Dieser Effekt ist klein, wird aber durch die wiederholte Anwendung der Homogenisierung über die Jahre hinweg mehrfach aufaddiert und führt zu einer Überschätzung der Erwärmung.

Quantifizierung der Alterungseffekte

In der Literatur konnte ich leider wenig zu den Alterungseffekten finden. Die wenigen Daten die vorlagen erlaubten es nicht umfangreiche statistische Bewertungen zu machen und globale Korrekturen durchzuführen.

Daher extrahierte ich die Alterungseffekte aus den Datensätzen der Wetterstationen welche NOAA bereitstellte. Dies war möglich, weil die Alterung nicht mit konstanter Geschwindigkeit erfolgt. In den ersten ein bis zwei Jahren passiert wenig (Ausbleicheffekte, chemische Pufferung), dann verläuft die Alterung für ein paar Jahre schneller bis sie ein Plateau erreicht. Hier sind die Alterungseffekte zunächst gesättigt. Erst nach vielen Jahren setzt sich die Alterung wieder fort, wenn schwerere Schäden auftreten. Z.B. wenn die Farbe anfängt abzuplatzen. Das Plateau kann daher als Referenz verwendet werden, um die erhöhte Erwärmung in den anderen Zeitbereichen zu bestimmen. Auf Grund der hohen Streuung der Messwerte und auch der Trends der Messwerte ist diese Auswertung nicht bei einzelnen Wetterstationen möglich, sondern es müssen die Daten von tausenden Wetterstationen ausgewertet werden, um statistisch signifikante Ergebnisse zu erzielen.

Auswirkungen auf die globale Erwärmung

Mit den so bestimmten Alterungskurven konnte ich die Temperaturdaten korrigieren. Die Temperaturdaten habe ich dann mit dem GISTEMP Programm ausgewertet, um globale Temperaturkurven zu erhalten, welche mit den offiziellen Kurven von GISS vergleichbar sind. Das Ergebnis: Die tatsächliche Erwärmung zwischen den Jahrzehnten 1880-1890 und 2010-2020 beträgt etwa 0,83°C (mit einem 95%-Konfidenzintervall von 0,46°C bis 1,19°C), anstelle der bisher angenommenen 1,43°C. Eine weniger konservative Schätzung deutet sogar auf eine Erwärmung von nur 0,41°C hin.

Vergleich mit Satellitendaten

Ich verglich diese Temperaturkurven mit den Satellitendaten der University of Alabama in Huntsville (UAH). Dabei stellte sich heraus, dass die korrigierten Daten viel besser mit den Satellitenmessungen übereinstimmen als die ursprünglichen Werte. Die maximalen Korrekturen, die ich vorgenommen habe, korrelieren am besten mit den Satellitendaten, während die mittleren Schätzungen immer noch eine zu hohe Erwärmung zeigen.

Reduzierte Rolle von CO₂

Ein weiterer wichtiger Befund betrifft die Korrelation zwischen der CO₂-Konzentration (genauer: LOG₂ (CO₂) ) und den rekonstruierten globalen Temperaturen. Die ursprünglichen GISTEMP-Daten zeigten einen hohen Determinationskoeffizienten von 92% zwischen der CO₂-Konzentration und den globalen Temperaturen. Nach meiner Korrektur sank der Determinationskoeffizient jedoch auf 73% und bei der weniger konservativen Schätzung sogar auf 36%. Der Determinationskoeffizient ist ein statistischer Wert, welcher quantifiziert, wie viel von der Veränderung einer Datenreihe mit einer anderen Datenreihe vorhersagbar ist.

Dies bedeutet, dass der Einfluss von CO₂ auf die globale Erwärmung möglicherweise deutlich geringer ist als in vielen wissenschaftlichen Berichten und den Medien dargestellt wird. Während CO₂ nach wie vor eine Rolle spielt, deuten meine Ergebnisse darauf hin, dass es nicht der alleinige oder dominierende Faktor ist.

Widerstände bei der Veröffentlichung

Meine Ergebnisse habe ich in einem wissenschaftlichen Artikel zusammengefasst, der im Journal Science of Climate Change veröffentlicht wurde (kostenloser Download, ohne Bezahlschranke, ohne Anmeldung):

https://scienceofclimatechange.org/moritz-busing-systematic-error-in-global-temperatures-due-to-weather-station-ageing/

Es war jedoch schwierig, dieses Paper zu veröffentlichen. Sechs wissenschaftliche Zeitschriften lehnten es ab, mein Manuskript auch nur zu begutachten. Auch Anfragen bei Wissenschaftlern von NOAA, GISS und mehreren deutschen Universitäten blieben unbeantwortet. Diese Reaktionen deuten darauf hin, dass es Widerstand gegenüber wissenschaftlichen Ergebnissen gibt, die dem gängigen politischen Narrativ widersprechen.

Fazit

Meine Analyse zeigt, dass ein erheblicher Teil der bisher gemessenen globalen Erwärmung durch die Art und Weise, wie Wetterstationsdaten verarbeitet werden, beeinflusst ist. Diese Entdeckung könnte zu einer Neubewertung der tatsächlichen Klimaveränderungen führen und wichtige Konsequenzen für die zukünftige Klimapolitik haben. Eine kritische und präzise Auswertung der vorhandenen Daten ist unerlässlich, um die tatsächlichen klimatischen Entwicklungen besser zu verstehen.

PS:

Dies ist eine verkürzte Darstellung meiner Analyse. Manche der Verkürzungen sind ungenau. Im verlinkten wissenschaftlichen Artikel wird die Analyse ausführlicher beschrieben. Ich bitte vor voreiliger Kritik, diesen Text zu lesen, welchen ich bewusst in möglichst normaler Sprache gehalten habe.

Ich habe auch den Python-Quellcode meiner Analysesoftware veröffentlicht.

Es wurde hier nur ein Aspekt im Detail analysiert und korrigiert, und alles andere bei der offiziellen Methodik belassen. Das heißt nicht, dass ich die Methodik nach der die Temperaturen gemittelt werden und die vielen anderen Datenmanipulationen gut heiße. Ich schließe mich auch nicht der Obsession mit Temperaturanomalien an, sondern halte Niederschläge, Windgeschwindigkeiten (Konvektion) und absolute Temperaturen für viel wichtiger. Denn diese bestimmen die Aktivität von Flora und Fauna, sowie die klimarelevanten Naturkatastrophen.

Ich freue mich darauf Ihre Kommentare und konstruktive Kritik zu lesen!

———————————

Autor: Moritz Büsing studierte an der TU München Luft- und Raumfahrt. Danach Arbeit bei Airbus Helicopters in Donauwörth an der Rotor-Analyse und -Entwicklung. Danach Wechsel in die Hubschrauber-Vorentwicklung und Wettbewerbsanalyse. Nach Ende der Arbeit dort Wechsel zum chinesischen Startup Autoflight am Standort Augsburg und Arbeit als Ingenieur an der Entwicklung eines Batterie-elektrischen Senkrechtstarters mit dem Ziel, dieses als Lufttaxi einzusetzen. Derzeit Arbeit an einem ähnlichen Projekt für LODD in Abu Dhabi.

 




Globale Net-Zero-Bemühungen haben einen Nickel-Boom ausgelöst, der die Regenwälder und Korallenriffe Indonesiens zerstört

Olivia Cook

Indonesien, der größte Nickelproduzent der Welt, steht im Mittelpunkt eines globalen Wettlaufs um dieses wichtige Metall, der zu einer massiven Zerstörung der Regenwälder und Korallenriffe des Landes führt.

Nickel ist ein entscheidender Bestandteil von Batterien für Elektrofahrzeuge, und die Nachfrage danach ist im Zuge der weltweiten Abkehr von fossilen Brennstoffen stark gestiegen. Doch unter der Oberfläche dieser boomenden Industrie verbirgt sich eine Geschichte von Umweltzerstörung und sozialem Aufruhr, die Gemeinden und Ökosysteme umgestaltet.

In Indonesien hat der Nickelabbau ein noch nie dagewesenes Ausmaß angenommen. Auf das Land entfallen inzwischen 15 Prozent der weltweiten lateritischen Nickelvorkommen, bei denen es sich in der Regel um geringwertige, oberflächennahe Lagerstätten handelt.

Die Internationale Energieagentur prognostiziert bis 2030 einen Anstieg der weltweiten Nickelnachfrage um 65 Prozent, der vor allem auf die Zunahme von Elektrofahrzeugen zurückzuführen ist. Indonesien hat sich als wichtiger Akteur auf dem Nickelmarkt positioniert.

Dieses Bestreben, Nickel nutzbar zu machen, hat massive Investitionen von globalen Unternehmen angezogen. Allein in den letzten drei Jahren hat Indonesien mit großen Unternehmen wie Foxconn, Hyundai und LG Verträge in Höhe von über 15 Mrd. USD über die Lieferung von Nickel für Batterien und die Produktion von Elektrofahrzeugen abgeschlossen.

Dieser Kapitalzufluss hat zum Bau großer Nickelhütten und Verarbeitungsanlagen geführt, insbesondere des Indonesia Morowali Industrial Park auf der Insel Sulawesi. Die neue Nickelschmelze ist eine riesige Anlage, die jährlich 13 Millionen Tonnen Nickelerz verarbeiten kann.

Die Umwandlung von Sulawesi – einer Insel, die für ihre atemberaubenden Korallenriffe und prähistorischen Höhlenmalereien bekannt ist – in ein industrielles Zentrum ist ein eindrucksvolles Beispiel dafür, wie schnell sich lokale Landschaften unter dem Druck der globalen Nettonachfrage verändern können.

Ausweitung des Nickelabbaus schadet der Umwelt und der menschlichen Gesundheit

Die Umweltauswirkungen des Nickelabbaus sind gravierend. Anlagen wie PT Obsidian Stainless Steel in Sulawesi arbeiten rund um die Uhr und stoßen Schadstoffe in die Luft aus. Zu den freigesetzten Schadstoffen gehören Schwefeldioxid, Stickoxide und Kohleasche – Partikel, die feiner als Strandsand sind. (Zum Thema: Der Abbau von „grüner Energie“ verschmutzt Flüsse und Ackerland in einem unhaltbaren Tempo, so dass 23 Millionen Menschen giftigen Abfällen ausgesetzt sind).

Die Verschmutzung geht über die Luftqualität hinaus. Die Fischer sehen sich zunehmend schlechteren Bedingungen gegenüber, da die Nickelverschmutzung die Gewässer beeinträchtigt, auf die sie angewiesen sind. Die einst reichen Fischgründe sind jetzt trüb, die Fischbestände schwinden und die Fische wandern aus den verschmutzten Gebieten ab.

Aiwi, ein 78-jähriger lokaler Fischer, beschreibt die Auswirkungen. „Es gibt hier keine Fische mehr“, sagte er und fügte hinzu, dass die Kinder in seinem Dorf aufgrund der starken Luftverschmutzung an Atemproblemen leiden.

Die durch den Nickelabbau verursachte Umweltzerstörung ist enorm. Große Waldflächen werden gerodet, um Platz für den Abbau zu schaffen, und Tagebaue werden in die Erde gegraben. Diese Abholzung destabilisiert das Land und macht es anfälliger für Erosion und Überschwemmungen. Allein im Jahr 2022 kam es in Südost-Sulawesi zu mindestens 21 Überschwemmungen und Schlammlawinen, deutlich mehr als die zwei bis drei Überschwemmungen pro Jahr, die vor Beginn des Bergbaubooms verzeichnet wurden.

Außerdem wurden Flüsse und Bäche mit Schwermetallen und anderen Schadstoffen verseucht, was sowohl das Leben im Wasser als auch die menschliche Gesundheit beeinträchtigt. Die örtliche Bevölkerung muss mit den Folgen dieser Umweltauswirkungen fertig werden und steht vor Herausforderungen wie zerstörtem Land und verschmutztem Wasser.

Der Boom des Nickelbergbaus in Indonesien führt uns die Problematik des globalen Übergangs zu saubereren Energiequellen deutlich vor Augen. Während die Umstellung auf Elektrofahrzeuge und erneuerbare Energien als entscheidend für die Verringerung der Treibhausgasemissionen gilt, müssen die damit verbundenen ökologischen und sozialen Auswirkungen unbedingt angegangen werden. Dazu gehört die Einführung strengerer Umweltvorschriften, um wichtige Ökosysteme zu erhalten und massive Umweltverschmutzung zu verhindern.

Hier ein kurzer Clip über eine große Versammlung in Belgrad, Serbien, wo man gegen ein Lithiumabbauprojekt protestiert, das massive Umweltschäden in einer Region im Nordwesten Serbiens verursachen könnte:

 

Der Clip stammt von hier: Cynthia’s Pursuit of Truth channel on Brighteon.com.

Weitere Artikel zum Thema:

Mining for “clean energy” minerals has left more than 23 million people exposed to TOXIC WASTE in their water, environment.

STUDY: Deep-sea mining for EV metals can slash ocean animal populations in half.

Car companies are expanding into the lithium mining business to secure their supplies for EV manufacturing.

GREEN SHORTAGE: Lack of lithium preventing Indonesia from becoming a global hub for EVs.

Cobalt market notes highest supply jump on record as Indonesia becomes biggest global source outside of Africa.

Link: https://climate.news/2024-09-11-net-zero-nickel-boom-destroying-indonesia-rainforests.html

Übersetzt von Christian Freuer für das EIKE