Windkraft und ihre verheerenden Folgen für Mensch und Natur

Die rücksichtslose Art und Weise, wie die Windkraft in Deutschland durchgesetzt wird, erinnert an die brutale Art und Weise, wie die „Betonfraktion“ in der Nachkriegszeit vielen deutschen Städten den Rest gab. Eine Windwahn-Bestandsaufnahme.

von Georg Etscheit

31. Januar 2020: Gesetz zur weiteren Beschleunigung von Planungs- und Genehmigungsverfahren im Verkehrsbereich; 14. Mai 2020: Planungssicherstellungsgesetz; 5. November 2020: Investitionsbeschleunigungsgesetz; 7. Juli 2022: „Osterpaket” mit Änderung des Erneuerbare-Energien-Gesetzes und des Bundesnaturschutzgesetzes, Beschluss des „Wind-an-Land-Gesetz”; 19. Dezember 2022: EU-Notfallverordnung; 10. Februar 2023: Novelle der Verwaltungsgerichtsordnung. Seither gelten „Ökokraftwerke“ und neue Stromleitungen als Frage des nationalen Interesses, ein „Totschlags“-Konstrukt, das in der gerichtlichen Abwägung der verschiedenen Rechtsgüter kaum schwerer wiegen könnte.

Seit die Ampelregierung und mit ihr die „Grünstrom“-Lobby an die Schalthebel der Macht gekommen sind, jagt ein neues Gesetz, eine neue Verordnung und eine Novelle die andere. Schutznormen für Landschaft und Natur werden beschnitten, die einst (unter maßgeblicher Beteiligung grüner Regierungen) stark ausgeweiteten Beteiligungsmöglichkeiten von Naturschützern und Bürgern geschmälert, um den Bau von Verkehrswegen, Industriegebieten, Stromleitungen oder Windkraftanlagen unkompliziert auch gegen Widerstände durchsetzen zu können. Über allem schwebt das berühmt-berüchtigte Klimaschutz-Grundsatzurteil des Bundesverfassungsgerichts und eine weitgehend analoge Rechtsprechung des Europäischen Gerichtshofes.

Die mannigfaltigen gesetzgeberischen Vorhaben werden flankiert von weiteren Initiativen der Europäischen Union im Rahmen des „Green New Deals“ sowie der Bundesländer. So hat Bayern beispielsweise das Landesdenkmalschutzgesetz liberalisiert, damit künftig auch im Umkreis wertvoller, landschaftsprägender Kulturdenkmale Windkraftwerke ohne Berücksichtigung von denkmal- und heimatpflegerischen Belangen errichtet werden dürfen.

Amoklauf zulasten von Mensch und Natur

Gegen diese Novelle läuft eine Popularklage um den Denkmalschutz besorgter Bürger – neben Bürgerentscheiden eines der wenigen noch verbliebenen Instrumente, um den Amoklauf zulasten von Mensch und Natur, zu dem sich die „Energiewende“ entwickelt hat, noch etwas entgegenzusetzen. Zumal auch der verwaltungsgerichtliche Instanzenweg verkürzt wurde, um Klageverfahren schneller abschließen zu können.

Erklärtes Ziel ist es, die letzten Hürden auszuräumen, die einem beschleunigten Ausbau der Windkraft und anderer sogenannter Erneuerbarer Energien in Deutschland bislang noch im Wege standen. Bis 2045 soll die trotz schleichender Deindustrialisierung immer noch viertgrößte Industrienation der Welt „klimaneutral“ sein. Dabei hat sich die Bundesregierung und vor allem ihr grüner Wirtschafts- und Klimaschutzminister Robert Habeck selbst absichtsvoll unter Druck gesetzt, indem wichtige atomare und fossile Kraftwerkskapazitäten geschleift wurden und werden. Die Absage an kostengünstiges russisches Erdgas, begründet mit dem Einmarsch der Russen in die Ukraine, trägt ein Weiteres zur latenten Energieknappheit bei.

Mittlerweile laufen flächendeckend auf allen Ebenen der Verwaltung – Kommunen, Regionalverbände, Bundesländer – Planungen zum Bau insbesondere von tausenden neuer Windkraftwerke. Vor allem in Süd- und Südwestdeutschland sehen die Energiewendestrategen großen Nachholbedarf. Weil die meisten windhöffigen Flächen schon belegt sind, werden neue „Windparks“ mehr und mehr in „Schwachwindgebieten“ sowie in den letzten, noch wenig tangierten Höhenlagen der Mittelgebirge wie des Schwarzwaldes und des Bayerischen Waldes gebaut, wo die schädlichen Auswirkungen besonders groß sind. Sogar der frühere FDP-Wirtschaftsminister Martin Zeil kritisierte jüngst, dass es zu seiner Zeit noch nicht politische Zielvorstellung gewesen sei, „unsere Wälder in großem Stil“ für die Windkraft abzuholzen.

Derzeit drehen sich, so der Wind denn mal weht, hierzulande gut 30.000 Windkraftanlagen. Mindestens zehntausend sollen in naher Zukunft hinzukommen. Der Anteil der von diesen Anlagen direkt beanspruchten Fläche soll von derzeit 0,5 Prozent auf mindestens zwei Prozent steigen, wobei schon diese zwei Prozent 100 Prozent Landschaftszerstörung bedeuten. Ob die angestrebten Ausbauziele in vollem Umfang erreicht werden, ist zweifelhaft. Trotzdem dürfte sicher sein: Wenn kein politisches Wunder geschieht, wird sich Deutschland spätestens zum Ende dieses Jahrzehnts in eine unwirtliche, weitgehend lebensfeindliche „Energielandschaft“ verwandelt haben. Jedenfalls abseits urbaner Ballungsräume und (bislang noch) tabuisierter Nationalparks und Naturschutzgebiete.

Der Landschaftsschutz kommt unter die Räder

Die Auswirkungen von zehntausenden bis zu 250 Meter hoch aufragender „Windräder“ – die modernsten Anlagen erreichen mit rund 300 Metern Höhe fast Eifelturmniveau – sind schon heute enorm. Die gigantischen Industrieanlagen überdecken bereits weite Teile Nord-, Ost-, und Westdeutschlands und mehr und mehr auch die Ostsee und die Deutsche Bucht. Dabei geht es um die Bestände wertvoller Vogel- und Fledermausarten, aber auch den Schutz von Insekten, Meeressäugern, Wäldern, Böden, Wasserhaushalt, Mikroklimata und, nicht zuletzt, der menschlichen Gesundheit.

Ganz zu schweigen vom Erhalt der Kulturlandschaften, ein Schutzgut, das im Zuge der „Energiewende“ zuallererst unter die Räder kam. Mussten bei Eingriffen in Landschaftsschutzgebiete vor einigen Jahren noch aufwändige Abweichungs- und Zonierungsverfahren durchgeführt werden, haben die Planer heute „Carte blanche“. In Bezug auf den Bau von Anlagen zur Bereitstellung erneuerbarer Energie sind Landschaftsästhetik und Landschaftsschutz unterdessen praktisch inexistent und spielen, anders als in Frankreich, auch in Gerichtsverfahren so gut wie keine Rolle.

Für Vögel galt in seligen Zeiten des Natur- und Artenschutzes ein auf jedes einzelne Individuum bezogenes Tötungsverbot. Weil sich diese Regelung als bedeutendes Hindernis für Planung und Bau von Windindustriegebieten erwies, geht es heute nur noch um den Schutz von Populationen. Nur wenn ein geplantes Projekt etwa ein „Dichtezentrum“ des Roten Milans in seinem gesamten Bestand zu gefährden droht, gibt es überhaupt eine Handhabe für die Naturschutzbürokratie.

Gefährdete Vogelarten geschreddert

Doch diesen Nachweis zu führen ist schwierig und er scheitert oft schon daran, dass es an belastbaren Beobachtungsdaten mangelt. Oft müssen klagende Bürgerinitiativen oder Umweltverbände selbst ein kostspieliges Monitoring möglicher gefährdeter Arten veranlassen, wobei darauf spezialisierte ökologische Planungsbüros oft im Sold der Windindustrie stehen und indirekt dazu angehalten sind, besser keinen Schwarzstorch- oder Milanhorst oder ein Habitat von Waldschnepfe und Auerwild zu finden.

Nur wenige Schlaglichter zu den Gefahren, die der Vogelwelt drohen: Von März bis November 2015 führte die Schweizerische Vogelwarte Sempach im Auftrag des Bundesamtes für Energie im Schweizer Jura eine systematische Schlagopfersuche an drei (nur) 150 m hohen Windkraftwerken durch. Unter Berücksichtigung aller Faktoren, auch der Entdeckungswahrscheinlichkeit und der Rate jener Kadaver, die von Predatoren aufgefressen werden, ergab die Hochrechnung eine absolute Kollisionsrate von rund 21 Individuen pro Jahr und Windkraftanlage. Bei 40.000 oder mehr Windkraftwerken, die in Deutschland geplant sind, würde wohl rasch die Millionengrenze überschritten.

Zu den windkraftsensiblen Großvogelarten gehört auch nach Einschätzung des Bundesumweltministeriums der Rote Milan. Nach einer in der Zeitschrift Vogelwelt publizierten Studie war für flügge Rotmilane in Brandenburg in den vergangenen drei Jahrzehnten Windkraft mit 33 Prozent die häufigste Todesursache, gefolgt vom Straßenverkehr mit 17 Prozent. Bei der Zuordnung zu Altersgruppen sei der Anteil adulter Vögel mit rund achtzig Prozent unter den Windkraftopfern sehr hoch, betonen die Autoren.

Fledermäuse und Insekten schwer dezimiert

Auch für die in Deutschland vorkommenden etwa 25 Fledermausarten stellen Windkraftwerke eine signifikante Gefahr dar, nicht zuletzt deshalb, weil die an den Spitzen der sich mit bis zu halber Schallgeschwindigkeit drehenden Rotorblätter erzeugten Luftdruckschwankungen die empfindlichen Sinnesorgane der Tiere zerstören können. Studien zufolge verursacht jedes deutsche Windrad jährlich den Tod von rund zehn bis zwölf Fledermäusen, das wären derzeit etwa 400.000 Tiere jährlich, wobei die Zahlen je nach geographischer Lage und Anlagentypus variieren. Siebzig Prozent der getöteten Fledermäuse stammen von Populationen, die nicht in Deutschland, sondern in anderen Ländern heimisch sind.

Wegen seiner zentralen Lage durchqueren Fledermäuse Deutschland auf dem Weg von ihren nordosteuropäischen Sommerlebensräumen hin zu ihren süd- und westeuropäischen Winterlebensräumen und zurück. Deutschland habe die besondere Verantwortung, migrierende Arten zu schützen, so Christian Voigt, einer der Autoren der zitierten Studie. Die hohe Mortalitätsrate werde sich bestandsbedrohend auf die Fledermaus-Populationen in ihren europäischen Herkunftsgebieten auswirken.

Windkraftanlagen haben auch erhebliche Auswirkungen auf Fluginsekten, wie eine im Jahr 2017 veröffentlichte Studie des Deutschen Zentrums für Luft- und Raumfahrt (DLR), Institut für Atmosphärenphysik in Oberpfaffenhofen zeigt. Aufgrund von veränderten Wind- und Temperaturbedingungen werden Insekten von Windkraftanlagen angelockt und sterben in großer Anzahl – hochgerechnet an allen deutschen Windkraftanlagen während der warmen Jahreszeit (200 Tage von April bis Oktober) rund fünf bis sechs Milliarden Insekten pro Tag.

Gefahr auch für die Meeresfauna

Eine vielfach vernachlässigte Gefährdung geht von den negativen Einflüssen der Druck- und Schallwellen der Windkraftanlagen, der sogenannten Scheuchwirkung, auf einige Tierarten mit einem extrem empfindlichen Gehörsinn aus. Zu diesen akustisch besonders sensiblen und störungsempfindlichen Arten zählen alle Fledermäuse und Eulen, der Luchs und die Wildkatze sowie zahlreiche Vogelarten, darunter die in ihrem Bestand rückläufige und in der „Vorwarnliste“ aufgeführte Waldschnepfe.

Je mehr die Windkraftindustrie auch die meist küstennahen Meeresoberflächen zur Energiegewinnung heranzieht, wachsen die Gefahren für die Meeresfauna. Ziel einer am 1. Januar 2023 in Kraft getretenen Änderung des Gesetzes zur Entwicklung und Förderung der Windenergie auf See (WindSeeG) ist es, die installierte Leistung von Offshore-Windenergie bis 2045 auf mindestens 70 Gigawatt (heute rund 8,5 GW) zu steigern, wobei auch hier Artenschutzregelungen zugunsten beschleunigter Planungen ausgehebelt wurden.

Die flächendeckende Industrialisierung der Meere könnte nach Einschätzung von Meeresökologen zur Folge haben, dass die einzigen heimischen Meeressäuger, die in der Nordsee lebenden Schweinswale, aus ihrem angestammten Lebensraum verdrängt werden. Vor allem die beim Bau der Offshore-Wind-„parks“ notwendigen Rammarbeiten mit hohen unterseeischen Schallpegeln bewirken einen signifikanten Vertreibungseffekt auf die akustisch hoch sensiblen Tiere. „Sollten immer mehr Offshore-Windparks entstehen, wird das enorme Auswirkung auf die Schweinswal-Populationen in der Nord- und Ostsee haben“, heißt es in einer Stellungnahme der Gesellschaft zur Rettung der Delphine.

Infraschall macht Menschen zu schaffen

Bliebe ein wichtiges Thema, das den Menschen ganz direkt betrifft, genauer gesagt jene Menschen, die in der Nähe von Windkraftwerken leben müssen: der Infraschall. Mit zunehmender Flächendichte dieser Anlagen wird die Zahl der unmittelbar Betroffenen, die über heftige Gesundheitsbeschwerden wie Schlaflosigkeit, Schwindel, Kopfschmerzen, Depressionen bis hin zu Tinnitus, Hör- und Sehstörungen und Herzrhythmusstörungen klagen, sprunghaft zunehmen, zumal in wohl keinem anderen Land Europas so laxe Abstandsregelungen gelten wie in Deutschland – die Schutzabstände reichen von wenigen hundert Metern bis zu maximal einem Kilometer.

Die in Bayern lange Zeit gültige, vorbildhafte 10H-Abstandregelung wurde mittlerweile leider verwässert und durch konkurrierende Gesetzgebung des Bundes marginalisiert. Sie sah vor, dass der Abstand zwischen einer Windenergieanlage und der nächstliegenden Wohnbebauung dem Zehnfachen der Anlagenhöhe entsprechen muss. Bei einem 250 Meter hohen Windrad wären das bis zu drei Kilometer.

Immer noch zu wenig, wie nicht wenige Wissenschaftler meinen. Denn die Reichweite des von Windkraftanlagen emittierten, luftgetragenen Infraschalls kann nach Messungen der Bundesanstalt für Geologie und Rohstoffe mehr als zehn Kilometer betragen. Mittlerweile kann als wissenschaftlich gesichert gelten, dass Infraschall weit unter der Hörschwelle Wirkungen auslöst, die von den menschlichen Sinnesorganen als Stressoren bewertet werden.

Dabei ist der kritische Parameter offenbar nicht der mittlere oder maximale Schalldruck, sondern das Auftreten steiler Änderungen, sogenannter peaks, schreibt Werner Roos, emeritierter Professor für pharmazeutische Biologie in einer Übersicht. Deren Häufigkeit sowie das Ausmaß der Druckschwankungen wird durch die Größe der Anlage und die Drehzahl bestimmt. Bei der Wahrnehmung spielen dann auch geografische und meteorologische Bedingungen eine Rolle sowie die jeweilige Disposition der Betroffenen, wobei offenbar nicht jeder Mensch ähnlich infraschallsensibel ist.

Es wird weiter auf die Tube gedrückt, ohne Rücksicht auf Verluste

Vonseiten der Windkraftlobby und der sie unterstützenden Politik werden die Auswirkungen von gepulstem Infraschall systematisch heruntergespielt. Beim „Windturbinen-Syndrom“ handele es sich um eine eingebildete Krankheit, die aus einer negativen Einstellung gegenüber der Windenergie herrühre. Doch selbst wenn es auch solche psychischen Effekte geben sollte, resultieren daraus wirkliche Leiden, derer sich die Verantwortlichen annehmen müssen.

Auf jeden Fall wäre ein Moratorium zum Bau neuer Anlagen notwendig, bis weitere, belastbare epidemiologische Studien zu den Auswirkungen des von Windkraftwerken emittierten Infraschalls vorliegen. In Frankreich wurde jüngst per höchstrichterlicher Anordnung die Neuzulassung von Windrädern an Land gestoppt, bis die Probleme mit dem Infraschall geklärt sind.

Wohl undenkbar in Deutschland. Stattdessen wird weiter auf die Tube gedrückt, koste es, was es wolle. Mit einem neuen Gesetz zur Umsetzung einer EU-Richtlinie soll es bald möglich sein, „Beschleunigungsgebiete“ für Windkraft und PV auszuweisen, in denen unter anderem Umweltverträglichkeitsprüfungen und artenschutzrechtliche Prüfungen nicht mehr notwendig sein sollen. Mittlerweile ist der gesetzgeberische Wust selbst für Experten kaum noch zu durchschauen. Für die unterbesetzten Genehmigungsbehörden in den Landratsämtern ohnehin nicht, die längst fast jede Planung durchwinken. Wahnsinn? Ja, aber mit Methode!

Ich danke Dr. Wolfgang Epple www.wolfgangepplenaturschutzundethik,de für die fachliche Beratung.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Mitfahren mit EIKE – gemeinsam zur Konferenz nach Wien

2022 in Braunsbedra merkten einige Besucher und Referenten, daß sie mit individuellen Fahrzeugen fast dieselbe Strecke zur EIKE-Konferenz gefahren waren. Für die lange Fahrt nach Wien könnten sich auch dieses Jahr Gleichgesinnte auf derselben Route treffen.

Daher hier von uns die Anregung, Benzingeld (und CO2 🙂 ) einzusparen, indem man gemeinsam fährt. Bitte schreiben Sie, geneigter Leser, in die Kommentare, von wo aus Sie losfahren, und an welchen Punkten Sie andere EIKE-Gäste aufnehmen können. Oder, wenn Sie mitfahren wollen, von welcher (Groß-)Stadt es losgehen soll.

Ihre Emailadressen sind im Kommentarbereich nicht sichtbar, aber wir können sie ja lesen und per Einzelmail an die Mitfahrinteressenten schicken.

Wenn Sie sich im Kommentarbereich gar nicht „outen“ wollen, schreiben Sie bitte eine Mail an leserreporter@eike-klima-energie.eu – wir vermitteln Sie dann!

Einen Anbieter aus dem Raum Köln/Kalkar haben wir schon – zwei Plätze noch frei!




Irrungen um die Flut im Saarland

Von Frank Bosse

Es war mal wieder so weit: Es gab Starkregen da, es gab Überflutungen und schon ist die Ursache klar: Der Klimawandel. Wenn wir weniger CO2 emittieren würden, z. B. mit einem Tempolimit auf Autobahnen, wäre die Flut ausgeblieben, so einige Thesen. Man könnte darüber hinweg gehen, wenn nicht Politiker in hoher Verantwortung ähnlich argumentieren würden. Kathrin Henneberger, Mitglied des Bundestages für die Grünen und „Klimapolitikerin“ entwickelt ihre Gedanken und „Lösungen“ auf „X“, vormals Twitter.  Sie führt u.a. aus:

„Wenn die Temperatur der Erdatmosphäre steigt, kann auch mehr Feuchtigkeit gehalten werden. Um sieben Prozent pro Grad Celsius steigt die Aufnahmefähigkeit von Wasserdampf in unserer Luft. …Besonders kommt es durch die Klimakrise zu heftigem Niederschlag innerhalb kürzester Zeit. Dies führt zu Hochwasser und damit zu Überflutungen.“

Was ist dran an dieser rein thermodynamischen Ursache? Sie führt das Gesetz von Clausius Clapeyron (CC) als DIE Ursache für das aktuelle Hochwasser an: Ein Grad höhere Temperaturen führt zu 7% mehr Aufnahmevermögen von Wasserdampf der Atmosphäre. Bedingung ist dabei natürlich, dass auch so viel Wasser zum Verdunsten zur Verfügung steht. Das ist über Ozeanen stets der Fall, bei Landmassen wird es komplexer. So einfach scheint es also nicht zu sein. Man kann auch mit Beobachtungen die These: “Höherer Temperaturen= mehr Starkregenereignisse” überprüfen. Zwischen 1960 und den aktuellen Jahren erhöhte sich die Lufttemperatur im Deutschlandmittel um ca. 2°C. Nach der simplen Logik müsste sich damit nach CC ca. 14% mehr Wasser in der Atmosphäre befinden und die Starkregenereignisse sollten flächendeckend deutlich zunehmen. Das tun sie jedoch nicht:

Ein Bild, das Text, Screenshot, Reihe, Schrift enthält. Automatisch generierte Beschreibung

Das Diagramm wurde mit den täglichen Reanalyse- Daten von ERA5 erstellt. Es zeigt keinen Trend.

Die Starkregenereignisse werden nicht mehr. So einfach wie es sich Frau Henneberger (und damit wohl die Fraktion des Bundestages, die auch den Wirtschafts-u. Klimaminister stellt) vorstellt, ist es definitiv nicht. Vermutlich hat sie sich auch nicht so intensiv mit der Materie befasst, dafür gibt es ja Spezialisten, die da beraten. Einer davon, Özden Terli vom ZDF -Wetter, meldete sich zu Wort ursprünglich in der „Saarbrücker Zeitung“, da war das Interview jedoch schnell wieder verschwunden oder hinter einer Paywall und für den Nicht-Abonnent nicht mehr auffindbar. Es ist jedoch weiterhin zu lesen. Die Überschrift ist schon mal seltsam:

„Zu sagen, dass es früher gab es auch schon Hochwasser gab, ist extrem fahrlässig“.

Keine Hochwasser früher? Die Saarbrücker Zeitung schrieb zum Zeitpunkt des Maximums des aktuellen Hochwassers:

 Beim Jahrhunderthochwasser im Jahr 1947 stieg die Saar bis auf über zehn Meter, damals konnte man den St. Johanner Markt mit Booten befahren. Normalerweise liegt der Pegel an der Messstelle St. Arnual bei um die zwei Meter. Am Freitagnachmittag hat er die Fünf-Meter-Grenze bereits überschritten…“

Höhere Wasserstände als bei der aktuellen Flut in der Vergangenheit waren schlicht eine Tatsache, die Erwähnung einer solchen ist wohl nur in Terlis Welt „extrem fahrlässig“. Auch der Inhalt ist fragwürdig. Er referiert als Quelle des Wassers in der Luft über dem Saarland das (westliche) Mittelmeer:

„Es ist normal und natürlich, dass sich die Mittelmeerregion im Frühling, Frühsommer und Sommer mehr aufheizt als unsere Regionen, weil sich dort eher Hochs ausbilden. Aber dadurch, dass sich das Temperaturniveau insgesamt erhöht hat und es am Mittelmeer wärmer ist als früher, heizt sich auch das Wasser mehr auf und warme Luft kann zudem mehr Feuchtigkeit aufnehmen. Die physikalischen Parameter wirken sich einfach extremer aus: Mehr Wärme, mehr Feuchtigkeit, mehr Regen. Je nachdem, wie die Wetterlage ist, kann es zu extremen Unwettern kommen wie letztes Jahr in Griechenland, aber diese aufgeladene Luftmasse zieht auch mal nach Deutschland. Die Folgen sind katastrophal, wie man sieht.

Wie warm ist denn das Mittelmeer? Ein Vergleich:

Ein Bild, das Text, Karte, Diagramm, Screenshot enthält. Automatisch generierte Beschreibung

Oben die aktuellen Meerestemperaturen (ihre Abweichung von den Werten der Jahre 1980-2010) aktuell (Mai 2024) und unten im August des Vorjahres. Gegenwärtig beträgt die Anomalie +0,4-0,8 °C, damals waren es zum Teil über +2 °C und im August 2023 gab es definitiv keine Überflutungen im Saarland. So einfach ist es offensichtlich nicht. Terli kommt auch auf den tatsächlich wohl viel wichtigeren Punkt als die reine Thermodynamik zu sprechen: die Atmosphärendynamik. Er führt dazu aus:

„Es gibt wenig Wind, der das Tief wegführen könnte. Die Zugbahn ist schon ungewöhnlich, normalerweise kommen die Tiefs vom Westen, dieses aber von Süden. Auch diese Veränderung in den Strömungen, also wie Tiefs ziehen, ist auch auf die globale Erhitzung zurückzuführen. Dazu gibt es bereits eine ganze Menge wissenschaftliche Studien. Es hängt mit dem Jetstream, also extrem starken Windströmungen in acht bis zwölf Kilometern Höhe, zusammen, der übrigens derzeit abwesend ist, dementsprechend zieht das Tief auch kaum. Aber es ist festzustellen, dass der Jetstream häufiger mäandert, wodurch Luftmassen an Orte gelangen, wo sie normalerweise nicht hingehören.“

Aha, der durch den Klimawandel veränderte Jetstream ist also der wahre Übeltäter! Welche Studien meint er, die da die „klimawandelbedingte Verlangsamung und Mäanderung“ zeigen? Bestimmt solche wie Mann et al. (2017), die Thesen der Verlangsamung durch die bodennahe arktische Verstärkung der Erwärmung und damit geringere Temperaturdifferenz Arktis-Tropen aufstellten. Das Problem daran ist, dass es in der Arktis tatsächlich nur bodennah wärmer wird als in den Tropen, in der Höhe des Jetstream jedoch nicht. Modere Forschung von Ende 2023 findet also wie erwartet das Gegenteil: einen leicht schnelleren Jetstream mit dem Klimawandel. Auch mit dem Nachweis des stärkeren Mäanderns mit dem Klimawandel tun sich aktuelle Beobachtungen sehr schwer.

Auch hier hält der Artikel von Terli einer kritischen Prüfung nicht stand. Er sammelt auf, was ihm passt, auch wenig aktuelle Thesen, um zu „eindeutigen“ Schlüssen zu kommen. Man sollte ihm zurufen, was Einstein einmal formulierte:

„Halte es einfach, aber nicht zu einfach.“

Die wahren Ursachen der Mai-Flut im Saarland sind viel komplexer. Die Atmosphärendynamik ist schon immer hoch variabel wie der Jetstream selbst, voller Zufälle und Änderungen keineswegs so eindeutig der zweifellos nach 1980 erfolgten Erwärmung zuzuschreiben. Es ist mit Sicherheit am Ende ein Strauß von Ursachen, möglicherweise spielte der Klimawandel auch eine kleine Nebenrolle, nicht so einfach zu finden. Er war jedoch mit Sicherheit nicht DER GRUND. Wenn uns da Politik und „Experten“ eine falsche Sicherheit vermitteln wollen, so muss man sehr vorsichtig sein. Es ist dann nur eines sicher: Es ist keine Wissenschaft.

Der Beitrag erschien zuerst bei Klimanachrichten.de hier

 




Die Falschmesser vom Deutschen WetterDienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt – Teil 2

Teil 1 steht hier.

„We own the science and we think that the world should know it.“ UN Under-Secretary General for Global Communications Melissa Fleming beim WEF im Oktober 2023

Teil 2: Das derzeitige (autom.) Messsystem des DWD, basierend auf dem Messfühler Pt 100, gibt die Deutschlandtemperatur, im Vergleich, der bis zur Jahrtausendwende üblichen Temperaturmessung mit Quecksilberthermometer, um +0,8°C zu hoch an.

Von Raimund Leistenschneider, Matthias Baritz, Josef Kowatsch

Die Beweisführung erfolgt mit den Datensätzen und den Arbeiten vom/beim DWD.

Aber wie kann man denn aus Tagesmaxwerten der Temperatur den Tagesmittelwert errechnen? Und die Vergleichsmessungen der Diplomarbeit, aus der in der Berliner Wetterkarte berichtet wurde, erfolgten doch bloß an einer einzigen DWD-Messstation, der von Lechfeld. Wie kann man denn daraus auf ganz Deutschland den Jahresmittelwert der Temperatur berechnen? Dass sind doch viel zu viel Unbekannte, ohne jedweden Anhaltspunkt. Dass geht doch gar nicht, werden jetzt einige entgegnen. Die Antwort: Es geht doch! Man muss „nur“ den richtigen Lösungsweg finden.

Dafür nehmen wir zuerst ein Referenzmessnetz, welches in Bezug der Jahresmitteltemperatur für Deutschland (um die geht es) so exakt wie möglich das DWD-Messnetz, mit über 2.000 Messstandorten abbildet. Herr Baritz hat das passende gefunden, welches 50 Messstandorte beinhaltet:

Abb.10, Quelle: M.Baritz, zeigt die Jahrestemperatur für Deutschland vom DWD (rot) und im Vergleich dazu in blau, wie exakt das von den Autoren verwendete Referenzmessnetz der o.g. 50 Messstandorte, die DWD-Daten für Deutschland wiedergibt. Da die Diplomarbeit die Vergleichsjahre 1999 – 2007 beinhaltet, der Datenvergleich in Abb.11.

Abb.11, Quelle wie Abb.10, zeigt den Vergleich mit den vom DWD veröffentlichten Werten (rot) im Zeitraum der Diplomarbeit von 1999 – 2007 und rechts die Vergrößerung. Die Abweichung beträgt 0,1°C – 0,2°C. Im gesamten Vergleichszeitraum beträgt der Unterschied (Fehler) nicht einmal 2,5%, was statistisch einen sehr guten Wert darstellt.

Übrigens weit besser, als der vom IPCC veröffentlichte Wert von angeblich 90%-Sicherheit, dass der Klimawandel (Klimaerwärmung, Klimanotstand, etc.) vom Menschen gemacht sein soll. Unsere Aussage, die wir aus dem Referenzmessnetz erarbeiten, ist also fast 5-mal besser (!), als die o.g. IPCC-Aussage.

Wir möchten an dieser Stelle darauf hinweisen, dass alle verwendeten Temperaturdaten, Originaldaten des DWD sind und zwar Mittelwerte der Rasterfelder von Deutschland mit einer Auflösung von 1km, also Gebietsmittel.

Vorgehensweise / Lösungsweg

– Wir haben die (knapp) 9 Basisjahre der Untersuchungen von Lechfeld: 1999 – 2007

– Ebenfalls gegeben sind die Abweichungen bei den Höchsttemperaturen im Betrachtungszeitraum von 1999 – 2007 von +0,93°C bei den Messungen mit dem neuen Messverfahren (Pt 100) gegenüber dem alten (bis etwa zur Jahrtausendwende) Messverfahren mit Quecksilberthermometer

– Unser Referenzmessnetz bildet, in Bezug der Jahresmitteltemperatur (um die geht es), das DWD-Messnetz mit einer Genauigkeit von fast 98% richtig ab.

– Von dem Referenzmessnetz werden für die Jahre 1999 – 2007 die Mittelwerte der Tages-/Jahres-Höchsttemperatur gebildet, sowie die einzelnen Jahresmittelwerte der Temperatur.

– Deutschland hat eine Klimazone. Wird der küstennahe Bereich der Nordsee dazugezählt, 2 Klimazonen. Im Wesentlichen jedoch eine einzige Klimazone (Abb.12).

Abb.12 Quelle, zeigt die Klimazonen Europas. Was hat dies mit dem Lösungsweg zu tun?

– Von den mittleren Jahreshöchstwerten und den Jahresmitteltemperaturen wird deren Verhältnis für die Stationen im Referenzmessnetz gebildet*3).

– Da Deutschland im Wesentlichen in einer Klimazone liegt, stehen Höchst- und Mittelwerte in einem engen Verhältnis zueinander — deren Verhältnisse unterscheiden sich nur wenig.

– Daraus wird für alle Referenzstationen das mittlere Jahresverhältnis der Jahre 1999 — 2007 gebildet.

– Mit diesem mittleren Verhältnis, wird die Abweichung bei den Jahresmittelwerten von Lechfeld (Diplomarbeit) für die Jahre 1999 – 2007 berechnet. Nochmals zur Erinnerung: Sowohl beim Pt 100, als auch beim Quecksilberthermometer, handelt es sich um lineare Werte und der Pt 100, dessen physikalische Eigenschaften, ist es gleich, ob sie bei Höchstwerten oder niedrigeren Werten als dem Höchstwert messen.

– Dies sind +0,64°C, bei denen der Pt 100 bei den Jahresmittelwerten, im Vergleich zur früheren Messung mit Quecksilberthermometer, in Lechfeld zu hoch misst.

Aufgrund der Linearitäten ist es nur noch ein Dreisatz zu errechnen, wie hoch der Fehler bei den Deutschlandmittelwerten für die Jahre 1999 – 2007 ist:

– Berechnung des Fehlers bei den Deutschlandmitteltemperaturen: Jahresmittel des Referenzmessnetzes (9,1°C) / Jahresmittel Lechfeld (8,6°C) x Fehler Lechfeld bei den Jahresmittelwerten (0,64°C)*³

*³) Für die Leser, die die Verhältnisbildung von Temperaturen als prinzipiell kritisch ansehen. Dies ist nur dann der Fall, wenn im Nenner und Zähler unterschiedliche Vorzeichen stehen. Was bei den Deutschlandmittel-, sowie den Deutschlandhöchstwerten nicht der Fall ist. Da wird ausschließlich mit positive Werten gerechnet.

Der Fehler bei den Deutschlandjahresmittelwerten beträgt +0,7°C. Fehlertoleranz: Knapp 2,5%

Daraus folgt: Dass von uns ermittelte Ergebnis stimmt mit einer Genauigkeit von mehr als 97,5%.

1. Ergebnis

Dadurch, dass der DWD das neue Messverfahren mit Pt 100 eingesetzt hat, hat sich die gemessene und daraus ermittelte Jahresmitteltemperatur für Deutschland, im Zeitraum 1999 – 2007, um +0,7°C erhöht, obwohl sich an der Temperaturen selbst überhaupt nichts geändert hat!

Nun möchten wir aber wissen, wie hoch denn der Fehler bis zum Jahr 2023 ist? Dazu benutzen wir eine weitere Erkenntnis / weiteres Ergebnis, der Diplomarbeit beim DWD. Daraus ist Abb.13.

Abb.13, Quelle: „Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“ zeigt zur mittleren Abweichung der Tageshöchsttemperaturen, die Sonnenscheindauer. Denn die Diplomarbeit hat herausgefunden, dass insbesondere bei hoher Sonnenscheindauer, der Pt 100, gegenüber dem Quecksilberthermometer, zu hoch misst!

Halten wir daher fest:

– Insbesondere bei hoher Sonnenscheindauer, misst der Pt 100, gegenüber dem Quecksilberthermometer, zu hohe Werte.

– 2003 wird, da 2003 ein Jahrhundertsommer war, als Bezugspunkt gewählt und ermittelt, wir die Änderung der Sonnenscheindauer 2003 – 2006 gegenüber de Untersuchungsjahren davor war. Die Erhöhung liegt bei +4,4%.

– Weiter wird der „Hebel“ ermittelt, den die erhöhte Sonnenscheindauer auf die Abweichungen bei den Tageshöchstwerten hat. Dies sind 18,4%.

Zwischenergebnis

Die Erhöhung der Sonnenscheindauer in Lechfeld um 4,4%, erhöht die Abweichung bei den Höchsttemperaturen um 18,4%.

– Nun ermitteln wir die Sonnenscheindauer unseres Referenzmessnetzes für die Jahre 1999 – 2007 und vergleichen diese mit der Sonnenscheindauer der Jahre 2015 – 2023 (selber Zeitraum). Wir erinnern uns an die Aussagen des DWD, dass die Sonnenscheindauer in den letzten Jahren zugenommen hat (hier).

– Die Sonnenscheindauer hat in Deutschland (Referenzmessnetz) um 7%, im Vergleich zu den Jahren 1999 – 2007 zugenommen. Dies ergibt einen Hebel (Linearität) von 29% bei den Höchstwerten.

Abb.14, Quelle: M. Baritz, nach Daten des DWD, zeigt die Zunahme der Sonnenscheindauer (Sonnenstunden) von 1988 – 2023.

– Jetzt wird ermittelt, wie hoch der Hebel bei den Jahresmittelwerten ist. Dies sind 19,7%

Daraus ermitteln wir den Fehler, der daraus entsteht, dass sich in den letzten Jahren die Sonnenscheindauer erhöht hat. Dies sind +0,81°C.

2. Ergebnis

Aufgrund dessen, dass der DWD ein neues Messverfahren benutzt und die Sonnenscheindauer sich in den letzten Jahren erhöht hat, weist der DWD derzeit eine Jahresmitteltemperatur für Deutschland aus, die um +0,8°C zu hoch ist, im Vergleich zu den früheren (bis etwa zur Jahrtausendwende) Messwerten mit Quecksilberthermometer, obwohl sich an den Temperaturen selbst überhaupt nichts geändert hat!

Abb.15, Quelle: (bocholt-wetter.de) zeigt den Unterschied einer Thermohütte (links) zu dem heute vom DWD verwendeten , automatischen, elektronischen Messsystem (rechts). Leicht zu sehen, dass z.B. die Thermohütte deutlich mehr Innenraum aufweist und damit besser belüftet ist als die viel kleinere Lamellenbox, die direkt der Sonne ausgesetzt ist.

Viele unserer Leser kennen sicherlich Abb.16 oder ähnliche Abbildungen. Die Autoren hatten die Abb. in ihrem Artikel „Die Regenmacher vom Deutschen Wetterdienst oder, wie Temperaturen auf raffinierte Weise warm gemacht werden. Teil 2“ benutzt.

Abb.16, Quelle: ZDF-Mediathek, zeigt die ZDF-Wetterfröschin Katja Horneffer, wie sie am 10. Dezember, anhand der geschilderten DWD-Messdaten, den Zuschauern eine Grafik, ganz im Sinne der Klimalobbyisten, zeigt und die bemerkenden Worte dazu spricht: „Ja, dass waren die wärmsten elf ersten Monate eines Jahres, seit Beginn der regelmäßigen Wetteraufzeichnungen in Deutschland 1881.“

Nun hat (leider für die Klimalobbyisten) die Diplomarbeit beim DWD „Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“ noch eine weitere wichtige Erkenntnis erbracht (Abb.17):

Abb.17, Quelle: „Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“, zeigt, wie sich die Klimatage mit den Pt 100 Messungen verändern.

3. Ergebnis

Die Anzahl der „Heißen Tage“ (über 30°C) hat im Untersuchungszeitraum der 8 1/2 Jahre um 203% zugenommen. Die der Sommertage (über 25°C) hat um 28% zugenommen. Die der Eistage hat um 23% abgenommen (Stichwort: Wärmere Winter) und die der Frosttage leicht (15%) zugenommen. Dazu kommen wir noch.

Abb.18, Quelle: Berliner Wetterkarte, zeigt den Unterschied von Pt 100 Messfühler (rot) gegenüber Quecksilberthermometer (blau) am Tagesgang der Temperatur. Der elektronische Messfühler ergibt deutlich höhere Messwerte.

Wie sollen die Autoren nun Abb.16 nennen?

Abb.16 neu: Katja Horneffer bei der Verbreitung von Fake-News im Auftrag des ZDF. Die so markant in rot gehaltenen Temperaturen, basieren nicht auf realen Abweichungen vom langjährigen Mittel, sondern sind auf das geänderte Messverfahren des DWD, mittels Pt 100 Sensor, zurück zu führen.

Noch als Ergänzung zu der leichten Zunahme der Frosttage in Abb.17:

Abb.19, Quelle: „Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“, zeigt die Abhängigkeit der Schneebedeckungstage zur Differenz der Maximaltemperatur mit Pt 100 Messung. Das Chart spricht für sich!

Werte Damen und Herren der DWD-Führung, Sie kennen sicherlich die Aussage: Wer misst, misst Mist. Nun, dem ist nichts hinzuzufügen. Außer dass es ein Skandal ist, auf solchen Daten, eine nie da gewesene Abzocke und ausufernde Verbote aufzubauen!

Aber es kommt noch schlimmer!

Teil 3: Die statistischen Taschenspielertricks des DWD bei der mittleren Jahrestemperatur für Deutschland, in Kürze.

Raimund Leistenschneider – EIKE

Matthias Baritz, Naturwissenschaftler und Naturschützer

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger Klimaforscher

 




Die unbequeme Wahrheit über Kupfer: Auswirkungen auf die Elektrifizierungsziele

Charles Rotter, 19.05.2024, Wattsupwiththat.

Im unermüdlichen Streben nach einer umweltfreundlicheren Zukunft ist Kupfer ein entscheidendes Element und von zentraler Bedeutung für den geplanten Übergang zu erneuerbaren Energien und Elektrifizierung. Jüngste Erkenntnisse bringen jedoch ein gewaltiges Hindernis ans Licht: Die Kupfergewinnungsrate reicht nicht aus, um die ehrgeizigen Ziele der aktuellen Politik zu erreichen. Dieser Blogbeitrag beleuchtet dieses Dilemma, wie es im Bericht des Internationalen Energieforums (IEF) erläutert wird, und untersucht die umfassenderen Auswirkungen auf die Energiepolitik und die wirtschaftliche Stabilität.

Das Kupfer-Rätsel

Kupfer ist für die Herstellung von Elektrofahrzeugen (EVs) und die Entwicklung der Infrastruktur für erneuerbare Energien unverzichtbar. Der IEF-Bericht stellt die Herausforderung deutlich dar:

„Elektrofahrzeuge (EVs) benötigen wesentlich mehr Kupfer und andere Metalle als herkömmliche Fahrzeuge mit Verbrennungsmotor (ICE). Beispielsweise werden für die Herstellung eines Autos mit Verbrennungsmotor 24 kg Kupfer benötigt, während für die Herstellung eines Elektrofahrzeugs 60 kg erforderlich sind.“

Internationeales EnergieForum

https://www.ief.org/focus/ief-reports/copper-mining-and-vehicle-electrification#:~:text=To%20electrify%20the%20global%20vehicle,require%20negligible%20extra%20copper%20mining .

Allein diese Aussage bringt die enorme Nachfrage nach Kupfer auf den Punkt, die durch den Vorstoß zur Elektrifizierung getrieben wird. Da die Richtlinien vorschreiben, dass bis 2035 100 % der hergestellten Autos elektrisch sein müssen, wird die Belastung der Kupferversorgung noch deutlicher. Der Bericht quantifiziert diese Nachfrage weiter:

„Um dem Business-as-usual-Trend gerecht zu werden, muss in den nächsten 30 Jahren 115 % mehr Kupfer abgebaut werden, als in der Vergangenheit bisher gefördert wurde. Um die globale Fahrzeugflotte zu elektrifizieren, müssen 55 % mehr neue Minen in Produktion genommen werden, als sonst erforderlich wären.“

https://www.ief.org/focus/ief-reports/copper-mining-and-vehicle-electrification#:~:text=To%20electrify%20the%20global%20vehicle,require%20negligible%20extra%20copper%20mining .

Solche Zahlen unterstreichen die enormen Mengen an Kupfer, die zur Erreichung dieser Elektrifizierungsziele erforderlich sind. Die derzeitige Bergbaukapazität entspricht jedoch nicht dieser steigenden Nachfrage.

Bergbaurealitäten und wirtschaftliche Auswirkungen

Die Gewinnung und Verarbeitung von Kupfer sind zeitaufwändige und kapitalintensive Tätigkeiten. Die aktuellen Produktionsraten und die verfügbare Bergbautechnologie lassen darauf schließen, dass eine Steigerung der Kupferproduktion auf das erforderliche Niveau innerhalb der festgelegten Fristen nicht möglich ist. Die Ergebnisse der Studie deuten auf ein erhebliches Defizit bei der Deckung des Rohstoffbedarfs für die Elektrifizierungsagenda hin:

„Unter den heutigen politischen Rahmenbedingungen für den Kupferbergbau ist es höchst unwahrscheinlich, dass es genügend zusätzliche neue Minen geben wird, um bis 2035 100 % Elektrofahrzeuge zu erreichen. Die politischen Entscheidungsträger könnten erwägen, das Elektrifizierungsziel der Fahrzeuge bis 2035 von 100 % Elektrofahrzeugen auf 100 % Hybridfertigung zu ändern.“ ​.

https://www.ief.org/focus/ief-reports/copper-mining-and-vehicle-electrification#:~:text=To%20electrify%20the%20global%20vehicle,require%20negligible%20extra%20copper%20mining .

Diese Enthüllung lädt zu einer kritischen Prüfung der zugrunde liegenden Annahmen in politischen Rahmenbedingungen ein, die sich für einen schnellen und groß angelegten Übergang zu erneuerbaren Energien einsetzen. Es wirft auch relevante Fragen zur wirtschaftlichen Machbarkeit und langfristigen Nachhaltigkeit solcher Maßnahmen auf.

Die fragwürdige Prämisse einer grünen Zukunft

Der Drang nach einer grünen Zukunft wird oft als unvermeidlicher und notwendiger Weg dargestellt. Allerdings fehlt dieser ideologiegetriebenen Agenda ein solides Fundament. Der Übergang zu erneuerbaren Energien wird zwar als wesentlich dargestellt, ist jedoch mit praktischen Herausforderungen und wirtschaftlichen Belastungen verbunden, die häufig übersehen oder unterschätzt werden.

„Viele haben Bedenken geäußert, dass der Mangel an kritischen Bodenschätzen möglicherweise keine vollständige Elektrifizierung der globalen Fahrzeugflotte ermöglichen könnte und der Ressourcenbedarf für die Elektrifizierung von Fahrzeugen nur einen kleinen Teil des für den Übergang erforderlichen Bedarfs ausmacht.“

https://www.ief.org/focus/ief-reports/copper-mining-and-vehicle-electrification#:~:text=To%20electrify%20the%20global%20vehicle,require%20negligible%20extra%20copper%20mining .

Das Streben nach Nachhaltigkeit ist zu einem Schlagwort geworden, das keiner kritischen Auseinandersetzung unterzogen werden darf. Die angeblichen Vorteile einer grünen Zukunft sind bestenfalls spekulativ und beruhen auf der unbewiesenen Annahme, dass diese Bemühungen erhebliche Auswirkungen auf den Klimawandel haben werden. Im Gegensatz dazu sind die unmittelbaren und greifbaren Kosten – wirtschaftliche, soziale und ökologische – erheblich und werden oft ignoriert.

Umfassendere politische und strategische Überlegungen

Angesichts des engen Zusammenhangs zwischen der Kupferversorgung und der erfolgreichen Umsetzung der Elektrifizierungspolitik ist eine Neubewertung der Strategie erforderlich. Politische Entscheidungsträger müssen mehrere Faktoren berücksichtigen, wenn sie diesen Weg einschlagen wollen:

  1. Diversifizierung der Materialquellen : Investitionen in die Forschung, um alternative Materialien zu finden, die entweder Kupfer ersetzen oder seinen Einsatz in wichtigen Anwendungen reduzieren können.
  2. Erweiterte Recyclingprogramme : Implementierung robuster Recyclingsysteme zur Rückgewinnung von Kupfer aus veralteten Elektronik- und anderen Produkten, wodurch die Nachfrage nach Primärkupferabbau verringert wird.
  3. Internationale Zusammenarbeit : Eingehen strategischer Partnerschaften mit Ländern, die reich an Kupferressourcen sind, um eine stabile Lieferkette sicherzustellen.
  4. Technologische Innovation : Förderung von Innovationen in Bergbau- und Verarbeitungstechnologien zur Steigerung der Effizienz und Leistung der Kupfergewinnung.

 

Umwelt- und soziale Auswirkungen

Der Wettlauf um mehr Kupferabbau ist auch mit erheblichen ökologischen und sozialen Kosten verbunden. Verstärkte Bergbauaktivitäten können zu einer Verschlechterung der lokalen Umwelt führen, einschließlich Abholzung, Bodenerosion und Verunreinigung der Wasserressourcen. Darüber hinaus dürfen die sozialen Auswirkungen auf die Gemeinschaften in Bergbauregionen nicht übersehen werden, zum einen durch evtl. Umsiedelung und Verkehrsprobleme, [andererseits sind das oft auch die einzigen Arbeitsplätze]. Daher muss ein Gleichgewicht zwischen der Befriedigung materieller Bedürfnisse und der Wahrung von Umwelt- und Sozialstandards hergestellt werden.

Abschluss

Die im IEF-Bericht dargestellte Realität ist eine ernüchternde Erinnerung an die Komplexität, die der Übergang zu einer [angeblich] umweltfreundlicheren Wirtschaft mit sich bringt. Diese Situation verdeutlicht einen ironischen, ungezwungenen Fehler schlechter Planung und idealistischer Politik, angetrieben von einer optimistischen, aber unpraktischen Vision, ohne die Lieferengpässe bei kritischen Materialien wie Kupfer vollständig zu berücksichtigen. Darüber hinaus ist das Streben nach einer grünen Zukunft und nachhaltiger Entwicklung selbst ein unbegründetes ideologisches Unterfangen, das keine praktische Rechtfertigung hat und mit erheblichen Kosten verbunden ist.

Bei der Bewältigung dieser Herausforderungen ist es unerlässlich, eine ausgewogene Perspektive beizubehalten und die Notwendigkeit realistischer Zeitpläne und diversifizierter Ansätze zu erkennen. Der Diskurs um die hektische, schlecht durchdachte und ideologische Fantasie der „Klimapolitik“ muss sich weiterentwickeln, um diese harten Wahrheiten einzubeziehen und sicherzustellen, dass der Weg zur sogenannten Nachhaltigkeit sowohl machbar als auch verantwortungsvoll ist – oder im Lichte seiner zweifelhaften Grundlagen völlig neu überdacht wird .

Der vollständige Bericht kann hier heruntergeladen werden

HT/Clyde Spencer

https://wattsupwiththat.com/2024/05/19/the-inconvenient-truth-about-copper-implications-for-u-s-electrification-goals/

Übersetzt durch Andreas Demmig