Juni-Klimaerwärmung seit 1988 ja, aber nicht durch CO₂

Der hohe Wärmeinseleffekt der Wetterstation Weiden

Josef Kowatsch, Matthias Baritz

Der Juni ist der Monat, der sich seit der im Jahre 1988 beginnenden Erwärmung in Mitteleuropa am meisten erwärmt hat. Es gibt dafür natürliche Gründe, aber auch vom Menschen verursachte. Zu diesen Ursachen zählt der zunehmende Wärmeinseleffekt, der im Sommer und insbesondere beim Monat Juni besonders hoch ist.

Im Sommer und bereits ab Juni können deshalb vermeintlich ländliche Wetterstationen einen hohen zunehmenden Wärmeinseleffekt (WI) haben. Das wollen wir am Beispiel der DWD-Wetterstation Weiden/Oberpfalz zeigen. Beachte: Einen WI-Effekt haben alle Wetterstationen, unter WI-stark verstehen wir einen stark zunehmenden WI-Effekt. Siehe unser Beispiel aus dem letzten Artikel, Abb. 8. München Stadtmitte und Holzkirchen im Speckgürtel.

Wie erkennt man eine WI-starke DWD-Wetterstation?

Antwort: Eine WI-starke Station hat im Vergleich zum DWD-Schnitt seit 1988 vor allem im Sommer deutlich stärkere Temperatursteigungen, und zwar sowohl nachts, tagsüber als auch über den 24 Stundenschnitt

Wir müssen auch betonen, dass unsere Definition von WI-Effekt nicht gleichzusetzen ist mít dem reinen städtischen WI-Effekt, Abk. UHI

Die nächsten beiden Abbildungen wollen die Definition erklären.

Abb. 1a/b: Oben in grau die Höchsttemperaturen tagsüber, ganz unten in der Farbe Blau die Tmin-Temperaturen, die im Sommer meist kurz vor Sonnenaufgang auftreten.

Ergebnis: alle drei Graphen, also Tmax, Tmin und der Gesamttag, steigen bei der DWD-Wetterstation Weiden viel stärker als beim Deutschlandmittel.

Verkürzt könnte man sagen, Tag und Nacht wurden bei einer Wärmeinselstation viel wärmer als der DWD-Schnitt.

Bedingungen für eine Station mit stark steigendem Wärmeinseleffekt:

  1. Im Betrachtungszeitraum hat sich ein Ort in die einstige Grünfläche hinein ausgedehnt. Also mehr wärmespeichender Beton, sowie eine Bodenversiegelung durch mehr bebaute Fläche und Asphalt für Straßen. Dabei muss sich nicht einmal die Einwohnerzahl erhöht haben, aber die bebaute und versiegelte Fläche nahm zu.
  2. Die Trockenlegung des ganzen Landes seit Jahrzehnten, und zwar im Feld, im Wald, in den Wiesen und Fluren. Ganz Deutschland wird dadurch schleichend trockener, insgesamt stellen wir eine zunehmende Versteppung Deutschlands in den Sommermonaten fest.
  3. Vermehrter Straßenbau in freier Landschaft, die grauschwarzen Asphaltbänder wirken wie ein Wärmeband quer durch die Landschaft, Temperaturen im Sommer bis 50°C.
  4. Umstellung der Messmethoden, die Wetterstation muss jetzt ganztägig in der Sonne stehen, das war bei der Erfassung in der Wetterhütte nicht immer der Fall. Alle DWD-Stationen sind inzwischen umgestellt.
  5. eine mögliche Änderung der Homogenisierungsart, also eine stärker erwärmende Datenbearbeitung der gemessenen Werte durch den DWD.
  6. Die Sonnenstundenzunahme und die Strahlungsintensitätszunahme, ein trockener Boden erwärmt sich besonders
  7. Der Niederschlagsverlauf, weniger Niederschlag heißt auch weniger Verdunstungskälte.
  8. Standortwechsel, mit der Umstellung auf die neuen Messmethoden erfolgte nahezu bei allen DWD-Stationen ein Standortwechsel, da der alte Wetterhüttenstandort die neuen Bedingungen meist nicht erfüllen konnte.

Übertragen wir diese Punkte auf Weiden.

Punkt 1 trifft weniger zu, da die Wetterstation eh außerhalb und zwar südlich des Ortes steht. Folgende Bilder sollen dies verdeutlichen.

Abb. 2a: Die Stadt Weiden liegt nordwestlich der Wetterstation. Diese befindet sich direkt neben der Bundesstraße 22, die sich just in Stationsnähe asphalterweiternd aufspaltet.

Zwei Spuren führen aus der Stadt raus nach Süden und drei Spuren an der Wetterstation vorbei in Richtung Weiden, dazu noch unmittelbar vor dem eingezäunten Wetterstations-Gelände ein breiter asphaltierter zweispuriger Grüner Plan Weg.

Abb. 2b: Zwei Spuren Bundesstraße Richtung Norden und zusätzlich die Abbiegespur nach Weiden. Direkt vor der Station der breite grüne Planweg. Der Hang ist leicht geneigt und entwässert nach links ins Tal. Man beobachte auch das schützende Gebäude direkt bei den Wetterstations-Elementen.

Diese insgesamt 7 Straßen-Wärmebänder erwärmen sich infolge der hoch stehenden Junisonne besonders stark und die sommerliche Versteppung des Bodens beginnt unmittelbar daneben. Zudem steht das Haus im Norden der Wetterstation und staut den warmen sommerlichen Südwind auf. Umgekehrt werden sommerliche Nordwetterlagen abgeschirmt, natürlich auch durch die Häuser des Stadtteils, der danach beginnt.

Die Sonnenstundenzunahme in Deutschland und in Weiden

Abb. 3a/b: Die beiden Steigungslinien sind etwa gleich, somit hat Weiden keinen Orts-Erwärmungsvorteil durch mehr Sonne im Betrachtungszeitraum.

Der Niederschlag im Vergleich: Deutschland links

Abb.4a/b: Im Raum Weiden haben die Juniniederschläge im Vergleich zu Gesamtdeutschland deutlich nachgelassen, damit ging auch die Verdunstungskälte in den Sommermonaten stark zurück. Eine notwendige Voraussetzung für eine starke Erwärmung der Luft über dem Boden vor allem tagsüber. Das Digitalthermometer der Wetterstation reagiert prompt nach oben.

Unsere Vorhersage: Die Wetterstation Weiden auf 400 m Höhe ist geeignet für sommerliche DWD-Spitzentageswerte.

Punkt 4: Umstellung der Messmethoden.

Alle DWD-Stationen mussten auf die neuen Messmethoden umgestellt werden. Das führte wahrscheinlich insgesamt zu steigenden Temperaturen, ob dieser Punkt Weiden eine zusätzliche Erwärmung gegenüber dem Schnitt bringt, können wir nicht beurteilen.

Punkt 5: eine mögliche Änderung der Homogenisierungsart, also eine stärker erwärmende Datenbearbeitung der gemessenen Werte durch den DWD.

Ob das bei Weiden veranlasst wurde, können wir nicht beurteilen. Wir wissen aber, dass alle veröffentlichten Werte vom DWD nach einer eigenen Methode bearbeitet werden und nur diese werden veröffentlicht. Siehe die Mitteilung ganz links unten bei wetteronline.

Punkt 8: Die Station wurde im Jahre 2006 an den jetzigen Standort versetzt, um die neuen DWD-Normen zu erfüllen, insbesondere ganztägig in der Sonne.

Fazit: Alle Maßnahmen in der Summe führten seit 1988 zu einem stärker steigenden WI-Effekt des Standortes Weiden im Vergleich zum DWD-Schnitt, vor allem in den Sommermonaten. Im Winter sind die zusätzlich wärmenden Effekte viel weniger ausgeprägt, da sich die Straßenflächen weniger aufheizen und bei Temperaturen um 0°C eh kaum Wasser aus der Landschaft verdunstet und die Sonne weniger und auch weniger intensiv scheint. Insgesamt erwärmt sich der Winter in Weiden seit 1988 jedoch auch etwas stärker als der DWD-Schnitt.

Abb. 5a/b: insgesamt ähnlich, jedoch bei Weiden teilweise winters merkwürdige, nicht zu erwartende Temperaturverläufe. Hinweise auf Messunregelmäßigkeiten/Homogenisierungen?

Hinweise auf Messfragwürdigkeiten/Homogenisierungen bei Weiden? Den Eindruck kann man auch gewinnen, wenn man die Jahreszeit Frühling betrachtet

Abb. 6a/b. Frühlingsvergleich DWD-Deutschland und Weiden. Insbesondere die nächtlichen Tiefsttemperaturen sind positiv, beim DWD dagegen fallend. Der Frühling wird in Deutschland nachts kälter. In Weiden nicht. T-Min zeigt bei allen drei Grafikvergleichen eine höhere Steigung als beim DWD. Woher kommt die sich steigernde nächtliche Zusatzwärme, insbesondere auch beim Monat Juni?

Zusammenfassung:

Der neuzeitliche Klimawandel begann in Deutschland und Mitteleuropa im Jahre 1988. Je nachdem wo die DWD-Wetterstationen stehen, ergeben sich mehr oder weniger starke Temperatursteigerungen, die sich auch noch deutlich unterscheiden, wenn man die nächtlichen Tiefst- und die Tageshöchsttemperaturen mit vergleicht.

Bei allen deutschen Wetterstationen hat seit 1988 bis heute ein zunehmender Wärmeinseleffekt mitgewirkt, der die Temperaturen mit nach oben treibt. Ob eine Wetterstation einen großen zunehmenden WI-Effekt hat, zeigt sich vor allem in den Sommermonaten durch Vergleich mit dem DWD-Schnitt. Alle drei Temperaturgraphen liegen bei Weiden deutlich darüber.

Wir wollten zeigen, die im Jahre 1988 begonnene Erwärmung, die man Klimawandel nennt, hat natürliche Gründe und vom Menschen verursachte. Die Zunahme der Wärmeinseleffekte bei den Deutschen Wetterstationen ist anthropogen verursacht, aber natürliche Faktoren wie Sonne oder Niederschlag verstärken den WI-Effekt. Natürliche Ursachen der allgemeinen Erwärmung sind die Zunahme der Südwetterlagen ab dem Jahre 1988.

Was bleibt noch übrig für CO₂ als angeblicher Erwärmungstreiber seit 1988? Antwort: gar nichts, denn CO₂ kann vor 1988 nicht abkühlend wirken, und dann aufgeschreckt durch einen Zeitzünder ab 1988 (1988 = Gründung des Weltklimarates) bis heute plötzlich stark erwärmend. Und auch noch unterschiedlich stark zwischen Tag und Nacht!! Solche Gaseigenschaften gibt es nicht! Die nächste Grafik zeigt uns den plötzlichen Juni-Temperaturwechsel im Jahre 1987/88

Abb. 7: Wie überall in Mittel- West- und Nordeuropa begann der Klimawandel im Jahre 1987 auf 1988. In Weiden haben sich vor allem die Tageshöchsttemperaturen sehr stark verändert. Auch das ist ein Hinweis auf einen stark wachsenden WI-Effekt bei der Station seit 1988.

Weiden bestätigt das, was wir seit einigen Jahren betonen, und zwar, der WI-Effekt nimmt am Stadtrand meist stärker zu als in der Stadtmitte oder in der Stadt ist die Zunahme des WI-Effektes weitgehend ausgereizt.

Wenn wir von einer WI-starken Station reden, dann meinen wir eine starke Zunahme des WI-Effektes

Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die politisch inszenierte Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Kohlendioxid ist nicht der Temperaturregelknopf fürs Klima, sondern diese Behauptung des geldsüchtigen Klimakartells ist ein Geschäftsmodell.

Kurz: Klimawandel und Erwärmung ja, aber erst seit 1988, CO₂ hat nichts damit zu tun.

Ein Umdenken bezüglich Kohlendioxid in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der weltweit verlogenen linksgrünen Klimapolitik ein Ende zu bereiten. Dieses „Grün“ hat nichts mit einer notwendigen Naturschutz- und Umweltpolitik zu tun. Die Klimapolitik will unser Land, unsere Kultur-Landschaft und unseren Wohlstand zerstören.

Sauberes Wasser, saubere Luft, eine erholsame abwechslungsreiche Landschaft mit einer intakten Fauna und Flora mit ausreichend, und zwar mit mehr Kohlendioxid in der Atmosphäre als derzeit ist gut für den Erhalt der Schöpfung. Der optimale CO₂-Konzentationsbereich für das Leben auf der Erde muss endlich wissenschaftlich erforscht werden. Er dürfte gut doppelt so hoch sein wie derzeit.

Josef Kowatsch, Naturbeobachter, Naturschützer und unabhängiger, weil unbezahlter Klimaforscher, außerdem in Rente und von keinem Arbeitgeber abhängig.

Matthias Baritz, Naturwissenschaftler und Naturschützer

 




Net Zero kommt den Steuerzahler mit 800 Milliarden Pfund zu stehen

Will Jones via THE DAILY SCEPTIC

Die Umstellung Großbritanniens auf eine Netto-Null-Wirtschaft wird den Steuerzahler in den nächsten zwei Jahrzehnten mehr als 800 Milliarden Pfund kosten, so die britische Finanzaufsichtsbehörde OBR. Aber selbst dies beruht auf unplausibel großzügigen Annahmen, sagen Kritiker. Der Telegraph schreibt:

Nach Angaben des Office for Budget Responsibility (OBR) werden die Pläne der Regierung zur Begrenzung des Klimawandels die öffentlichen Haushalte bis mindestens 2051 jährlich 30 Milliarden Pfund kosten, da die Steuereinnahmen aus dem Verkauf von Benzin und Dieselkraftstoff versiegen.

Darin enthalten sind jährliche Ausgaben in Höhe von fast 9,9 Mrd. Pfund für technische Investitionen – z. B. für die Modernisierung des Stromnetzes – sowie 20,5 Mrd. Pfund an Einnahmeverlusten, die sich aus dem Rückgang der Kraftstoffsteuer für Benzinfahrzeuge ergeben, da Elektrofahrzeuge (EV) immer häufiger eingesetzt werden.

Investitionen in umweltfreundliche Technologien werden anfangs den größten Teil der Netto-Nullkosten ausmachen, bevor die entgangenen Steuereinnahmen der größere Faktor werden, so das OBR.

„Im nächsten Jahrzehnt machen die Ausgaben den Großteil der fiskalischen Kosten aus, insbesondere die öffentlichen Investitionen in Wohngebäude, Umzüge und den Landverkehr, die ab 2036 bis 2037 zurückgehen“, so der Bericht.

Obwohl die Summen beträchtlich sind, wurden die fiskalischen Kosten von Net Zero seit der letzten Überprüfung durch das OBR im Jahr 2021 von 1,1 Billionen Pfund nach unten korrigiert. Die Aufsichtsbehörde begründete dies mit dem Einfrieren der Kraftstoffsteuer, was zu geringeren Einnahmeausfällen führte, und einer unerwartet hohen Verbreitung von Elektrofahrzeugen.

Sie geht auch davon aus, dass die Regierung weniger für den Übergang ausgeben wird, nachdem der Ausschuss für Klimawandel die Kosten für die gesamte Wirtschaft nach unten korrigiert hat.

Die vollständige Lektüre lohnt sich.

David Turver kritisiert das OBR, weil es die Zahlen des Ausschusses für Klimawandel für bare Münze nimmt, und weist darauf hin, dass der CCC zahlreiche unplausible Annahmen trifft, welche die offensichtlichen Kosten von Net Zero senken.

Aus den veröffentlichten Zahlen wissen wir, dass das CCC einige höchst unplausible Annahmen über die Abwälzung der Kosten für erneuerbare Energien auf die Gasrechnungen sowie über die Kosten und die Akzeptanz von Wärmepumpen getroffen hat. Die offensichtlichsten Fehler liegen jedoch in den fehlerhaften Schätzungen des CCC zu den Kosten der erneuerbaren Energien.

Der CCC geht davon aus, dass Offshore-Windkraft im Jahr 2030 weniger als die Hälfte des Wertes der Verträge kosten wird, die in der letztjährigen Zuteilungsrunde 6 für Offshore-Windkraftanlagen mit festem Boden vergeben wurden. Der Bedarf an schwimmenden Offshore-Windkraftanlagen, deren Kosten sechsmal höher sind als die für 2030 geschätzten Kosten, wird dabei völlig außer Acht gelassen. Die CCC-Schätzungen für die Kosten der Solarenergie für das Jahr 2030 lagen ebenfalls bei weniger als der Hälfte der in AR6 vergebenen Preise. Sie hat sich nicht einmal die Mühe gemacht, die Kosten für Onshore-Windkraft zu schätzen, obwohl die installierte Kapazität bis 2050 mehr als verdoppelt werden muss.

Auch hier lohnt es sich, das Ganze vollständig zu lesen.

Link: https://wattsupwiththat.com/2025/07/10/net-zero-to-cost-taxpayers-800-billion-warns-obr/

Übersetzt von Christian Freuer für das EIKE

 




Keine Meereis-Daten mehr: Klimaalarmisten geraten in Panik, aber ist es wirklich eine Krise?

Anthony Watts

Seit Jahren versuche ich bei Watts Up With That die überzogenen Darstellungen der Klimawissenschaft zu entlarven, insbesondere die Besessenheit mit dem Meereis als angeblichem „Kanarienvogel in der Kohlenmine“ für die globale Erwärmung. Der jüngste Space.com-Artikel vom 10. Juli 2025 mit dem Titel [übersetzt] „US-Militär schneidet Klimawissenschaftler von wichtigen Satellitendaten zum Meereis ab“ hat vorhersehbar eine alarmistische Rhetorik über den Verlust von Daten des vom Verteidigungsministerium betriebenen Special Sensor Microwave Imager/Sounder (SSMIS) geschürt.

In dem Artikel wird behauptet, dass die Wissenschaftler dadurch einen wichtigen Klima-Indikator aus den Augen verlieren. Wir sollten jedoch einen Schritt zurücktreten und untersuchen, warum dies vielleicht nicht die Katastrophe ist, für die es gehalten wird, und warum Meereisdaten im Großen und Ganzen nicht der Klima-Proxy sind, für den sie gehalten werden. Der Artikel auf Space.com beschreibt, wie das National Snow and Ice Data Center (NSIDC) an der University of Colorado in Boulder den Zugang zu den SSMIS-Daten verlieren wird, welche die Meereisbedeckung verfolgen. Der Artikel stellt dies als verheerenden Schlag dar und bringt den Verlust des Meereises mit dem katastrophalen Abschmelzen der Gletscher und dem Anstieg des Meeresspiegels in Verbindung, weist aber auch auf kommerzielle Vorteile wie kürzere Schifffahrtsrouten hin.

Der Artikel erwähnt die Umstellung des NSIDC auf die Daten des japanischen Advanced Microwave Scanning Radiometer 2 (AMSR2), befürchtet aber eine vorübergehende Datenlücke. Der Tonfall ist vorhersehbar düster: Die Entscheidung wird als Teil eines umfassenderen Angriffs auf die Wissenschaft dargestellt, mit Verweisen auf Haushaltskürzungen, die Bedrohung von NASA-Missionen und die Schließung wissenschaftlicher Einrichtungen (wie GISS).

Nun, lassen wir die Übertreibungen beiseite.

Das Meereis ist seit langem ein Aushängeschild für den Klima-Alarmismus, aber wie bei WUWT ausgiebig diskutiert ein fehlerhafter und verrauschter Indikator für den Klimawandel. Zunächst einmal ist das arktische Meereis, obwohl es unter dem Durchschnitt von 1979-2000 liegt, nicht wie vorhergesagt verschwunden. Seit dem bemerkenswerten Tiefpunkt im Jahr 2007 hat sich die arktische Meereisausdehnung auf einem neuen, niedrigeren Plateau stabilisiert, schwankt von Jahr zu Jahr, zeigt aber keine beständige Abwärtsspirale in Richtung eines „eisfreien arktischen“ Sommers, trotz endloser modellgestützter Vorhersagen und der Geschwätzigkeit von Al Gore.

Abbildung 1: Aus Satellitendaten abgeleitete Werte der sommerlichen minimalen arktischen Meereisausdehnung von 1979 bis 2023, wobei die gestrichelte Linie den linearen Trend anzeigt. Die hinzugefügte rote Trendlinie zeigt keine Veränderung der sommerlichen Mindestausdehnung seit 2007. Bildquelle: NSIDC. Rote Trendlinie von 2007 und Trendlinienbeispiele unter dem Titel hinzugefügt von A. Watts

Wir haben zum Beispiel darüber berichtet, dass das arktische Meereis seit fast 20 Jahren stabil geblieben ist. Das antarktische Meereis hingegen erzählt eine noch unbequemere Geschichte. Im Gegensatz zu Modellen, die einen Eisverlust in einer sich erwärmenden Welt vorhersagen, hat das antarktische Meereis vor allem in den letzten Jahren zugenommen. Wir haben 2014 darüber berichtet und festgestellt, dass das antarktische Meereis eine neue Rekordausdehnung erreicht hat. Dieses Wachstum steht im direkten Widerspruch zu der Behauptung, dass ein wärmerer Planet das Meereis generell schmelzen lässt, und entlarvt die allzu einfache Verknüpfung der Eisausdehnung mit der globalen Temperatur.

Aber noch schlimmer ist, dass, wie Willis Eschenbach bereits in der Vergangenheit hervorgehoben hat, selbst die Verluste an antarktischem Eis in dem viel größeren Bild des gesamten Eises in der Antarktis unbedeutend sind.

Abbildung 2: Vergleich der Satellitendaten für den antarktischen Eismassenverlust. Der kumulative Eismassenverlust auf der linken Seite und dieselben Daten im Vergleich zur gesamten Eismasse auf der rechten Seite. Datenquelle: http://imbie.org. Die Grafiken stammen ursprünglich von Willis Eschenbach und wurden von Anthony Watts angepasst und kommentiert.

Warum ist das Meereis ein so wackeliger Klimaproxy?

Wie wir schon lange argumentiert haben, wird es von weit mehr als nur der Temperatur beeinflusst. Windmuster, Meeresströmungen und natürliche Schwankungen wie die arktische Oszillation spielen eine große Rolle. Wir haben zum Beispiel erörtert, wie sich Änderungen der Windmuster auf das antarktische Meereis auswirken. In der Antarktis sind Änderungen der atmosphärischen Zirkulation, nicht nur der Temperatur, für die Eisvariabilität verantwortlich. Hinzu kommt, dass Meereisdaten mit Messproblemen behaftet sind – Probleme bei der Sensorkalibrierung, Satellitendrift und Algorithmusänderungen können die Ergebnisse verfälschen. Die Behauptung des Space.com-Artikels, der Verlust von SSMIS-Daten mache uns blind für den Klimawandel, ignoriert diese komplexen Zusammenhänge und geht davon aus, dass Meereis ein einfaches Kriterium ist, was es nicht ist.

Darüber hinaus ist die in dem Artikel geäußerte Panik über eine vorübergehende Datenlücke übertrieben, vor allem angesichts der Tatsache, dass NSIDC in der Vergangenheit Datenprobleme heruntergespielt hat, wenn es ihnen passte. Im Jahr 2009 schrieb ich über einen erheblichen Datenverlust beim NSIDC aufgrund eines katastrophalen Sensorausfalls an dessen Satelliten, der zu fehlerhaften Daten und einer Lücke in den Aufzeichnungen führte. Walt Meier vom NSIDC tat dies in Kommentaren als „nicht wert, darüber zu bloggen“ ab. Die Einzelheiten können Sie in meinem Artikel „George Wills Kampf mit hitzköpfigen Eisalarmisten“ nachlesen, in dem ich auf diese Heuchelei hingewiesen habe. Es ist schon komisch, dass eine Datenlücke damals keine große Sache war, aber jetzt ein ähnlicher Vorgang apokalyptisch ist.

Diese selektive Empörung untergräbt die Glaubwürdigkeit des NSIDC und unterstreicht die politisierte Natur ihrer Darstellung. Um die Prämisse des Artikels weiter auszuführen: Der Verlust der SSMIS-Daten ist für die Klimawissenschaft nicht besonders schädlich, weil Meereisdaten in dem von mir beschriebenen Kontext nur von begrenztem Nutzen sind. Es handelt sich um eine verrauschte, vielschichtige Messgröße, die nicht direkt mit der globalen Erwärmung oder dem CO₂-Gehalt korreliert. Andere Datensätze – wie globale Temperaturaufzeichnungen, der Wärmeinhalt der Ozeane oder sogar alternative Satellitenquellen wie AMSR2 – liefern zuverlässigere Erkenntnisse. Die Behauptung des Artikels, das Meereis sei ein „signifikanter Gradmesser für den Klimawandel“, überschätzt seine Bedeutung und ignoriert, wie natürliche Schwankungen und nichtklimatische Faktoren das Signal trüben. Wenn überhaupt, dann könnte die Entscheidung des Verteidigungsministeriums, militärischen Bedürfnissen Vorrang vor einer alarmistischen Darstellung zu geben, die Wissenschaftler dazu zwingen, sich auf zuverlässigere Messgrößen zu konzentrieren.

Der Artikel auf Space.com geht auch an den praktischen Gegebenheiten vorbei. Das Verteidigungsministerium hat seine eigenen Prioritäten – Schiffseinsätze, nationale Sicherheit – und ist nicht verpflichtet, die Forschung des NSIDC zu subventionieren. Die Umstellung auf AMSR2 erfordert zwar eine Kalibrierung, ist aber kein unüberwindbares Hindernis; die japanischen Daten sind bereits verfügbar und vergleichbar. Die in dem Artikel geäußerte Angst vor einem „blinden Fleck“ ignoriert, dass sich die Klimawissenschaft noch nie nur auf einen Datensatz verlassen hat. Vielleicht wird also eine Pause bei den Daten zu einer Neubewertung dieser fehlerhaften Vorhersagen führen. Sehen Sie sich auch die Berichterstattung über Modelle an, die bei Vorhersagen zum Meereis versagen.

Kurz gesagt, der Space.com-Artikel ist ein weiteres Beispiel für Klimaalarmismus, der sich als Wissenschaft ausgibt. Das Meereis ist nicht das Klimaorakel, als das es dargestellt wird, und der Verlust der SSMIS-Daten ist eher eine Unannehmlichkeit als eine Katastrophe. Das Eis in der Arktis hat sich stabilisiert, das Eis in der Antarktis hat zugenommen, und die natürliche Variabilität übertrumpft vereinfachende Erwärmungserzählungen. Wie wir bei WUWT schon seit Jahren sagen, ist die Klimageschichte viel komplexer als die Schlagzeilen vermuten lassen. Die Tatsache, dass das NSIDC in der Vergangenheit Datenlücken abgetan hat, wie ich bereits 2009 festgestellt habe, unterstreicht nur die selektive Hysterie, die hier im Spiel ist. Es ist an der Zeit, zu besseren Metriken und weniger Dogma überzugehen.

Zusatz von Charles Rotter:

Sieht man von dem politischen Theater und der Medienhetze ab, ist der wissenschaftliche Wert der obsessiven Beobachtung der täglichen Meereismengen bestenfalls marginal.

Beginnen wir mit der praktischsten Frage: Was lässt sich aus den täglichen Meereismessungen tatsächlich erkennen, was nicht schon aus den längerfristigen ozeanischen und atmosphärischen Daten bekannt ist? Meereis ist im Grunde ein Symptom – ein Endprodukt, das von Wind, Meeresströmungen und kurzfristigem Wetter ebenso stark oder stärker beeinflusst wird als von globalen Temperaturtrends. Das bedeutet, dass die täglichen Veränderungen eine verworrene Mischung aus Rauschen, kurzfristiger Variabilität und lokalen Bedingungen sind. Wenn man diese Schwankungen mit hoher Frequenz verfolgt, erhält man wenig verwertbares Wissen über das Klimasystem. Wenn überhaupt, dann schafft es mehr Verwirrung als Klarheit.

Wenn jemand polare Ökosysteme oder saisonale Tierwanderungen studieren will, kann das Wissen darüber, wann und wo sich Eis bildet oder schmilzt, sicherlich eine begrenzte biologische Bedeutung haben. Aber dies sind Nischenforschungsinteressen und rechtfertigen kaum die großspurigen Behauptungen, dass die tägliche Überwachung des Meereises für das Verständnis des globalen Klimas unerlässlich ist.

Wenn es um die Schifffahrt oder das Ressourcenmanagement geht, verlassen sich Schifffahrt und Industrie auf örtlich begrenzte, hochauflösende Daten in Echtzeit, nicht auf die Zahlen zur globalen Ausdehnung, die in Pressemitteilungen veröffentlicht werden. Die aggregierten Daten darüber, „wie viel Meereis heute vorhanden ist“, sind für praktische Entscheidungen in der Schifffahrt oder bei Bohrungen weder detailliert noch zeitnah genug.

Was die langfristige Klimawissenschaft angeht, so liegt der wahre Wert – wenn überhaupt – in Aufzeichnungen über mehrere Jahrzehnte, nicht in täglichen Messwerten. Selbst hier ist die Korrelation zwischen Meereis und globaler Temperatur nur schwach. Größere Schwankungen können unabhängig von Temperaturänderungen auftreten, wie sowohl in der Arktis als auch in der Antarktis wiederholt festgestellt wurde. Darüber hinaus sind die Aufzeichnungen selbst durch Veränderungen der Messtechnik, der Algorithmen und der Satellitendrift beeinträchtigt, so dass Vergleiche über Jahrzehnte hinweg mit Unsicherheiten behaftet sind.

Die Quintessenz: Die tägliche Aufzeichnung des Meereises liefert bestenfalls einen groben Hinweis auf das Geschehen in den Polarregionen, der durch natürliche Schwankungen und technische Beschränkungen stark gefiltert wird. Für die eigentliche Klimawissenschaft ist es eine höchst indirekte, verrauschte und unzuverlässige Messgröße – eine, die uns weniger über das Klima aussagt als über die Grenzen unserer Modelle und den ständigen Drang, eine einfache Antwort auf ein komplexes System zu finden. Der wissenschaftliche Wert ist daher minimal – vor allem, wenn man ihn mit der atemlosen Bedeutung vergleicht, die ihm oft beigemessen wird.

Zusammengefasst: Meereismessungen haben einen Nischennutzen, aber sie sind kein Orakel für das Klima oder die Politik. Ihr wissenschaftlicher Wert wird, abgesehen von der spezialisierten Polarforschung, überbewertet und oft als Stellvertreter für Argumente verwendet, für die es keine besseren Beweise gibt.

Link: https://wattsupwiththat.com/2025/07/10/sea-ice-data-cut-off-climate-alarmists-panic-but-is-it-really-a-crisis/

Übersetzt von Christian Freuer für das EIKE

 




CO2 und Wasserdampf, wie bei Lanz am 10.7.25 die Wissenschaft und damit die Interessen Deutschland auf den Kopf gestellt werden.

Von Michael Limburg

Es gab ein paar Tage in Deutschland, bei denen das Thermometer über 30 °C anstieg. In mancher Stadt (Urban Heat Island Effekt) sogar bis auf 39 °C. Für die Öffentlich-Rechtlichen Grund genug, mal wieder die Klimaleier zu spielen. Und das, obwohl für Juli haben, ein Sommermonat, wo schon des Öfteren Temperaturen über 30 ° gemessen werden manchmal auch deutlich höher, und sich fast alle Menschen, die in die Ferien fahren, und es sogar im Süden versuchen, und dort hoffen, dass es dort noch wärmer würde. Und diesen wenigen warmen Tage wurden benutzt, um hierzulande die Klimapanik anzuheizen. Wer sich das antun möchte, kann das hier tun, und ein sehr positive Kritik der Lanzschen Sendung finden Sie hier.

Diesmal hatte Lanz dazu geladen, den Tübinger Oberbürgermeister – ehemals Grüner- Boris Palmer, die Aktivistin Maja Göpel als Nachhaltigkeitsexpertin verkauft, der Klimaforscher Jochem Marotzke und der Welt Journalist Axel Bojanowski Geologe. Und wenn man dieser Sendung folgt, dann ist es mal wieder fast zu spät, jedoch meinen Marotzke und Bojanowski wir (d.h. vielleicht sie meinen Deutschland? Oder vielleicht Europa? Oder vielleicht die Welt?) hätten wohl noch genug Zeit, aber auf jeden Fall müssten die Emissionen massiv gesenkt werden. (Marotzke, Bojanowski, und die anderen auch).

Und Boris Palmer, seit 2006 Oberbürgermeister von Tübingen, meinte, man könne den „Klimaschutz“ nur mit der Wirtschaft hinbekommen, nicht gegen sie. Und führte als Beispiel dann ein Windrad an, dass mitten im Tübingen stünde, und – so sein stolzer Satz – der Stadtkasse jährlich 250.000 € einbrächten. Kein Wort verlor er darüber, wer denn diese 250.000 € für einen unbrauchbaren Flatterstrom bezahlen müsste. Nun wir können es hier nachholen, es sind wir, die Bürger!

Zum „Klimaschutz“ à la Marotzke und Bojanowski

Es ist eigentlich und immer wieder unglaublich, mit welch merkwürdiger Selbstverständlichkeit auch ein Mann wie Jochem Marotzke, als bedeutender Klimaforscher vorgestellt, davon ausgeht, dass wir

a) die Emissionen senken müssten, auf Netto Null versteht sich,

b, dass CO2 eine Verweilzeit von über 1000 Jahren hätte, und

c) dass auch Deutschland damit beginnen müsse.

Völlig ungeachtet der Tatsachen, und die sind alle messbar, dass es nicht die Emission ist, schon gar nicht das anthropogene CO2,  mit 1%-bis max. 5% max. der Gesamtemission, sondern die gesamte Konzentration sein soll, die das Klima erwärmt. Und die steigt ungehindert nach oben, der Lockdown 2020 (siehe weiter unten) zeigte das, ebenso zeigten die Kernwaffenexplosion der 60 Jahre des vorigen Jahrhunderts eindeutig, dass CO2 eine Verweilzeit von max. 40-50 Jahren, vermutlich deutlich weniger, hat, und Deutschland mit inzwischen nur 1,5 % an der anthropogenen CO2 Emission teilhat, und so fort.

Vor allen Dingen müssen auch Marotzke und auch der Bojanowsi wissen, dass Wasserdampf mit rd. 10.000-15.000 ppm in der Atmosphäre vorhanden, also 25 bis 35 x mehr als CO2 ist, zudem noch sehr viel breitere Banden hat, die auf Infrarot reagieren, und damit ein deutlich stärkeres Treibhausgas ist, als CO2. Man nimmt ihn nur deswegen nicht aufs Korn, weil, wie auch Rahmstorf und Schellnhuber und viele andere schreiben, wir es nicht beeinflussen können. [1].

Und das ist richtig.

Man nimmt also den Schwanz des Hundes, zupft dort ein paar Haare aus, wedelt damit, und glaubt dann, auch Marotzke und Bojanowski, dass man  mit dem Hund wedeln kann.

So dumm kann eigentlich niemand sein. Aber dumm sind sie ja wirklich nicht. Doch was ist es dann?

Ein Bild, das Text, Diagramm, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 1 Spektrale Empfindlichkeit von Wasserdampf auf jeweils 100 % Absorption bezogen

Man kann also feststellen, dass die Klimawirksamkeit des Wasserdampfes um ein Mehrfaches größer ist als beim CO2.

Doch beim CO2, wie schaut es da aus? Schauen wir mal weiter nach.

Die CO2 Emissionen

Lt. Pariser Klimaübereinkunft sollen die CO2 (äquivalent) Emissionen auf netto Null gesenkt werden. Bis 2050 und in Deutschland bis 2045. So lautet die hiesige Staatsdoktrin.

Doch es sind nicht die CO2 (äquivalent) Emissionen, die die Gegenstrahlung, welche wiederum die Erwärmung hervorruft, sondern die CO2 Konzentration.

Und die zeigt unverändert nach oben.

Völlig unabhängig davon, wie die menschliche CO2 Emissionen ist. Das beweist das Großexperiment mit CO2 Minderung durch den Corona induzierten Lockdown, der 2,4 Gt weniger CO2 in die Atmosphäre entließ. 2,4 Gt sind in etwa so viel wie die gesamte EU allein an CO2 erzeugt. Mit den Äquivalentgasen (also Methan, Lachgas etc. sind es ca. 3,00 Gt)

Videos die das zeigen sind

EIKE im Landtag Berlin: Michael Limburg im Klima-Ausschuß am 10.10.2024

EIKE im Landtag Berlin: Michael Limburg im Klima-Ausschuß am 31.08.2023

Bild 2 CO2 anthropogene Emissionen in GT

 

Bild 3 CO2 Gesamt Konzentration in ppm

Und weil das so ist, sich die Konzentration überhaupt nicht um die anthropogene CO2 kümmerte, muss man feststellen, dass das anthropogene CO2 sich deutlich im Unsicherheitsbereich des CO2 Kreislaufes bewegt. Und die hängt stark am Wasserkreislauf(5). Man glaubt zwar, dass es nur zwischen 1,2[2] bis max 5 % der Gesamtemissionen ausmacht. Die Unsicherheit insgesamt liegt aber bei 4 %. Es muss also eher bei 1% bis max 2 % sein, als die 5%,

Ein Bild, das Text, Karte, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 4: Kohlenstoffkreislauf nach Carbon Cycle Project; Quelle hier

Z.B. hier CO2 und Corona – update“ von Rob de Vos, oder hier „Kohlenstoff-Kreislauf“ von Clyde Spencer um nur die aktuelleren zu nennen.

Ein Bild, das Text enthält. Automatisch generierte Beschreibung

Bild 5: Mengenanteile des Kohlenstoffkreislaufes mit seinen Komponenten und Fehlerangaben. Herausgezogen sind die „anthropogenen“ Mengen.

Insbesondere Clyde Spencer hat sich daher die Fehlerangaben in Bild 4 angesehen und als Tabelle aufgeschrieben (Bild 5). Dabei kommt er zu dem Schluss (Hervorhebung von mir)

Zitat:

„Wie viel Prozent des jährlichen Beitrags von Kohlenstoff in die Atmosphäre ist anthropogen? Es ist, <8,8 (±0,1) / 216 (±2), oder <4,1%. Ein allgemein behaupteter Wert ist etwa 3%. Die größte Unsicherheit besteht darin, wie viel von der Kategorie „Entwaldung“ tatsächlich anthropogen ist. Der Punkt ist, dass wir die Summe mit mindestens einer Größenordnung weniger Genauigkeit kennen als die anthropogene Komponente.“ Zitatende

Aber das ist noch nicht alles. Denn in einer anderen offiziellen Veröffentlichung findet Spencer diese Angaben zu den Quellen und Senken:

Ein Bild, das Screenshot, Plan, Karte, Design enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 6 Schätzungen alternativer Kohlenstoff-Flüsse. Quelle University of Exeter (hier)

Und er kommentiert dieses Faktum trocken so:

Zitat:

Diese Grafik, (Abb. 6), ist noch problematischer. Sie zeigt oben einen jährlichen Anstieg von 240 ±10 pg. Eine andere Art der Darstellung ist 240 pg ±4%. Wenn ich die angezeigten Werte in eine Tabelle einfüge, kann ich aber nur 207 ±2 pg ausweisen! Wir sind nun mit einem Problem der Genauigkeit (Übereinstimmung zwischen den Schätzungen) sowie der Präzision (die Anzahl der signifikanten Zahlen) konfrontiert.

Wie ich es oben für Abb. 1 (Hier Bild 6) getan habe, folgt nun eine Tabelle mit den Schätzungen aus Abb. 2 (Hier Bild 5):

Ein Bild, das Text, Screenshot, Schrift enthält. KI-generierte Inhalte können fehlerhaft sein.

Wie dem auch sei, in diesem Fall ist der anthropogene Anteil 9 (±1) / 207 (±2), oder ≈4.%. Nehmen wir an, dass der angegebene Kohlenstofffluss (240 pg) und die damit verbundene Unsicherheit (±10 pg) korrekt sind und ich entweder etwas übersehen habe oder der Künstler, der die Illustration erstellt hat, etwas in der Illustration vergessen hat.  Die Unsicherheit (±10) ist gleich oder größer als der geschätzte gesamte anthropogene Beitrag, 9 ±1 pg.“ Zitatende

Methan sei ein wichtiges Treibhausgas.

In den Videos oben ist auch von der Sprengung der Gaspipeline aus Russland in der Ostsee am 22.9.22 die Rede. Inzwischen wissen wir, die USA waren es. Doch leider ist das ist in diesem Zusammenhang nicht interessant. Es entwichen dort 300 – 500 Mio m3 Methan (2-Tagesverbrauch in D)[3] was einem CO2 Äquivalent von mindestens 7,5 Mio Tonnen entspricht (1% der jährlichen Emission in Deutschland). Quelle UBA.

Wenn Methan also ein so „starkes“ Treibhausgas wäre, müsste sich über den vielen Leckstellen in der Luft über der Ostsee eigentlich eine Art Hitzepilz gebildet haben, ein Luftwärmemeer über der Ostsee. Angeblich wurde das Erdgas in einem Umkreis von mehreren Hundert Metern zunächst kaum verdünnt, breitete sich dann aber pilzförmig in alle Richtungen und nach oben aus und erreichte verdünnt schließlich auch die Atmosphäre über dem Festland. Methan ist in der Erdatmosphäre mit a. 1,8 ppm oder 1800 ppb (part per billion enthalten). Es soll aber eine Klimasensitivität haben, die 84 x kurzzeitig und 25 mal langfristig stärker ist, als das CO2. D.h. wenn kurzzeitig 300-500 Milionen m3 Methan in der Luft sind, müssen sie eine Klimasensitivität besitzen die mindestens 84 x höher ist[4], als die 0,042 Vol % CO2. Und Menge an Methan, die lag dann bei knapp 100 %, später weniger. Würde also die Treibhaustheorie stimmen, dann hätte die Luft über der Ostsee zu einem Wärmeluftmeer werden müssen!!!

Doch es wurde nicht wärmer, sondern leicht kälter.

Selten wurden so rudimentäre Unwahrheiten in der Klimawissenschaften so schnell widerlegt wie diese.

  1. Seite 44 Kindle Ausgabe des Buches Klimawandel
  2. Siehe dazu das Schreiben von Frau Dr.Claudia Golz, Umweltbundesamt, am 10.08.05
  3. Näheres dazu hier https://eike-klima-energie.eu/2024/09/25/vor-2-jahren-ungewollter-tagelanger-grossversuch-zum-treibhauseffekt-im-ostsee-und-anliegerraum-keinerlei-treibhauserwaermung-feststellbar/
  4. Seine kurzfristige Klimasensitivität ist etwa 84-87 mal so hoch wie die von CO2 über einen Zeitraum von 20 Jahren und etwa 28-34 mal so hoch über einen Zeitraum von 100 Jahren.
  5. Geologe Prof. Dr. Jan Veizer und der Israelische Astrophysiker Prof. Dr. Nir J. Shaviv (Hebrew University, Jerusalem) Himmlischer Treibhauseffekt
    Kosmische Strahlung bestimmt unser Klima
    RUB-Geologie: Treibhauseffekt durch kosmische Strahlung Shaviv, Nir J.; Veizer, Jan: Celestial Driver of Phanerozoic Climate? In: GSA Today, Vol. 13, No. 7, 1. Juli 2003, S. 4-10
  6. Celestial driver of Phanerozoic climate?

    Nir J. Shaviv, Racah Institute of Physics, Hebrew University of Jerusalem, Jerusalem,

    91904, Israel

    Ján Veizer, Institut für Geologie, Mineralogie und Geophysik, Ruhr Universität, 44780

    Bochum, Germany, and Ottawa-Carleton Geoscience Centre, University of Ottawa,

    Ottawa, Ontario K1N 6N5, Canada

 




Das Chaos der „erneuerbaren Energien“ in den USA ist in vollem Gange

David Wojick

Das große, schöne neue Steuergesetz schafft ein unschönes Schlupfloch, durch das Projekte für erneuerbare Energien im Wert von unzähligen Milliarden Dollar versuchen werden, sich durchzuzwängen. Jedes Mal, wenn man den Markt durcheinanderbringt, kommt es zu verrückten Ergebnissen, und dies ist eine gigantische Schwindelei. Es könnte ein großer Spaß sein, das zu beobachten.

Die Einzelheiten sind ganz einfach. Die massiven staatlichen Subventionen für Wind- und Solarenergie werden bald auslaufen, mit einer großen Ausnahme. Jedes Projekt, das in weniger als einem Jahr in Betrieb genommen werden kann und bis 2030 ans Netz geht, erhält weiterhin alle Vergünstigungen.

Angesichts der Tatsache, dass sich die Warteschlange der vorgeschlagenen Wind- und Solarprojekte auf über eine Billion Dollar beläuft, wird es viele Milliarden geben, die versuchen werden, die kurzfristige Baufrist einzuhalten. Dass viele von ihnen wahrscheinlich scheitern werden, macht die Sache besonders interessant. Es ist ein Rezept für finanzielles Chaos.

Natürlich stellt sich sofort die große Frage: Was braucht man, um im Bau zu sein? Die Subventionen werden in Form von Investitions- und Produktionssteuer-Gutschriften gewährt, so dass das Finanzamt die Regeln festlegt. Glücklicherweise gab es 2013 eine ähnliche, aber viel kleinere Version dieses Problems.

Das IRS hat ein kleines Regelwerk erstellt mit dem Titel „Beginning of Construction for Purposes of the Renewable Electricity Production Tax Credit and Energy Investment Tax Credit“ [etwa: Beginn des Baus für die Zwecke des Steuergutscheins für die Erzeugung von erneuerbarem Strom und des Steuergutscheins für Energieinvestitionen].

Die Regeln gelten nur für Windkraftprojekte, aber die Anwendung auf Solaranlagen scheint einfach zu sein, zumindest für große Projekte. Solarenergie auf Dächern könnte viel komplizierter sein und ist daher zu beobachten.

Die einfachste Lösung wird von der IRS als „Safe Harbor“ bezeichnet. Der Projektentwickler muss lediglich 5 % der Projektkosten im Voraus in die tatsächliche Entwicklung investieren und diesen Betrag dann im Laufe der Zeit „kontinuierlich“ erhöhen.

Die 5 % müssen nicht die Erschließung des Standorts umfassen, so dass dies auch für Projekte gilt, die noch keinen Standort haben, was bei vielen der Fall sein dürfte. Der Bauträger muss nur die verbindlichen Verträge für die Dinge finanzieren, die in die Baustelle eingebaut werden, sobald der eigentliche Bau beginnt.

Das Problem ist, dass die Produktionskapazitäten für Wind- und Solarkomponenten wahrscheinlich nicht ausreichen, um in weniger als einem Jahr die geforderten 5 % zu erreichen. Dies könnte zu einem Verkäufermarkt führen, auf dem die Preise schnell auf das steigen, was die Höchstbietenden zu zahlen bereit sind. Es könnte eine Menge Verlierer geben.

Es ist möglich, dass Schuldscheine für die Herstellung des Materials letztendlich in Ordnung sind, solange sie finanziert und verbindlich sind. Aber dann wird die zweite Anforderung der kontinuierlichen Entwicklung zu einem Problem. Entwicklung mit was?

Es scheint also ein verrücktes Gedränge zu geben, um in weniger als einem Jahr schnell viel Geld auszugeben. Ob es gelingt, bleibt abzuwarten.

Es ist auch erwähnenswert, dass die erneuerbaren Energieträger auf lange Sicht vielleicht nicht von diesem Wettlauf leben oder sterben. Die Vorstellung, dass erneuerbare Energien Subventionen benötigen, ist möglicherweise in hohem Maße falsch. Der Grund dafür ist, dass die meisten Staaten Energiewende-Vorgaben haben, die faktisch den Kauf von immer mehr Strom aus erneuerbaren Energien vorschreiben.

Zunächst einmal haben 28 Bundesstaaten „Renewable Portfolio Standards“, die ausdrücklich eine immer stärkere Nutzung erneuerbarer Energien vorschreiben. Andere, wie Virginia, haben Gesetze zur Netto-Null-Emissionsreduzierung, die in der Praxis zum gleichen Ergebnis führen.

Aber wie das ohne massive staatliche Subventionen funktionieren soll, bleibt abzuwarten. Subventionen in Form von Steuergutschriften sind unsichtbar und tauchen nie in der Rechnung auf. Ohne diese Subventionen werden die Kosten für die Auflagen die Strompreiszahler deutlich sichtbar treffen.

Steigende Stromtarife sind bereits zu einem politischen Thema geworden. Die langfristige Auswirkung der Abschaffung der Subventionen könnte durchaus die Abschaffung der Vorschriften sein, sobald ihre wahren Kosten deutlich werden.

Es sieht so aus, als ob die US-Industrie für erneuerbare Energien finanziell in Bedrängnis geraten wird. Das ist sicher für die nächsten zwölf Monate und vielleicht noch lange danach. Das verrückte Gerangel zu beobachten, könnte sowohl aufschlussreich als auch unterhaltsam sein.

Bleiben Sie an CFACT dran, wenn sich diese Show entfaltet.

Link: https://www.cfact.org/2025/07/07/u-s-renewables-mad-scramble-to-build-is-on/

Übersetzt von Christian Freuer für das EIKE