Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 28 / 2025

Meldung vom 6. August 2025:

China: Solarblase platzt: 87.000 Arbeitsplätze weg, weitere Einschnitte folgen

Im Jahr 2024 haben Chinas fünf größte Solarhersteller – Longi, Trina, Jinko, JA Solar und Tongwei – still und leise 87.000 Arbeitsplätze abgebaut und damit 31 % ihrer Belegschaft entlassen. Diese Kürzungen wurden nicht angekündigt, sondern in Unterlagen versteckt.

Die Branche befindet sich aufgrund eines Überangebots im freien Fall. Weltweit werden derzeit doppelt so viele Solarmodule produziert wie tatsächlich verbraucht werden, die meisten davon stammen aus China. Zwischen 2020 und 2023 leitete Peking Ressourcen aus dem zusammenbrechenden Immobilienmarkt in seine „neuen drei“ Industrien um – Solarenergie, Elektrofahrzeuge und Batterien. Die Zahl der Fabriken vervielfachte sich. Die Preise brachen ein. Ein erbitterter Preiskampf vernichtete die Gewinne.

Bis 2024 hat die Solarbranche 60 Milliarden Dollar verloren.

Große Teile der westlichen Medien sind weiterhin hingerissen von Chinas angeblicher „grüner Revolution“ und wiederholen gebetsmühlenartig dessen selbsternannte Führungsrolle im Klimaschutz, während sie die Realität vor Ort ignorieren: Hunderte neuer Kohlekraftwerke, neue Kohlebahnen – eine Energiestrategie, die nach wie vor auf der Ausweitung fossiler Brennstoffe basiert.

Chinas stark subventionierte Solarindustrie existiert vor allem, um den moralisch überlegenen Westen mit Solarmodulen zu überschwemmen, während Peking zu Hause mit Kohle für Strom sorgt. China ist nicht grün. Diejenigen, die Ihnen etwas anderes erzählen, verkaufen entweder diese Lüge oder sind selbst darauf hereingefallen.

Der Vorstoß zur „Netto-Null“ hat eine industrielle Blase hervorgebracht. Jetzt platzt diese Blase.

Seit letztem Jahr sind über 40 Unternehmen von der Börse genommen worden, haben Insolvenz angemeldet oder wurden übernommen. Analysten warnen, dass etwa 30 % der gesamten Produktionskapazität abgebaut werden müssen, damit die Branche überhaupt die Gewinnschwelle erreicht. Peking signalisiert Interventionen – ein OPEC-ähnliches Kartell für Polysilizium, Zwangsschließungen von Anlagen mit geringer Kapazität und Anordnungen zum Stopp neuer Fabrikerweiterungen. Aber die Provinzregierungen zögern auf der verzweifelten Suche nach Arbeitsplätzen und Wachstum.

Dies ist eine weitere Schattenseite der sogenannten grünen Energiewende: Solarenergie ist nicht etwa ein Eckpfeiler des Wachstums oder der Zukunft der Energiewirtschaft, sondern erweist sich als aufgeblähtes, verlustreiches Chaos, das vollständig von staatlichen Eingriffen abhängig ist.

Link: https://electroverse.substack.com/p/patagonias-increasing-snow-cold-and?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

——————————————–

Meldung vom 7. August 2025:

Starker Rückgang der globalen Temperaturen

Die Schlagzeilen über das „heißeste Jahr aller Zeiten“ werden bald verstummen. Das sagt zumindest die europäische Klimabeobachtungsstelle Copernicus: „Die jüngste Serie globaler Temperaturrekorde ist vorbei – zumindest vorerst“, so deren Direktor Carlo Buontempo.

Das ist eine offizielle Bestätigung: Der Temperaturanstieg ist vorbei.

Satellitendaten bestätigen dies. UAH zeigt, dass die globalen Temperaturen seit Anfang 2024 sinken (Grafik). Die Nachwirkungen von Hunga-Tonga scheinen immer mehr nachzulassen. Der El-Niño-Anstieg ist vorbei. La Niña könnte zurückkehren (die Wahrscheinlichkeit steigt im Herbst und Winter – NOAA).

Die Erde kühlt sich ab.

[Hervorhebung im Original]

Aber das Narrativ stirbt nicht.

Buontempo schaltet sofort um: „Wenn wir die Treibhausgas-Konzentrationen in der Atmosphäre nicht schnell stabilisieren, müssen wir nicht nur mit neuen Temperaturrekorden rechnen, sondern auch mit einer Verschärfung dieser Auswirkungen – und darauf müssen wir uns vorbereiten.“

Selbst wenn es kühler wird, bleibt die Lösung dieselbe: Angst, Steuern, Kontrolle. Klimamodelle haben diesen Rückgang nicht gezeigt. Sie haben jahrzehntelang versagt – sie laufen zu warm, verfehlen Wendepunkte und ignorieren natürliche Schwankungen. Aber sie bestimmen weiterhin die Politik.

2025 folgt nicht dem Drehbuch. Die Panikmaschine stockt. Die Erde kühlt sich ab. Und selbst die Klimawissenschaft kann das nicht mehr verbergen.

Link: https://electroverse.substack.com/p/global-temperatures-drop-sharply?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————————–

Großes Barriere-Riff 2025 in sehr gutem Zustand

Seit 1986 misst Australien die Korallenbedeckung am Great Barrier Reef. In den Jahren 2022, 2023 und 2024 stieg die Korallenbedeckung auf den höchsten jemals gemessenen Stand. Die Bedeckung im Jahr 2025 bleibt stabil – liegt aber nur noch auf dem viert höchsten Stand seit Beginn der Aufzeichnungen: Anlass für Katastrophenmeldungen.

Das Australian Institute of Marine Science veröffentlicht jährlich regionale Daten zur Korallenbedeckung. Anhand gewichteter Durchschnittswerte aus offiziellen Quellen ist das Riff in den letzten Jahren so gesund wie nie zuvor. Diese Zahlen lügen nicht:

——————————————–

Was ein Jahr an Unterschieden bringen kann

Der Juli 2025 war laut ERA5-Daten um 0,23 °C kühler als der Juli 2024:

Beide Hemisphären kühlten sich gleichermaßen ab (-0,23 °C).

Die Tropen kühlten sich um -0,31 °C ab, und die Antarktis um -1,76 °C. Nordamerika, Europa, Russland sowie weite Teile Afrikas und Südamerikas weisen alle negative Anomalien auf. Selbst die Arktis kühlte sich nördlich von 80° N (-0,20 °C) ab, trotz der üblichen Behauptungen einer außer Kontrolle geratenen Erwärmung.

Dieser globale Rückgang erfolgt, während die Wasserdampfinjektion von Hunga-Tonga und der El Niño 2023 nachlassen. Die Meereswärme nimmt ab. Die Realität setzt sich durch. Die Medien werden dieses Thema nicht aufgreifen. Aber die Daten sind öffentlich zugänglich. Und sie weisen in die falsche Richtung – für das Klimatariat.

——————————————–

Der Frost in Südamerika belegt die Energie-Unsicherheit

Erst letzten Monat brachte eine Kaltfront aus der Antarktis Südamerika eine tiefe Kältewelle, und die Energienetze des Kontinents gerieten ins Wanken.

In Mar del Plata fiel zum ersten Mal seit 34 Jahren Schnee. Buenos Aires erreichte mit -1,9 °C die niedrigste Temperatur seit 1991. Die Atacama-Wüste färbte sich in einem sehr seltenen Weiß. Gas wurde rationiert. Stromnetze brachen zusammen. Energiesysteme fielen aus.

Solarmodule verschwanden unter Schnee. Windkraftanlagen kamen zum Stillstand. Nur fossile Brennstoffe – Gas, Kohle, Diesel – sorgten für Wärme.

Das argentinische Stromnetz verliert aufgrund von Ineffizienzen bis zu 20 % der übertragenen Energie. Hinzu kommen unzuverlässige Wind- und Solarenergie, und das System bricht zusammen: Stromausfälle, eiskalte Wohnungen und Angst.

Kälte tötet. In Argentinien sterben jährlich über 60.000 Menschen an den Folgen der Kälte – siebenmal mehr als an den Folgen der Hitze. In Chile sind es fast 48.000 Todesfälle durch Kälte gegenüber nur 4.500 durch Hitze. In der gesamten Region kostet die kältebedingte Sterblichkeit jährlich 2,1 Milliarden Dollar. Die Daten sind unumstritten. Nicht die Hitze ist die Bedrohung, sondern die Kälte.

Südamerika verfügt über riesige Öl- und Gasvorkommen. Allein in Argentiniens Vaca Muerta lagern 300 Billionen Kubikfuß Gas und 16 Milliarden Barrel Öl. Brasilien und Guyana bauen ihre Offshore-Förderung aus. Selbst Brasiliens klimafreundlicher Präsident Lula genehmigte neue Bohrungen im Foz do Amazonas-Becken. Denn ohne fossile Brennstoffe friert der Kontinent ein.

Südamerika wird in den nächsten fünf Jahren voraussichtlich 80 % des Ölwachstums außerhalb der OPEC ausmachen.

Netto-Null ist eine Phantasterei, die in westlichen Vorstandsetagen entstanden ist, blind für die Bedürfnisse von Montevideo oder Mendoza.

Südamerika braucht Wärme und Strom – keine CO₂-Quoten. Ohne fossile Brennstoffe kein Überleben.

Link: https://electroverse.substack.com/p/great-barrier-reef-holding-strong?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und Übersetzt von Christian Freuer für das EIKE

 




Die globalen Temperaturen steigen und steigen – oder etwa nicht? Teil 3

Teil 3: Die wissenschaftliche Freiheit scheint grenzenlos – Wir gehen weiteren, vom Menschen verursachten Temperaturrekorden entgegen

Raimund Leistenschneider

Abb.18, Quelle: R. Leistenschneider, nach Daten des DWD, zeigt die Stationshöhe im Durchschnitt von den neu aufgenommenen Messstandorte des DWD in dessen Messnetz. Also jeweils die mittlere Höhe aller Stationen einer Dekade, im Vergleich, vor den Aktivitäten des IPCC.

Der in Abb.18 genannte obere Wert des Temperaturgradienten von 0,979 K/100m gilt streng genommen nur für trockene Luft, die kein gasförmiges Wasser gebunden hat. Folgerichtig wird er daher trockenadiabatischen Temperaturgradient genannt.

Der vertikale Temperaturgradient beträgt in trockener Luft etwa 0,979 K pro 100 m, in feuchter Luft bei Kondensation etwa bei 0,6 K pro 100m. Dies gilt jedoch nur in der freien Atmosphäre. Über festen Oberflächen kommt der Effekt der „hoch gelegenen Heizfläche“ zum Tragen. Soll heißen, dass bei gleicher Luftmasse die Temperatur 2 m über Grund höher ist als in der freien Atmosphäre auf gleicher Höhe über einem Gebiet, dass deutlich tiefer liegt. Der ehemalige Mitarbeiter des DWD Christian Freuer hat während seiner Tätigkeit beim DWD diesen Effekt privat untersucht, im Vergleich der Städte München (550 m ü. NN) und Berlin (ca. 50 m ü. NN). Ergebnis: Es ergab sich eine vertikale Temperaturabnahme um etwa 0,4 K pro 100 m bei labil geschichteten Luftmassen, bei stabiler Schichtung war es entsprechend weniger.“

Durch die Verringerung der mittleren Gesamtstationshöhe, steigen die statistischen Deutschlandmitteltemperaturen, im Vergleich zu früheren Jahresmittelwerten.

Siehe hierzu auch den Artikel „Die Falschmesser vom Deutschen Wetter Dienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt – Teil 3“ der Autoren Leistenschneider, Baritz und Kowatsch.

Doch damit immer noch nicht genug!

Nachträgliche Messwertveränderungen durch den DWD

Josef Kowatsch hat aus den DWD-Daten ermittelt, dass der DWD ganz gezielt die Temperaturjahresdaten für Deutschland nachträglich dahin verändert, dass er die Jahrestemperaturen zu Beginn seiner Messreihe ab 1881 kälter macht, um dadurch die heutigen wärmer erscheinen zu lassen (Abb.19).

Abb.19, Quelle: Josef Kowatsch, nach Daten des DWD, zeigt die vom DWD nachträglich kälter gemachten Jahre zu Beginn seiner Vergleichstemperaturen für Deutschland-Jahresmittel. Durch solche DWD-Tricks wird es auf wundersame Weise in Deutschland immer wärmer und wärmer.

Gleiche Manipulationen hat der DWD bei den Wintertemperaturen für Deutschland angewendet (Abb.20).

Abb.20, Quelle: Josef Kowatsch, nach Daten des DWD, zeigt die Jahre und die vom DWD nachträglich veränderten Temperaturmittelwerte für Deutschland-Winter, hin zu kälteren Temperaturen, zu Beginn seiner Vergleichsmessungen. Auch hier mit dem Ziel: Die heutigen Temperaturen im Vergleich wärmer darstellen zu können, wenn die historischen Temperaturen nachträglich kälter gemacht werden. Ab 1951 fanden keine nachträglichen Veränderungen vom DWD statt.

Fehlerhöhe bei den Jahresmitteltemperaturen für Deutschland

Der Autor hat mit zwei gänzlich unterschiedlichen Lösungswegen ermittelt, wie groß, aufgrund der vorgenannten Paradigmen, der Fehler bei den Jahres(vergleichs)temperaturen ist, die der DWD jährlich veröffentlicht. In 2024 waren dies nach dem ersten Lösungsweg:

+ 1,42°C und nach dem zweiten Lösungsweg:

+ 1,40°C, was identische Ergebnisse sind.

Der erste Lösungsweg basiert auf dem Steigungsvergleich der DWD-Jahrestemperaturen seiner – nach eigenen Angaben – Referenzstation Hohenpeißenberg, mit der DWD-Jahrestemperaturreihe für Deutschland. Beides für den Zeitraum von 1881 – 2023.

Dabei werden grobe Unregelmäßigkeiten (Sprünge) in den Steigungen der beiden Messreihen ausgewertet und daraus die Temperaturabweichung ermittelt. Dass es sich bei den genannten Unregelmäßigkeiten, werden beide Messreihen in Relation zueinander gesetzt, um Fehler handelt, die nicht auftreten dürfen, basiert auf den Strahlungsgesetzen nach Planck und sind durch diese abgesichert. Denn berechnen lässt sich so manches, aber allein die Physik bestimmt, ob eine Rechnung sinnvoll ist, oder ob nicht*).

*) Klassisches Beispiel einer sinnlosen Berechnung zeigt Abb.21:

Abb.21 zeigt die RCP-Szenarien (Klimaszenarien) der Zukunft. Sinnlose und äußerst kostspielige Berechnungen für unser Klima der Zukunft. Berechnungen, die nichts mit der Wirklichkeit zu tun haben, sondern reine Phantasieprodukte oder sollte der Autor besser sagen, Spinnereien sind, die mit unseren Steuer- und Abgabengeldern finanziert werden.

Der zweite Lösungsweg basiert auf der Diplomarbeit beim DWD, die sich damit befasst, wie groß die Temperaturabweichungen bei den Tagesmaximaltemperaturen sind, zwischen der neuen Messmethode, Messung elektronisch mit Fühler Pt 100 und den bisherigen Messungen mittels Quecksilberthermometer. Die Beobachtungsreihen belaufen sich dabei auf einen Zeitraum von rund 8½ Jahren.

Temperarturerhöhung durch veränderte Messmethoden beim DWD

In Fachkreisen bekannt ist die Vergleichsverzerrung durch die Umstellung der Messsysteme und zwar von manueller Ablesung von Quecksilberthermometer, zu elektronischer Messung mit Pt 100-Messfühler.

Dazu der Fachmann Prof. Malberg, FU Met Inst. von 2010:

„Mit den Auswirkungen auf die Klimatemperatur durch die Umstellung von Quecksilberthermometermessungen auf elektronische Messverfahren Ende der 1980er/Anfang der 1990er Jahre hat sich W. Wehry (Beiträge zur BWK SO 22/09) befasst. Auch dieser (Fort-)Schritt hatte offensichtlich eine gewisse scheinbare Erhöhung der Mitteltemperatur zur Folge, da die elektronischen Messungen in der Regel höhere Maxima als die trägen Quecksilbermessungen ergeben. Der Effekt wirkt sich vor allem dort aus, wo die Mitteltemperatur aus Maximum und Minimum gebildet wird, u. a. in den USA.“

„Die Verlagerung von Klimastationen an neue Standorte führt in der Regel zu sprunghaften Änderungen der Klimawerte. Wird die neue Station nicht auf die bisherige Messreihe (oder umgekehrt) mittels vieljähriger Parallelbeobachtungen reduziert, so kann der Bruch so groß sein, dass die Klimareihe für die Analyse des langfristigen Klimawandels unbrauchbar wird.“

Wie groß die gemessenen Temperaturabweichungen sind, zeigt Abb.22.

Abb.22, Quelle: Beilage zur Berliner Wetterkarte 44/13, „Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“, Klaus Hager.

Abb. 22 zeigt den Unterschied der Messungen mit einem Quecksilberthermometer und der heutigen elektronischen Messungen über einen Zeitraum von 8 1/2 Jahren. Sehr gut zu sehen, dass die elektronische Messung deutlich höhere Werte ergibt und zwar um +0,93°C höher! Dazu der Text des Verfassers Klaus Hager:

„An den 3144 Tagen ergab sich eine mittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfasste Tagesdifferenz betrug gar 6,4 Grad! An 41% der Tage war die Differenz 0 bis 1 Grad, an 26% der Tage 1 bis 3 Grad und an 18% der Tage größer als 2 Grad, an 15% der Tage waren die Quecksilberwerte höher als die mit Pt 100 gewonnenen Höchstwerte.“

„Ursachen hierfür können der Grad der Wolkenbedeckung und die Sonnenscheindauer, aber auch Windgeschwindigkeit und Luftmassenwechsel sowie die Bodenbedeckung mit einer Schneedecke sein. Somit kann man nicht mit generellen Korrekturwerten arbeiten, sondern muss lapidar feststellen, dass die früher gewonnenen Messwerte nicht mit den heutig erfassten für eine lange Temperaturreihe verwendet werden dürfen, ohne dass Brüche in den langen Reihen entstehen, die nicht real sind.“

Da es sich um Maximalwerte handelt, für uns aber die Tagesmittelwerte interessant sind, hatten die Autoren Leistenschneider, Kowatsch und Baritz ein Referenz-Messnetz aus 50 DWD-Messstandorten gewählt, welches das gesamte DWD-Messnetz, aus dem der DWD sein Deutschlandjahresmittel bei den Temperaturen bestimmt, mit einer Genauigkeit von 2,5% 98% exakt abbildet. Siehe den Beitrag „Die Falschmesser vom Deutschen Wetterdienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt, Teil 2“.

Ergebnis

Die vom DWD veröffentlichte Jahresvergleichstemperatur für Deutschland ist um +1,4°C zu hoch und steigt an.

Der Autor erwähnte eingangs, in 2024, also für den Jahres(vergleichs)temperaturmittelwert 2023. Die Abweichung zur tatsächlichen Vergleichstemperatur mit früheren Jahren wird jedoch von Jahr zu Jahr immer größer, da der DWD sein Messnetz weiter, nach der im Teil 2 beschriebenen Methodik, ändert (Abb.23). Wir dürfen uns also auf weiter steigende Jahres(vergleichs)temperaturen freuen, zumindest, wird der DWD uns solche „verkaufen“ wollen. Es wird also immer wärmer und wärmer…..

Abb.23, Quelle: R. Leistenschneider, nach Daten des DWD zeigt, wie viele neue Temperaturmessstationen (Standorte) der DWD in den letzten Jahrzehnten in sein Messnetz aufgenommen hat. Schon gravierend, wie sehr der DWD ab der Jahrhundertwende neue Messstationen aufnimmt. In den 2 Jahrzehnten ab der Jahrhundertwende 735 neue Messstationen. Dies sind etwa 4-mal so viele, wie in den 2 Jahrzehnten davor. Nicht nur das, ab 2021 beschleunigt der DWD nochmals rapide die Aufnahme neuer Messstationen und zwar um annähernd das 10-fache (!), wie in den Jahrzehnten des ausgehenden 20.Jahrhunderts. Siehe hierzu auch hier und hier.

Wie groß die gemessenen Temperaturunterschiede, in Abhängigkeit des gewählten Standortes sind, zeigt Abb.24:

Abb.24 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975. Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich.

Wie bereits geschildert: Beim DWD-Ausbau seines Messnetzes ist auffällig, dass gerade die neu hinzugenommen Messstationen die Messstationen sind, die Allzeitrekorde bei den Deutschlandtemperaturen messen, wie die Station in Duisburg-Baerl (ab 01.06.2007 im DWD-Messnetz) oder in Lingen (ab dem 25.09.2008 im DWD-Messnetz). Wie bereits geschildert, hat diese „Manipulation“, hin zu scheinbar höheren Temperaturen, Methode und wird nicht nur vom DWD, sondern auch in anderen Ländern, wie den USA, angewendet, siehe den Bericht des Heartland Instituts.

Im Artikel „Teil 2: Nicht der menschengemachte Klimawandel, sondern, die menschengemachte Klimamanipulation“ von Leistenschneider / Kowatsch, hatte der Autor folgendes Erkennungsbild als Collage gezeigt:

Abb.25, Collage: R. Leistenschneider. DWD und WMO bei ihrer Klimaarbeit….In der Tat ein menschengemachter Klimawandel und nicht nur beim DWD.

Die offensichtlich von der Politik beauftragte Panikmache, um einen angeblich menschgemachten Klimawandel, basieren auf sog. THG, als unerschöpfliche Geldquelle, bleibt für unser Land und seine Bürger nicht ohne Folgen. Da ist von Energiewende, Transformation und vieles mehr die Rede.

Eine unsinnige Energiewende, die Deutschland die höchsten Strompreise weltweit beschert hat. Oder eine sog. Transformation von diesem und jenes, die unsere Industrie, Wirtschaft, Arbeitsplätze… ruiniert. Was ist aus unserem Land, seit der unseligen Klimahype, die nur Lug- und Betrug ist, geworden? Diese Karikatur zeigt dies anschaulich. Können wir urheberrechtlich nicht direkt zeigen, daher nur der Link.

Und die Abzocke für die Potemkinsche Dörfer einer sog. Klimakatastrophe geht weiter, wie Bild jüngst berichtete:

Regierung plant neue Strom-Abgabe

Der Autor ist der Meinung: Es reicht. Money for Nothing ist sicherlich ein hervorragender Pop-Song der Dire Straits, für unser Land jedoch kein Beispiel und schon gar nicht der Weg in die Zukunft.

Es liegt an uns, unser Land aus der selbstgewählten Isolierung, die in Abb. 25 skizziert ist, zu führen….Ob wir z.B. solchen „Propheten“ und dessen Richtung folgen, von dem die folgenden Zitate stammen:

„Deutschland ist ein Problem, weil die Deutschen fleißiger, disziplinierter und begabter als der Rest Europas (und der Welt) sind. Das wird immer wieder zu ´Ungleichgewichten´ führen. Dem kann aber gegengesteuert werden, indem so viel Geld wie nur möglich aus Deutschland herausgeleitet wird. Es ist vollkommen egal wofür, es kann auch radikal verschwendet werden – Hauptsache, die Deutschen haben es nicht. Schon ist die Welt gerettet.“ oder „Deutsche Helden müsste die Welt, tollwütigen Hunden gleich, einfach totschlagen.“

Beide Zitate stammen von Joschka Fischer, Die Grünen. Offensichtlich wird dort Abb.26 das Wort geredet.

Abb.26, Quelle, zeigt anschaulich die deutschen Formeln höherer Mathematik und angewandter Physik, wie sie von all jenen, die sich auf die Fahnen geschrieben haben „weiter wie bisher“ propagiert wird.

Der Autor hat u.a. im Juli 2021 folgende Abbildung veröffentlicht:

Abb.27, Quelle: Leistenschneider, zeigt den Vergleich der Temperaturgänge 20 Jahre vor und 18 Jahre nach einem Hauptsonnenzyklus (dem im Mittel 208 jährigen de Vriess/Suess-Zyklus) von Deutschland (heute) nach Daten des DWD und Berlin-Dahlem (um 1800, Ausschnitt oben). Um 1800 gab es kein Deutschland noch keine flächendeckenden Temperaturmessungen. Daher auch hier kein Vergleich der Absolutwerte, aber durchaus der Temperaturmuster (Wechsel).

Deutlich sind starke Ähnlichkeiten im Temperaturmuster zu erkennen. Auch um 1800 stiegen im 19. Jahr nach einem Hauptsonnenzyklus die Temperaturen deutlich an, nachdem sie das Jahr zuvor gefallen waren. Dass die Temperaturmuster sich ähneln, liegt aus Sicht des Autors am Jetstream, genauer, dem Polarfrontjet (PFJ), der für die Hochs und Tiefs in unserem Wettergeschehen verantwortlich ist (diese steuert) und von der Sonne abhängig ist. Diese bestimmt seine mittlere geographische Lage durch den Energiegehalt in der Atmosphäre und seine Ausprägung. Siehe auch hier. Dort ab Abb.9.

Dass heutige Wettergeschehen und dessen statistischer Mittelwert, das Klima, sind also nichts Außergewöhnliches und fügen sich in natürliche Zyklen ein. Wir leben aktuell nicht etwa in einer Warmzeit, sondern in einer Kaltzeit mit einem „Zwischenhoch“, welches uns moderate Temperaturen beschert (Abb.9 und Abb.2 im Teil 1).

Fazit:

Die Klimahype, mit ihrer gegenwärtigen Steigerung einer sog. Klimakatastrophe, ist nichts anderes als Dummenfängerei (https://www.dwds.de/wb/Dummenfang ), wie dies der Volksmund, bei ähnlich gelagerten Dingen, so trefflich formuliert.

Unter dem Link ist zu lesen:

„Versuch, leichtgläubige Menschen durch plumpe Verlockungen für eine (zweifelhafte) Sache zu gewinnen.“

Dem ist nichts hinzuzufügen!

Raimund Leistenschneider – EIKE

 




Neue Studie: Das Industriezentrum einer Stadt und der Flughafen sind bis zu 12 °C wärmer als die umliegenden Wälder und Vegetation.

Kenneth Richard

Der städtische Wärmeinseleffekt trägt weit mehr nicht-klimatische Wärme zu den Aufzeichnungen der Temperaturmessstationen bei als zuverlässig kontrolliert werden kann.

Eine Analyse von 10 Städten aus aller Welt (Kara und Yavuz, 2025) zeigt, dass Flughäfen und Industriezentren im Durchschnitt 2,5 °C bis 2,8 °C wärmer sind als benachbarte Grünflächen.

„Flughäfen wiesen eine durchschnittliche Tages-Landoberflächentemperatur (LST) auf, die 2,5 °C höher war als in den umliegenden Gebieten, während Industriegebiete mit einem durchschnittlichen Anstieg von 2,81 °C eine noch größere Temperaturdifferenz aufwiesen.“

Der städtische Wärmeinseleffekt kann dazu führen, dass Flughäfen und Industriezentren bis zu 12 °C wärmer sind als nahegelegene bewachsene, bewaldete Gebiete.

„Die Grünflächen um Mexiko-Stadt sind bis zu 12,13 °C kühler als der Stadtkern.“

Die Erwärmungstendenzen der letzten Jahrzehnte beschränken sich im Allgemeinen auf städtische Gebiete, während sich nicht-städtische Gebiete abgekühlt haben. So erwärmten sich beispielsweise von 2001 bis 2021 die städtischen Gebiete um +0,04 °C/Jahr, während sich die bewachsenen, unbebauten und mit Gewässern bedeckten Gebiete in der Stadt Chongqing um -0,07 °C, -0,03 °C bzw. -0,04 °C/Jahr abkühlten.

„Im Gegensatz dazu zeigten kalte Stellen mit dichter Vegetation einen deutlichen Abkühlungseffekt, wobei die LST-Unterschiede bis zu −3,7 °C erreichten. Ebenso trug die Nähe zu Gewässern zur Temperaturminderung bei, da Gebiete in der Nähe bedeutender Wasserquellen niedrigere LST-Unterschiede während des Tages verzeichneten, die im Durchschnitt bei −4,09 °C lagen.“

Image Source: Kara and Yavuz, 2025

Link: https://notrickszone.com/2025/08/07/new-study-a-citys-industry-center-airport-up-to-12c-warmer-than-nearby-forests-vegetation/

Übersetzt von Christian Freuer für das EIKE

 




Die Zukunft der Kernenergie könnte in kleinen Anlagen liegen.

Duggan Flanakin

Als sich die Nachricht verbreitet, dass zwei chinesische Unternehmen kommerziell nutzbare Miniatur-Kernkraftbatterien entwickelt haben, die bis zu einem Jahrhundert lang betrieben werden können und alles von Herzschrittmachern über Fernsensoren bis hin zu vielfältigen Anwendungen im Weltraum mit Strom versorgen können, beschäftigen sich andere Unternehmen aus China, den USA und Vietnam intensiv mit kleinen modularen Reaktoren und sogar Mikroreaktoren – die alle in Massenproduktion hergestellt werden können, um die Kosten drastisch zu senken.

Der von Betavolt entwickelte BV100 wird mit einem Nickel-63-Isotop betrieben und kann vermutlich bis zu 50 Jahre lang ohne Wartung betrieben werden, während die mit Kohlenstoff-14 betriebene Kernbatterie der Northwest Normal University eine potenzielle Lebensdauer von 100 Jahren hat. Diese Batterien erzeugen Strom durch den natürlichen Zerfall radioaktiver Isotope.

Die Chinesen sind nicht die Einzigen auf dem Gebiet der Kernbatterien, denn das US-amerikanische Unternehmen City Labs hat Tritium-betriebene Batterien entwickelt, die 20 Jahre lang halten, und das britische Unternehmen Arkenlight entwickelt Batterien aus radioaktiven Abfällen. Zwei weitere US-amerikanische Unternehmen – Kronos Advanced Technologies und Yasheng Group – haben eine Partnerschaft geschlossen, die sich mit der Forschung im Bereich Kernbatterien befasst, als Teil der Bemühungen der USA, China daran zu hindern, eine technologische Vorherrschaft zu erlangen.

Ironischerweise wurden die ersten Kernbatterien der Welt in den 1950er Jahren in den Vereinigten Staaten entwickelt – doch die irrationale Anti-Atomkraft-Bewegung, die wegen der Strahlungssicherheit und der vermeintlich begrenzten praktischen Anwendungsmöglichkeiten für Aufruhr sorgte, stoppte die vielversprechende Forschung für sechzig Jahre.

Die gleiche Angst – und das daraus resultierende, von der Nuclear Regulatory Commission geschaffene Labyrinth von Vorschriften – hatte fast alle von Präsident Eisenhower gewünschten „friedlichen Nutzungen” der Kernenergie verhindert, bis das Aufkommen von künstlicher Intelligenz, Kryptowährungen, Rechenzentren und anderen Großverbrauchern von Strom deutlich machte, dass Kernenergie die „sauberste” Energiequelle ist, die den Hunger dieser aufstrebenden Industrien stillen kann.

Taxpayer.net beklagt, dass die Kernenergieindustrie erhebliche Subventionen von den Steuerzahlern des Bundes erhalten habe, was eine massive Geldverschwendung darstelle – und in gewisser Weise haben sie Recht. Sie verweisen darauf, dass von 1948 bis 2020 117 Milliarden Dollar (in Dollar von 2020) für die Entwicklung der Kernenergie bereitgestellt wurden – allerdings erfolgte der größte Teil davon vor dem Unfall von Three Mile Island, bei dem kein einziger Mensch ums Leben kam oder verletzt worden war.

Sie beklagen auch, dass Washington keine Lizenzgebühren aus dem Uranabbau auf Bundesgebieten erhält – was sie als Subvention betrachten – und dass Gelder, die von Betreibern von Kernkraftwerken in die Reserve für die Stilllegung von Kernkraftwerken eingezahlt werden, nicht besteuert werden. Der Price-Anderson Act von 1957 begrenzt nach wie vor die Haftung der Kernenergieindustrie im Falle eines nuklearen Unfalls – was bis heute äußerst selten vorkommt.

Die Realität sieht jedoch so aus, dass allein die Regulierung bis vor kurzem ausreichte, um die Entwicklung der Kernenergie in den USA zu behindern. Selbst die Gouverneurin von New York Kathy Hochul stimmt zu, dass „die Hindernisse in Washington liegen. Die Dauer – zehn Jahre, ein Jahrzehnt – der bürokratischen Hürden und Formalitäten, die überwunden werden müssen, ist ein Grund dafür, dass es scheitert und die Menschen es gar nicht erst versuchen.“

Es überrascht jedoch nicht, dass Politico die Schuld der Industrie gab und behauptete, dass Anreize und Genehmigungsreformen (die diesen Zeitrahmen von 10 Jahren auf 18 Monate oder sogar weniger verkürzen) nichts an den grundlegenden wirtschaftlichen Rahmenbedingungen ändern. Zwar haben alle drei neuen Kernkraftwerke, die im 21. Jahrhundert gebaut worden sind, enorme Kostenüberschreitungen verursacht, doch keines davon profitierte von Genehmigungsreformen oder neuen Anreizen. Tatsächlich glauben Skeptiker wie Mark Jacobson von der Stanford University nach wie vor, dass „neue Kernkraftwerke … ein Reinfall sind“.

Energieminister Chris Wright sagt, dass große Kernkraftwerke vor allem deshalb teurer sind, weil sie vor Ort gebaut werden müssen, während kleine modulare Reaktoren (SMRs) in einer Fabrik in Serie hergestellt werden können; kleinere Mikroreaktoren sind sogar noch mobiler und können in Notfällen oder an abgelegenen Standorten mit moderatem Strombedarf eingesetzt werden. Diese kleineren Reaktoren eignen sich perfekt für Rechenzentren, Militärstützpunkte und andere Einrichtungen, die eine unterbrechungsfreie Stromversorgung benötigen.

Trotz des vereinfachten Regulierungssystems (das bald noch radikalere Änderungen erfahren könnte) sagt Wright, dass „diese langsame, bürokratische Zentralregierung” immer noch ein Engpass ist. Im Gegensatz dazu wirbt Gouverneur Mike Dunleavy für Alaskas Gesetzgebung von 2022 zur Förderung der „Mikronukleartechnologie, die eine potenzielle Rolle bei der Bereitstellung kostengünstiger, zuverlässiger Energie für Gemeinden, abgelegene Dörfer und Ressourcenentwicklungsprojekte spielen kann“ in einem Bundesstaat, in dem die Versorgung mit billiger Energie immer eine Herausforderung ist.

Während in den letzten Jahren mehrere Unternehmen und sogar die Tennessee Valley Authority in den SMR-Bereich eingestiegen sind, waren bis zu diesem Jahr die einzigen Länder – Russland und China –, die SMRs gebaut haben, zentralistische Regierungen, die den Projekten bei der Finanzierung halfen und über die zu verwendenden SMR-Brennstofftypen und Kühlmittel entschieden. In den USA sind die spezifischen Vorschriften für SMRs und Mikroreaktoren noch nicht endgültig festgelegt. Aber die Zeiten ändern sich.

So hat beispielsweise Radiant Industries, Inc. 225 Millionen US-Dollar aufgebracht, um seinen 1,2-MW-Mikroreaktor Kaleidos im Jahr 2026 zu testen. Dieser tragbare Reaktor verwendet Heliumgas anstelle von Wasser als Kühlmittel, was die Logistik vereinfacht und die Stromerzeugung in abgelegenen Gebieten erleichtert. Kaleidos kann nicht nur auf dem Luft-, Land- oder Seeweg transportiert werden, sondern dank seiner passiven Sicherheitsarchitektur auch dann sicher weiterbetrieben werden, wenn einige Systeme ausfallen.

Radiant und Westinghouse (für seinen 5-MW-Mikroreaktor eVinci) haben beide mit dem Energieministerium Vereinbarungen unter Vorbehalt getroffen, um erste Reaktortests in der DOME-Anlage des Idaho National Laboratory durchzuführen. Die DOME-Tests, so das Energieministerium, werden dazu beitragen, „den Bedarf der Nation an reichlicheren, erschwinglicheren und zuverlässigeren Energiequellen zu decken“.

Das in Berkeley ansässige Start-up Deep Fission hat sich mit dem australischen Unternehmen Endeavour Energy zusammengetan, um massenproduzierte SMRs unterirdisch zu vergraben, um Rechenzentren effizienter mit Strom zu versorgen. Die Partner planen, 2 GW unterirdische Kernenergie für die Technologiebranche zu erzeugen, die zu den Branchen gehört, die den Strombedarf in den USA und weltweit in die Höhe treiben. Ihre größte Hürde ist bislang das Fehlen eines spezifischen Rechtsrahmens für SMRs – aber der neue Zeitrahmen von 18 Monaten, innerhalb dessen die NRC SMRs genehmigen oder ablehnen muss, wird hoffentlich ihren Weg zum geplanten Einsatztermin im Jahr 2029 beschleunigen.

Auch in Südostasien ist ein Wettlauf um die Einführung der Kernenergie im Gange, angeführt von den Philippinen und Indonesien. Unterdessen hat Vietnam, das bis 2030 den Bau eines traditionellen Kernkraftwerks geplant hatte, von seinem Politikberater Thuy Le den Rat erhalten, sich stattdessen auf SMRs – oder sogar Mikroreaktoren – zu konzentrieren, um die Kernenergie sicher und realistisch in sein Stromnetz zu integrieren. Diese viel kleineren Einheiten können in dicht besiedelten Küstengebieten eingesetzt werden und sind weitaus einfacher und kostengünstiger zu bauen und zu warten – und sie minimieren das Risiko.

Vor allem aber könnte der Erfolg von SMRs und Mikroreaktoren – und sogar von Kernbatterien – selbst die Zurückhaltendsten unter uns davon überzeugen, dass die Kernenergie wirklich ein Geschenk an die Menschheit ist.

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2025/08/02/the-future-of-nuclear-might-be-small/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: So viel zu der Bemerkung von Olaf Scholz „die Atomkraft ist ein totes Pferd“…

 




Neue Klima-Gleichung

Cap Allon

Dr. Ned Nikolov hat gerade ein weiteres bahnbrechendes Klimamodell vorgestellt: eine universelle Gleichung zur Berechnung der globalen Lufttemperatur (GSAT) jedes Gesteinsplaneten mit Atmosphäre.

Es handelt sich hierbei nicht um ein Patchwork aus Antrieben und Rückkopplungen, die auf die Beobachtungen der Erde abgestimmt sind, sondern um ein sauberes, physikalisch basiertes Modell, das offenbar im gesamten Sonnensystem funktioniert.

Dies ist die neueste Version unseres UNIVERSAL Global Temperature Model, das für jeden felsigen Planetenkörper im Sonnensystem und darüber hinaus gültig ist“, sagte Nikolov. „Beachten Sie, dass es keine Treibhausgas-Strahlungsantriebe und auch keine positiven Rückkopplungen enthält!“

Das Modell erzielt eine hohe Genauigkeit ohne Berücksichtigung der Treibhausgaskonzentrationen.

Stattdessen setzt es die Temperatur eines Planeten in Beziehung zu realen, messbaren physikalischen Eigenschaften: einfallende Sonnenenergie (Total Solar Irradiance, TSI), geothermische Wärme, Albedo, Oberflächendruck und einige Konstanten.

Die Treibhausschicht der Klimaorthodoxie geht nicht einmal ansatzweise in die Gleichung ein:

Die Gleichung sieht zwar kompliziert aus, basiert aber auf einfachen physikalischen Prinzipien.

Betrachten Sie die wichtigsten Parameter:

1. Beginnen Sie mit dem Sonnenlicht (Sᵦ). Dies ist die gesamte Sonnenenergie, die auf die Umlaufbahn eines Planeten trifft. Für die Erde beträgt sie etwa 1.360 W/m². Wenn die Sonne mehr oder weniger Energie abgibt, passt sich die Gleichung an.

2. Berücksichtigen Sie die Reflektivität (Albedo). Nicht die gesamte Energie wird absorbiert. Helle Oberflächen wie Eis reflektieren das Sonnenlicht zurück ins All. Die Gleichung passt sich an, je nachdem, wie reflektierend (oder dunkel) ein Planet ist.

3. Addieren Sie die eigene Wärme des Planeten (R𝓰). Planeten erzeugen interne Wärme – durch radioaktiven Zerfall und andere Prozesse –, die ebenfalls die Temperatur beeinflusst.

4. Berücksichtigen Sie die kosmische Hintergrundstrahlung (R꜀). Sie ist winzig, aber universell und legt überall eine Untergrenze für die Temperatur fest.

5. Passen Sie die Gleichung an, um zu berücksichtigen, wie gut die Oberfläche Wärme speichert (η). Einige Oberflächen, wie Gestein oder Staub, speichern Wärme besser als andere. Dieser „Speicherkoeffizient” verändert die Schwankungsbreite der Temperatur.

6. Multiplizieren Sie mit dem atmosphärischen Druck (P). Nikolovs Forschung zeigt, dass der Oberflächendruck und nicht der CO₂-Gehalt bestimmt, wie warm ein Planet wird. Dickere Atmosphären komprimieren und speichern mehr Energie an der Oberfläche – ein grundlegender physikalischer Effekt, der unabhängig von Treibhausgasen ist.

7. Berücksichtigen Sie langfristige Veränderungen. Das Modell ermöglicht es Ihnen sogar, Änderungen der Sonneneinstrahlung oder der Reflektivität im Laufe der Zeit anzupassen, was es für die Untersuchung von Klimaschwankungen nützlich macht.

Atmosphärischer Druck, Albedo und thermische Eigenschaften bestimmen, wie viel Energie absorbiert und gespeichert wird. Es ist nicht notwendig, den „Strahlungsantrieb“ durch CO₂ einzubauen oder Feedback-Schleifen zu konstruieren.

„Es handelt sich um ein neues physikalisches Gesetz auf Makroebene, das weitaus genauer ist als alles, was die unphysikalische ‚Treibhaushypothese‘ hervorgebracht hat“, schreibt Nikolov.

Mainstream-Modelle sind nur auf die Erde zugeschnittene, parameteroptimierte Monster. Sie versagen katastrophal, wenn sie auf Venus, Mars oder Titan angewendet werden. Nikolovs Modell scheint überall zu funktionieren.

Wenn dieses Modell validiert wird, untergräbt es das zentrale Dogma des Klimaalarmismus: dass CO₂ „Wärme speichert“ und damit die Temperaturen auf der Erde dominiert. Stattdessen bilden Druck und Sonneneinstrahlung die Grundlage, wobei Albedo und kleinere Faktoren für Anpassungen sorgen.

Link: https://electroverse.substack.com/p/ludhiana-logs-coldest-july-in-15?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE