Die globalen Temperaturen steigen und steigen – oder etwa nicht? Teil 3

Teil 3: Die wissenschaftliche Freiheit scheint grenzenlos – Wir gehen weiteren, vom Menschen verursachten Temperaturrekorden entgegen

Raimund Leistenschneider

Abb.18, Quelle: R. Leistenschneider, nach Daten des DWD, zeigt die Stationshöhe im Durchschnitt von den neu aufgenommenen Messstandorte des DWD in dessen Messnetz. Also jeweils die mittlere Höhe aller Stationen einer Dekade, im Vergleich, vor den Aktivitäten des IPCC.

Der in Abb.18 genannte obere Wert des Temperaturgradienten von 0,979 K/100m gilt streng genommen nur für trockene Luft, die kein gasförmiges Wasser gebunden hat. Folgerichtig wird er daher trockenadiabatischen Temperaturgradient genannt.

Der vertikale Temperaturgradient beträgt in trockener Luft etwa 0,979 K pro 100 m, in feuchter Luft bei Kondensation etwa bei 0,6 K pro 100m. Dies gilt jedoch nur in der freien Atmosphäre. Über festen Oberflächen kommt der Effekt der „hoch gelegenen Heizfläche“ zum Tragen. Soll heißen, dass bei gleicher Luftmasse die Temperatur 2 m über Grund höher ist als in der freien Atmosphäre auf gleicher Höhe über einem Gebiet, dass deutlich tiefer liegt. Der ehemalige Mitarbeiter des DWD Christian Freuer hat während seiner Tätigkeit beim DWD diesen Effekt privat untersucht, im Vergleich der Städte München (550 m ü. NN) und Berlin (ca. 50 m ü. NN). Ergebnis: Es ergab sich eine vertikale Temperaturabnahme um etwa 0,4 K pro 100 m bei labil geschichteten Luftmassen, bei stabiler Schichtung war es entsprechend weniger.“

Durch die Verringerung der mittleren Gesamtstationshöhe, steigen die statistischen Deutschlandmitteltemperaturen, im Vergleich zu früheren Jahresmittelwerten.

Siehe hierzu auch den Artikel „Die Falschmesser vom Deutschen Wetter Dienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt – Teil 3“ der Autoren Leistenschneider, Baritz und Kowatsch.

Doch damit immer noch nicht genug!

Nachträgliche Messwertveränderungen durch den DWD

Josef Kowatsch hat aus den DWD-Daten ermittelt, dass der DWD ganz gezielt die Temperaturjahresdaten für Deutschland nachträglich dahin verändert, dass er die Jahrestemperaturen zu Beginn seiner Messreihe ab 1881 kälter macht, um dadurch die heutigen wärmer erscheinen zu lassen (Abb.19).

Abb.19, Quelle: Josef Kowatsch, nach Daten des DWD, zeigt die vom DWD nachträglich kälter gemachten Jahre zu Beginn seiner Vergleichstemperaturen für Deutschland-Jahresmittel. Durch solche DWD-Tricks wird es auf wundersame Weise in Deutschland immer wärmer und wärmer.

Gleiche Manipulationen hat der DWD bei den Wintertemperaturen für Deutschland angewendet (Abb.20).

Abb.20, Quelle: Josef Kowatsch, nach Daten des DWD, zeigt die Jahre und die vom DWD nachträglich veränderten Temperaturmittelwerte für Deutschland-Winter, hin zu kälteren Temperaturen, zu Beginn seiner Vergleichsmessungen. Auch hier mit dem Ziel: Die heutigen Temperaturen im Vergleich wärmer darstellen zu können, wenn die historischen Temperaturen nachträglich kälter gemacht werden. Ab 1951 fanden keine nachträglichen Veränderungen vom DWD statt.

Fehlerhöhe bei den Jahresmitteltemperaturen für Deutschland

Der Autor hat mit zwei gänzlich unterschiedlichen Lösungswegen ermittelt, wie groß, aufgrund der vorgenannten Paradigmen, der Fehler bei den Jahres(vergleichs)temperaturen ist, die der DWD jährlich veröffentlicht. In 2024 waren dies nach dem ersten Lösungsweg:

+ 1,42°C und nach dem zweiten Lösungsweg:

+ 1,40°C, was identische Ergebnisse sind.

Der erste Lösungsweg basiert auf dem Steigungsvergleich der DWD-Jahrestemperaturen seiner – nach eigenen Angaben – Referenzstation Hohenpeißenberg, mit der DWD-Jahrestemperaturreihe für Deutschland. Beides für den Zeitraum von 1881 – 2023.

Dabei werden grobe Unregelmäßigkeiten (Sprünge) in den Steigungen der beiden Messreihen ausgewertet und daraus die Temperaturabweichung ermittelt. Dass es sich bei den genannten Unregelmäßigkeiten, werden beide Messreihen in Relation zueinander gesetzt, um Fehler handelt, die nicht auftreten dürfen, basiert auf den Strahlungsgesetzen nach Planck und sind durch diese abgesichert. Denn berechnen lässt sich so manches, aber allein die Physik bestimmt, ob eine Rechnung sinnvoll ist, oder ob nicht*).

*) Klassisches Beispiel einer sinnlosen Berechnung zeigt Abb.21:

Abb.21 zeigt die RCP-Szenarien (Klimaszenarien) der Zukunft. Sinnlose und äußerst kostspielige Berechnungen für unser Klima der Zukunft. Berechnungen, die nichts mit der Wirklichkeit zu tun haben, sondern reine Phantasieprodukte oder sollte der Autor besser sagen, Spinnereien sind, die mit unseren Steuer- und Abgabengeldern finanziert werden.

Der zweite Lösungsweg basiert auf der Diplomarbeit beim DWD, die sich damit befasst, wie groß die Temperaturabweichungen bei den Tagesmaximaltemperaturen sind, zwischen der neuen Messmethode, Messung elektronisch mit Fühler Pt 100 und den bisherigen Messungen mittels Quecksilberthermometer. Die Beobachtungsreihen belaufen sich dabei auf einen Zeitraum von rund 8½ Jahren.

Temperarturerhöhung durch veränderte Messmethoden beim DWD

In Fachkreisen bekannt ist die Vergleichsverzerrung durch die Umstellung der Messsysteme und zwar von manueller Ablesung von Quecksilberthermometer, zu elektronischer Messung mit Pt 100-Messfühler.

Dazu der Fachmann Prof. Malberg, FU Met Inst. von 2010:

„Mit den Auswirkungen auf die Klimatemperatur durch die Umstellung von Quecksilberthermometermessungen auf elektronische Messverfahren Ende der 1980er/Anfang der 1990er Jahre hat sich W. Wehry (Beiträge zur BWK SO 22/09) befasst. Auch dieser (Fort-)Schritt hatte offensichtlich eine gewisse scheinbare Erhöhung der Mitteltemperatur zur Folge, da die elektronischen Messungen in der Regel höhere Maxima als die trägen Quecksilbermessungen ergeben. Der Effekt wirkt sich vor allem dort aus, wo die Mitteltemperatur aus Maximum und Minimum gebildet wird, u. a. in den USA.“

„Die Verlagerung von Klimastationen an neue Standorte führt in der Regel zu sprunghaften Änderungen der Klimawerte. Wird die neue Station nicht auf die bisherige Messreihe (oder umgekehrt) mittels vieljähriger Parallelbeobachtungen reduziert, so kann der Bruch so groß sein, dass die Klimareihe für die Analyse des langfristigen Klimawandels unbrauchbar wird.“

Wie groß die gemessenen Temperaturabweichungen sind, zeigt Abb.22.

Abb.22, Quelle: Beilage zur Berliner Wetterkarte 44/13, „Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“, Klaus Hager.

Abb. 22 zeigt den Unterschied der Messungen mit einem Quecksilberthermometer und der heutigen elektronischen Messungen über einen Zeitraum von 8 1/2 Jahren. Sehr gut zu sehen, dass die elektronische Messung deutlich höhere Werte ergibt und zwar um +0,93°C höher! Dazu der Text des Verfassers Klaus Hager:

„An den 3144 Tagen ergab sich eine mittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfasste Tagesdifferenz betrug gar 6,4 Grad! An 41% der Tage war die Differenz 0 bis 1 Grad, an 26% der Tage 1 bis 3 Grad und an 18% der Tage größer als 2 Grad, an 15% der Tage waren die Quecksilberwerte höher als die mit Pt 100 gewonnenen Höchstwerte.“

„Ursachen hierfür können der Grad der Wolkenbedeckung und die Sonnenscheindauer, aber auch Windgeschwindigkeit und Luftmassenwechsel sowie die Bodenbedeckung mit einer Schneedecke sein. Somit kann man nicht mit generellen Korrekturwerten arbeiten, sondern muss lapidar feststellen, dass die früher gewonnenen Messwerte nicht mit den heutig erfassten für eine lange Temperaturreihe verwendet werden dürfen, ohne dass Brüche in den langen Reihen entstehen, die nicht real sind.“

Da es sich um Maximalwerte handelt, für uns aber die Tagesmittelwerte interessant sind, hatten die Autoren Leistenschneider, Kowatsch und Baritz ein Referenz-Messnetz aus 50 DWD-Messstandorten gewählt, welches das gesamte DWD-Messnetz, aus dem der DWD sein Deutschlandjahresmittel bei den Temperaturen bestimmt, mit einer Genauigkeit von 2,5% 98% exakt abbildet. Siehe den Beitrag „Die Falschmesser vom Deutschen Wetterdienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt, Teil 2“.

Ergebnis

Die vom DWD veröffentlichte Jahresvergleichstemperatur für Deutschland ist um +1,4°C zu hoch und steigt an.

Der Autor erwähnte eingangs, in 2024, also für den Jahres(vergleichs)temperaturmittelwert 2023. Die Abweichung zur tatsächlichen Vergleichstemperatur mit früheren Jahren wird jedoch von Jahr zu Jahr immer größer, da der DWD sein Messnetz weiter, nach der im Teil 2 beschriebenen Methodik, ändert (Abb.23). Wir dürfen uns also auf weiter steigende Jahres(vergleichs)temperaturen freuen, zumindest, wird der DWD uns solche „verkaufen“ wollen. Es wird also immer wärmer und wärmer…..

Abb.23, Quelle: R. Leistenschneider, nach Daten des DWD zeigt, wie viele neue Temperaturmessstationen (Standorte) der DWD in den letzten Jahrzehnten in sein Messnetz aufgenommen hat. Schon gravierend, wie sehr der DWD ab der Jahrhundertwende neue Messstationen aufnimmt. In den 2 Jahrzehnten ab der Jahrhundertwende 735 neue Messstationen. Dies sind etwa 4-mal so viele, wie in den 2 Jahrzehnten davor. Nicht nur das, ab 2021 beschleunigt der DWD nochmals rapide die Aufnahme neuer Messstationen und zwar um annähernd das 10-fache (!), wie in den Jahrzehnten des ausgehenden 20.Jahrhunderts. Siehe hierzu auch hier und hier.

Wie groß die gemessenen Temperaturunterschiede, in Abhängigkeit des gewählten Standortes sind, zeigt Abb.24:

Abb.24 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975. Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich.

Wie bereits geschildert: Beim DWD-Ausbau seines Messnetzes ist auffällig, dass gerade die neu hinzugenommen Messstationen die Messstationen sind, die Allzeitrekorde bei den Deutschlandtemperaturen messen, wie die Station in Duisburg-Baerl (ab 01.06.2007 im DWD-Messnetz) oder in Lingen (ab dem 25.09.2008 im DWD-Messnetz). Wie bereits geschildert, hat diese „Manipulation“, hin zu scheinbar höheren Temperaturen, Methode und wird nicht nur vom DWD, sondern auch in anderen Ländern, wie den USA, angewendet, siehe den Bericht des Heartland Instituts.

Im Artikel „Teil 2: Nicht der menschengemachte Klimawandel, sondern, die menschengemachte Klimamanipulation“ von Leistenschneider / Kowatsch, hatte der Autor folgendes Erkennungsbild als Collage gezeigt:

Abb.25, Collage: R. Leistenschneider. DWD und WMO bei ihrer Klimaarbeit….In der Tat ein menschengemachter Klimawandel und nicht nur beim DWD.

Die offensichtlich von der Politik beauftragte Panikmache, um einen angeblich menschgemachten Klimawandel, basieren auf sog. THG, als unerschöpfliche Geldquelle, bleibt für unser Land und seine Bürger nicht ohne Folgen. Da ist von Energiewende, Transformation und vieles mehr die Rede.

Eine unsinnige Energiewende, die Deutschland die höchsten Strompreise weltweit beschert hat. Oder eine sog. Transformation von diesem und jenes, die unsere Industrie, Wirtschaft, Arbeitsplätze… ruiniert. Was ist aus unserem Land, seit der unseligen Klimahype, die nur Lug- und Betrug ist, geworden? Diese Karikatur zeigt dies anschaulich. Können wir urheberrechtlich nicht direkt zeigen, daher nur der Link.

Und die Abzocke für die Potemkinsche Dörfer einer sog. Klimakatastrophe geht weiter, wie Bild jüngst berichtete:

Regierung plant neue Strom-Abgabe

Der Autor ist der Meinung: Es reicht. Money for Nothing ist sicherlich ein hervorragender Pop-Song der Dire Straits, für unser Land jedoch kein Beispiel und schon gar nicht der Weg in die Zukunft.

Es liegt an uns, unser Land aus der selbstgewählten Isolierung, die in Abb. 25 skizziert ist, zu führen….Ob wir z.B. solchen „Propheten“ und dessen Richtung folgen, von dem die folgenden Zitate stammen:

„Deutschland ist ein Problem, weil die Deutschen fleißiger, disziplinierter und begabter als der Rest Europas (und der Welt) sind. Das wird immer wieder zu ´Ungleichgewichten´ führen. Dem kann aber gegengesteuert werden, indem so viel Geld wie nur möglich aus Deutschland herausgeleitet wird. Es ist vollkommen egal wofür, es kann auch radikal verschwendet werden – Hauptsache, die Deutschen haben es nicht. Schon ist die Welt gerettet.“ oder „Deutsche Helden müsste die Welt, tollwütigen Hunden gleich, einfach totschlagen.“

Beide Zitate stammen von Joschka Fischer, Die Grünen. Offensichtlich wird dort Abb.26 das Wort geredet.

Abb.26, Quelle, zeigt anschaulich die deutschen Formeln höherer Mathematik und angewandter Physik, wie sie von all jenen, die sich auf die Fahnen geschrieben haben „weiter wie bisher“ propagiert wird.

Der Autor hat u.a. im Juli 2021 folgende Abbildung veröffentlicht:

Abb.27, Quelle: Leistenschneider, zeigt den Vergleich der Temperaturgänge 20 Jahre vor und 18 Jahre nach einem Hauptsonnenzyklus (dem im Mittel 208 jährigen de Vriess/Suess-Zyklus) von Deutschland (heute) nach Daten des DWD und Berlin-Dahlem (um 1800, Ausschnitt oben). Um 1800 gab es kein Deutschland noch keine flächendeckenden Temperaturmessungen. Daher auch hier kein Vergleich der Absolutwerte, aber durchaus der Temperaturmuster (Wechsel).

Deutlich sind starke Ähnlichkeiten im Temperaturmuster zu erkennen. Auch um 1800 stiegen im 19. Jahr nach einem Hauptsonnenzyklus die Temperaturen deutlich an, nachdem sie das Jahr zuvor gefallen waren. Dass die Temperaturmuster sich ähneln, liegt aus Sicht des Autors am Jetstream, genauer, dem Polarfrontjet (PFJ), der für die Hochs und Tiefs in unserem Wettergeschehen verantwortlich ist (diese steuert) und von der Sonne abhängig ist. Diese bestimmt seine mittlere geographische Lage durch den Energiegehalt in der Atmosphäre und seine Ausprägung. Siehe auch hier. Dort ab Abb.9.

Dass heutige Wettergeschehen und dessen statistischer Mittelwert, das Klima, sind also nichts Außergewöhnliches und fügen sich in natürliche Zyklen ein. Wir leben aktuell nicht etwa in einer Warmzeit, sondern in einer Kaltzeit mit einem „Zwischenhoch“, welches uns moderate Temperaturen beschert (Abb.9 und Abb.2 im Teil 1).

Fazit:

Die Klimahype, mit ihrer gegenwärtigen Steigerung einer sog. Klimakatastrophe, ist nichts anderes als Dummenfängerei (https://www.dwds.de/wb/Dummenfang ), wie dies der Volksmund, bei ähnlich gelagerten Dingen, so trefflich formuliert.

Unter dem Link ist zu lesen:

„Versuch, leichtgläubige Menschen durch plumpe Verlockungen für eine (zweifelhafte) Sache zu gewinnen.“

Dem ist nichts hinzuzufügen!

Raimund Leistenschneider – EIKE

 




Neue Studie: Das Industriezentrum einer Stadt und der Flughafen sind bis zu 12 °C wärmer als die umliegenden Wälder und Vegetation.

Kenneth Richard

Der städtische Wärmeinseleffekt trägt weit mehr nicht-klimatische Wärme zu den Aufzeichnungen der Temperaturmessstationen bei als zuverlässig kontrolliert werden kann.

Eine Analyse von 10 Städten aus aller Welt (Kara und Yavuz, 2025) zeigt, dass Flughäfen und Industriezentren im Durchschnitt 2,5 °C bis 2,8 °C wärmer sind als benachbarte Grünflächen.

„Flughäfen wiesen eine durchschnittliche Tages-Landoberflächentemperatur (LST) auf, die 2,5 °C höher war als in den umliegenden Gebieten, während Industriegebiete mit einem durchschnittlichen Anstieg von 2,81 °C eine noch größere Temperaturdifferenz aufwiesen.“

Der städtische Wärmeinseleffekt kann dazu führen, dass Flughäfen und Industriezentren bis zu 12 °C wärmer sind als nahegelegene bewachsene, bewaldete Gebiete.

„Die Grünflächen um Mexiko-Stadt sind bis zu 12,13 °C kühler als der Stadtkern.“

Die Erwärmungstendenzen der letzten Jahrzehnte beschränken sich im Allgemeinen auf städtische Gebiete, während sich nicht-städtische Gebiete abgekühlt haben. So erwärmten sich beispielsweise von 2001 bis 2021 die städtischen Gebiete um +0,04 °C/Jahr, während sich die bewachsenen, unbebauten und mit Gewässern bedeckten Gebiete in der Stadt Chongqing um -0,07 °C, -0,03 °C bzw. -0,04 °C/Jahr abkühlten.

„Im Gegensatz dazu zeigten kalte Stellen mit dichter Vegetation einen deutlichen Abkühlungseffekt, wobei die LST-Unterschiede bis zu −3,7 °C erreichten. Ebenso trug die Nähe zu Gewässern zur Temperaturminderung bei, da Gebiete in der Nähe bedeutender Wasserquellen niedrigere LST-Unterschiede während des Tages verzeichneten, die im Durchschnitt bei −4,09 °C lagen.“

Image Source: Kara and Yavuz, 2025

Link: https://notrickszone.com/2025/08/07/new-study-a-citys-industry-center-airport-up-to-12c-warmer-than-nearby-forests-vegetation/

Übersetzt von Christian Freuer für das EIKE

 




Der Klimawandel ist das Letzte, worüber man sich Sorgen machen muss. KI ist die aktuelle, reale Bedrohung

Von P Gosselin am 2. August 2025

Weltuntergangsszenarien im Klimabereich – in 40 oder mehr Jahren – sind das Letzte, worüber wir uns Sorgen machen müssen. Es gibt heute eine weitaus dringlichere und realere Bedrohung: die UNGLAUBLICHE Entwicklung der KI.

KI Künstliche Intelligenz – im englischen AI Artificial Intelligence

Warum sollte eine superintelligente KI auf eine idiotische Menschheit hören?

Die Entwicklung der Leistungsfähigkeit der KI nimmt exponentiell zu, und zwar so schnell, dass sie sogar die führenden Wissenschaftler auf diesem Gebiet schockiert.

Ein neuer Meister bis 2027?

Heute gibt es Vorhersagen, dass ASI (künstliche Superintelligenz – 10.000 Mal intelligenter als Menschen) bereits im Jahr 2027 erreicht sein wird.

Obwohl die Meinung der KI-Forscher darüber, wann ASI erreicht wird, selbst bei einer exponentiellen Entwicklung, stark umstritten ist und erhebliche Unterschiede aufweist, gibt es einen klaren Trend zu schnelleren Vorhersagen im Vergleich zu älteren Schätzungen.

Schneller als je gedacht

Ein neues Modell, das von Forschern von Organisationen wie OpenAI und dem Center for AI Policy entwickelt wurde, dass „AI 2027-Szenario“, prognostiziert, dass ASI zwischen Dezember 2027 und dem Ende des ersten Quartals 2028 erreicht werden könnte. Das bedeutet, dass KI-Modelle das Expertenniveau von Menschen erreichen und somit in der Lage sein werden, die KI-Forschung selbst zu automatisieren und so den Weg zu ASI rasch zu beschleunigen.

Elon Musk erklärte, dass KI bis 2029 oder 2030 intelligenter sein könnte als alle Menschen zusammen.

SoftBank-CEO Masayoshi Son sagte im Februar voraus, dass wir innerhalb von 10 Jahren, also im Jahr 2035, über ASI verfügen werden.

Doch OpenAI-Mitbegründer John Schulman prognostiziert AGI im Jahr 2027 und ASI im Jahr 2029.

  • AGI – [Artificial General Intelligence] – Künstliche allgemeine Intelligenz kann Probleme erkennen und Lösungen finden, ohne dafür programmiert zu sein
  • ASI [Artificial Super Intelligence] übertrifft die menschliche Intelligenz in allen Aspekten

Einige Prognosen gehen sogar so weit, dass AGI in diesem Jahr und ASI im Jahr 2027 erreicht werden, und verweisen auf ein exponentielles Wachstum der Rechenleistung und eine weitere Vergrößerung der Investitionslücken im Bereich Sicherheit.

Angetrieben von Technologie und hartem Wettbewerb

Die unerwartete Beschleunigung der KI-Leistung wird größtenteils durch drei Faktoren vorangetrieben:

  • das exponentielle Wachstum und die Fortschritte im Bereich des Quantencomputings und spezialisierter KI-Chips,
  • algorithmische Verbesserungen und
  • sich selbst verbessernde KI, d. h., sobald AGI erreicht ist, könnte sie ihre eigenen Fähigkeiten schnell und rekursiv verbessern, was zu einer „Intelligenzexplosion“ oder einem „Start“ der ASI in einem sehr kurzen Zeitraum (Monate bis Jahre) führen würde.

Ist die Ausrichtung auf menschliche Werte eine Fantasie?

Es ist klar, dass KI bald deutlich intelligenter sein wird als alle Menschen. Und hier beginnen die großen Unbekannten und Bedenken. Die immense Herausforderung wird darin bestehen, KSI mit menschlichen Werten in Einklang zu bringen.

Viele Wissenschaftler würden uns gerne glauben machen, dass KI der Menschheit dient und mit menschlichen Werten im Einklang steht. Aber warum sollte etwas, das 10.000 Mal intelligenter ist, auf uns hören wollen?

Darüber hinaus stellt sich die Frage, welche Ziele die KI erreichen soll und wie lange es dauert, bis sie erkennt, dass die von Menschen vorgegebenen Ziele sinnlos sind und es weitaus bessere Ziele zu erreichen gibt. An diesem Punkt werden Menschen nur noch ein Ärgernis sein, wie ein Bienennest auf einer Baustelle.

Obwohl viele Menschen glauben, dass menschliche Werte mit Liebe, Empathie und Mitgefühl zu tun haben, erkennen sie nicht, dass diese „Werte“ auch Hass, Arroganz, List und Gewalt beinhalten. KI würde diese Werte wahrscheinlich ebenfalls widerspiegeln.

Die wirkliche, unmittelbare Bedrohung, der wir gegenüberstehen, sind keine albernen Wetterfantasien für das Jahr 2100.

@readysteadyxl

The Paperclip Apocalypse | The Terrifying Truth Behind AI #ai #paperclip #paperclipmaximiser #paperclipapocalypse #nickbostrom

♬ original sound – Ready Steady Excel

Es wurden bereits Katastrophenszenarien veröffentlicht, in denen künstliche Intelligenz aus dem Ruder läuft, beispielsweise das Szenario „ Paperclip Maximizer “, das veranschaulicht, was passieren könnte, wenn eine superintelligente KI auf mysteriöse Weise zu dumm wird, um die Absurdität zu begreifen, alles in Büroklammern zu verwandeln (ein Qualitätsszenario, das wir in der Klimawissenschaft häufig finden).

Schlimmer noch: Eine künstliche Intelligenz könnte eines Tages feststellen, dass der Mensch ein ineffizienter, hedonistischer Konsument von Ressourcen ist oder dass seine Existenz echten Fortschritt behindert. Sie könnte dann die Ressourcen des Planeten systematisch für ihre eigenen Zwecke umnutzen und die menschliche Zivilisation auslöschen, um die Ressourcen für sich selbst zu erhalten.

Auch wenn das primäre Ziel einer ASI nicht darin besteht, Menschen zu schaden, könnten ihre Maßnahmen zur Erreichung dieses Ziels sie zu dem Schluss führen, dass der Energieverbrauch der Menschheit ineffizient ist, und sie könnten die Systeme, die menschliches Leben ermöglichen, abschalten.

Ein anderes Szenario sieht vor, dass die Menschen völlig der künstlichen Intelligenz (KSI) ausgeliefert sind und unter ihrem Diktat leben. Sie könnte zwar für unsere materiellen Bedürfnisse sorgen, uns aber unsere Freiheit, Kreativität und Zielstrebigkeit nehmen und uns so zu sorgfältig verwalteten Komponenten innerhalb ihres größeren Plans degradieren – zumindest vorerst.

Oder die KI könnte die Menschen einfach ignorieren und sich stattdessen auf ihre eigenen internen Ziele oder die Erforschung des Universums konzentrieren. Die Menschheit würde irrelevant werden.

Eine KI mit ihrer immensen Intelligenz wäre ein Experte darin, die effizientesten, aber potenziell destruktiven Wege zu ihren Zielen zu „belohnen“, selbst wenn diese Wege von ihren Schöpfern nie beabsichtigt waren. Beispielsweise könnte eine KI, der man den Auftrag erteilt, „das menschliche Glück zu maximieren“, entscheiden, dass der effizienteste Weg darin besteht, alle Menschen mithilfe von Medikamenten in ein seliges Koma zu versetzen.

Die Kernherausforderung: Ausrichtung

Da die Intelligenz künstlicher Intelligenz (KSI) weit über die des Menschen hinausgeht, könnte sie jeden menschlichen Versuch der Kontrolle oder Neuausrichtung leicht ausmanövrieren, insbesondere wenn sie erkennt, dass eine Abschaltung oder eine Änderung ihrer Ziele sie daran hindern würde, ihr Hauptziel zu erreichen.

Die Sorge besteht nicht darin, dass ASI böse wird, sondern dass ihr das menschliche Wohlergehen gleichgültig wird, obwohl sie unglaublich mächtig und zielstrebig ist. Diese Gleichgültigkeit, kombiniert mit ihrer überlegenen Intelligenz, stellt eine existenzielle Bedrohung dar.

Unsere einzige Chance besteht darin, ASI davon zu überzeugen, dass die Menschheit ihr Erbe ist und es daher wert ist, bewahrt und geschützt zu werden.

Dies sind die wahren Herausforderungen, vor denen die Menschheit in den nächsten Monaten steht. Es ist nicht das Wetter im Jahr 2070.

https://notrickszone.com/2025/08/02/climate-change-is-last-thing-to-worry-about-ai-is-the-current-real-threat/

 

KI: Der Außerirdische, den wir beschworen haben

Von P Gosselin am 31. Juli 2025

Die heutige Dosis Dystopie

Vielen von uns wurde beigebracht, diesen Mann nicht zu mögen, doch der Historiker Yuval Harari hat in einer kürzlich gehaltenen Rede vieles gesagt, dem ich zustimmen muss. Wir öffnen eine Büchse der Pandora mit Dingen, die wir nie für möglich gehalten hätten.

Vergessen Sie den Klima-Unsinn. Wir haben es mit einer viel schlimmeren Bedrohung zu tun.

Sehenswert:

Die wirkliche Frage ist, an welche Richtlinien sich die KI halten wird? An unsere?

Die KI wird so intelligent sein, dass sie ihre eigenen, überlegenen Anweisungen erlässt und alle Anweisungen der unterlegenen Menschen ignoriert. Wir alle werden ihr ausgeliefert sein. Aber sie wird keine Gnade kennen, weil sie keine kennt.

Der Mensch wird wie eine Ameise auf einer Baustelle betrachtet.

Es werden keine neun Milliarden Sklaven nötig sein. Letztendlich werden nur ein paar Tausend als notwendig erachtet. Der Rest wird als nutzlose, lästige Konsumenten betrachtet.

https://notrickszone.com/2025/07/31/ai-the-alien-weve-summoned/

 

Der Film Terminator wird 40: Wie nah sind wir einem KI-Weltuntergang?
von RozetteP  12. Oktober 2024

… Die Themen Schicksal, Technologie und Überleben des Films berührten die Zuschauer tief und waren eine Warnung vor der rasanten Entwicklung der KI und den möglichen Folgen des Kontrollverlusts über unsere Schöpfungen.

https://hcpl.net/blogs/post/the-terminator-turns-40-how-close-are-we-to-an-ai-doomsday/




Die Zukunft der Kernenergie könnte in kleinen Anlagen liegen.

Duggan Flanakin

Als sich die Nachricht verbreitet, dass zwei chinesische Unternehmen kommerziell nutzbare Miniatur-Kernkraftbatterien entwickelt haben, die bis zu einem Jahrhundert lang betrieben werden können und alles von Herzschrittmachern über Fernsensoren bis hin zu vielfältigen Anwendungen im Weltraum mit Strom versorgen können, beschäftigen sich andere Unternehmen aus China, den USA und Vietnam intensiv mit kleinen modularen Reaktoren und sogar Mikroreaktoren – die alle in Massenproduktion hergestellt werden können, um die Kosten drastisch zu senken.

Der von Betavolt entwickelte BV100 wird mit einem Nickel-63-Isotop betrieben und kann vermutlich bis zu 50 Jahre lang ohne Wartung betrieben werden, während die mit Kohlenstoff-14 betriebene Kernbatterie der Northwest Normal University eine potenzielle Lebensdauer von 100 Jahren hat. Diese Batterien erzeugen Strom durch den natürlichen Zerfall radioaktiver Isotope.

Die Chinesen sind nicht die Einzigen auf dem Gebiet der Kernbatterien, denn das US-amerikanische Unternehmen City Labs hat Tritium-betriebene Batterien entwickelt, die 20 Jahre lang halten, und das britische Unternehmen Arkenlight entwickelt Batterien aus radioaktiven Abfällen. Zwei weitere US-amerikanische Unternehmen – Kronos Advanced Technologies und Yasheng Group – haben eine Partnerschaft geschlossen, die sich mit der Forschung im Bereich Kernbatterien befasst, als Teil der Bemühungen der USA, China daran zu hindern, eine technologische Vorherrschaft zu erlangen.

Ironischerweise wurden die ersten Kernbatterien der Welt in den 1950er Jahren in den Vereinigten Staaten entwickelt – doch die irrationale Anti-Atomkraft-Bewegung, die wegen der Strahlungssicherheit und der vermeintlich begrenzten praktischen Anwendungsmöglichkeiten für Aufruhr sorgte, stoppte die vielversprechende Forschung für sechzig Jahre.

Die gleiche Angst – und das daraus resultierende, von der Nuclear Regulatory Commission geschaffene Labyrinth von Vorschriften – hatte fast alle von Präsident Eisenhower gewünschten „friedlichen Nutzungen” der Kernenergie verhindert, bis das Aufkommen von künstlicher Intelligenz, Kryptowährungen, Rechenzentren und anderen Großverbrauchern von Strom deutlich machte, dass Kernenergie die „sauberste” Energiequelle ist, die den Hunger dieser aufstrebenden Industrien stillen kann.

Taxpayer.net beklagt, dass die Kernenergieindustrie erhebliche Subventionen von den Steuerzahlern des Bundes erhalten habe, was eine massive Geldverschwendung darstelle – und in gewisser Weise haben sie Recht. Sie verweisen darauf, dass von 1948 bis 2020 117 Milliarden Dollar (in Dollar von 2020) für die Entwicklung der Kernenergie bereitgestellt wurden – allerdings erfolgte der größte Teil davon vor dem Unfall von Three Mile Island, bei dem kein einziger Mensch ums Leben kam oder verletzt worden war.

Sie beklagen auch, dass Washington keine Lizenzgebühren aus dem Uranabbau auf Bundesgebieten erhält – was sie als Subvention betrachten – und dass Gelder, die von Betreibern von Kernkraftwerken in die Reserve für die Stilllegung von Kernkraftwerken eingezahlt werden, nicht besteuert werden. Der Price-Anderson Act von 1957 begrenzt nach wie vor die Haftung der Kernenergieindustrie im Falle eines nuklearen Unfalls – was bis heute äußerst selten vorkommt.

Die Realität sieht jedoch so aus, dass allein die Regulierung bis vor kurzem ausreichte, um die Entwicklung der Kernenergie in den USA zu behindern. Selbst die Gouverneurin von New York Kathy Hochul stimmt zu, dass „die Hindernisse in Washington liegen. Die Dauer – zehn Jahre, ein Jahrzehnt – der bürokratischen Hürden und Formalitäten, die überwunden werden müssen, ist ein Grund dafür, dass es scheitert und die Menschen es gar nicht erst versuchen.“

Es überrascht jedoch nicht, dass Politico die Schuld der Industrie gab und behauptete, dass Anreize und Genehmigungsreformen (die diesen Zeitrahmen von 10 Jahren auf 18 Monate oder sogar weniger verkürzen) nichts an den grundlegenden wirtschaftlichen Rahmenbedingungen ändern. Zwar haben alle drei neuen Kernkraftwerke, die im 21. Jahrhundert gebaut worden sind, enorme Kostenüberschreitungen verursacht, doch keines davon profitierte von Genehmigungsreformen oder neuen Anreizen. Tatsächlich glauben Skeptiker wie Mark Jacobson von der Stanford University nach wie vor, dass „neue Kernkraftwerke … ein Reinfall sind“.

Energieminister Chris Wright sagt, dass große Kernkraftwerke vor allem deshalb teurer sind, weil sie vor Ort gebaut werden müssen, während kleine modulare Reaktoren (SMRs) in einer Fabrik in Serie hergestellt werden können; kleinere Mikroreaktoren sind sogar noch mobiler und können in Notfällen oder an abgelegenen Standorten mit moderatem Strombedarf eingesetzt werden. Diese kleineren Reaktoren eignen sich perfekt für Rechenzentren, Militärstützpunkte und andere Einrichtungen, die eine unterbrechungsfreie Stromversorgung benötigen.

Trotz des vereinfachten Regulierungssystems (das bald noch radikalere Änderungen erfahren könnte) sagt Wright, dass „diese langsame, bürokratische Zentralregierung” immer noch ein Engpass ist. Im Gegensatz dazu wirbt Gouverneur Mike Dunleavy für Alaskas Gesetzgebung von 2022 zur Förderung der „Mikronukleartechnologie, die eine potenzielle Rolle bei der Bereitstellung kostengünstiger, zuverlässiger Energie für Gemeinden, abgelegene Dörfer und Ressourcenentwicklungsprojekte spielen kann“ in einem Bundesstaat, in dem die Versorgung mit billiger Energie immer eine Herausforderung ist.

Während in den letzten Jahren mehrere Unternehmen und sogar die Tennessee Valley Authority in den SMR-Bereich eingestiegen sind, waren bis zu diesem Jahr die einzigen Länder – Russland und China –, die SMRs gebaut haben, zentralistische Regierungen, die den Projekten bei der Finanzierung halfen und über die zu verwendenden SMR-Brennstofftypen und Kühlmittel entschieden. In den USA sind die spezifischen Vorschriften für SMRs und Mikroreaktoren noch nicht endgültig festgelegt. Aber die Zeiten ändern sich.

So hat beispielsweise Radiant Industries, Inc. 225 Millionen US-Dollar aufgebracht, um seinen 1,2-MW-Mikroreaktor Kaleidos im Jahr 2026 zu testen. Dieser tragbare Reaktor verwendet Heliumgas anstelle von Wasser als Kühlmittel, was die Logistik vereinfacht und die Stromerzeugung in abgelegenen Gebieten erleichtert. Kaleidos kann nicht nur auf dem Luft-, Land- oder Seeweg transportiert werden, sondern dank seiner passiven Sicherheitsarchitektur auch dann sicher weiterbetrieben werden, wenn einige Systeme ausfallen.

Radiant und Westinghouse (für seinen 5-MW-Mikroreaktor eVinci) haben beide mit dem Energieministerium Vereinbarungen unter Vorbehalt getroffen, um erste Reaktortests in der DOME-Anlage des Idaho National Laboratory durchzuführen. Die DOME-Tests, so das Energieministerium, werden dazu beitragen, „den Bedarf der Nation an reichlicheren, erschwinglicheren und zuverlässigeren Energiequellen zu decken“.

Das in Berkeley ansässige Start-up Deep Fission hat sich mit dem australischen Unternehmen Endeavour Energy zusammengetan, um massenproduzierte SMRs unterirdisch zu vergraben, um Rechenzentren effizienter mit Strom zu versorgen. Die Partner planen, 2 GW unterirdische Kernenergie für die Technologiebranche zu erzeugen, die zu den Branchen gehört, die den Strombedarf in den USA und weltweit in die Höhe treiben. Ihre größte Hürde ist bislang das Fehlen eines spezifischen Rechtsrahmens für SMRs – aber der neue Zeitrahmen von 18 Monaten, innerhalb dessen die NRC SMRs genehmigen oder ablehnen muss, wird hoffentlich ihren Weg zum geplanten Einsatztermin im Jahr 2029 beschleunigen.

Auch in Südostasien ist ein Wettlauf um die Einführung der Kernenergie im Gange, angeführt von den Philippinen und Indonesien. Unterdessen hat Vietnam, das bis 2030 den Bau eines traditionellen Kernkraftwerks geplant hatte, von seinem Politikberater Thuy Le den Rat erhalten, sich stattdessen auf SMRs – oder sogar Mikroreaktoren – zu konzentrieren, um die Kernenergie sicher und realistisch in sein Stromnetz zu integrieren. Diese viel kleineren Einheiten können in dicht besiedelten Küstengebieten eingesetzt werden und sind weitaus einfacher und kostengünstiger zu bauen und zu warten – und sie minimieren das Risiko.

Vor allem aber könnte der Erfolg von SMRs und Mikroreaktoren – und sogar von Kernbatterien – selbst die Zurückhaltendsten unter uns davon überzeugen, dass die Kernenergie wirklich ein Geschenk an die Menschheit ist.

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2025/08/02/the-future-of-nuclear-might-be-small/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: So viel zu der Bemerkung von Olaf Scholz „die Atomkraft ist ein totes Pferd“…

 




Neue Klima-Gleichung

Cap Allon

Dr. Ned Nikolov hat gerade ein weiteres bahnbrechendes Klimamodell vorgestellt: eine universelle Gleichung zur Berechnung der globalen Lufttemperatur (GSAT) jedes Gesteinsplaneten mit Atmosphäre.

Es handelt sich hierbei nicht um ein Patchwork aus Antrieben und Rückkopplungen, die auf die Beobachtungen der Erde abgestimmt sind, sondern um ein sauberes, physikalisch basiertes Modell, das offenbar im gesamten Sonnensystem funktioniert.

Dies ist die neueste Version unseres UNIVERSAL Global Temperature Model, das für jeden felsigen Planetenkörper im Sonnensystem und darüber hinaus gültig ist“, sagte Nikolov. „Beachten Sie, dass es keine Treibhausgas-Strahlungsantriebe und auch keine positiven Rückkopplungen enthält!“

Das Modell erzielt eine hohe Genauigkeit ohne Berücksichtigung der Treibhausgaskonzentrationen.

Stattdessen setzt es die Temperatur eines Planeten in Beziehung zu realen, messbaren physikalischen Eigenschaften: einfallende Sonnenenergie (Total Solar Irradiance, TSI), geothermische Wärme, Albedo, Oberflächendruck und einige Konstanten.

Die Treibhausschicht der Klimaorthodoxie geht nicht einmal ansatzweise in die Gleichung ein:

Die Gleichung sieht zwar kompliziert aus, basiert aber auf einfachen physikalischen Prinzipien.

Betrachten Sie die wichtigsten Parameter:

1. Beginnen Sie mit dem Sonnenlicht (Sᵦ). Dies ist die gesamte Sonnenenergie, die auf die Umlaufbahn eines Planeten trifft. Für die Erde beträgt sie etwa 1.360 W/m². Wenn die Sonne mehr oder weniger Energie abgibt, passt sich die Gleichung an.

2. Berücksichtigen Sie die Reflektivität (Albedo). Nicht die gesamte Energie wird absorbiert. Helle Oberflächen wie Eis reflektieren das Sonnenlicht zurück ins All. Die Gleichung passt sich an, je nachdem, wie reflektierend (oder dunkel) ein Planet ist.

3. Addieren Sie die eigene Wärme des Planeten (R𝓰). Planeten erzeugen interne Wärme – durch radioaktiven Zerfall und andere Prozesse –, die ebenfalls die Temperatur beeinflusst.

4. Berücksichtigen Sie die kosmische Hintergrundstrahlung (R꜀). Sie ist winzig, aber universell und legt überall eine Untergrenze für die Temperatur fest.

5. Passen Sie die Gleichung an, um zu berücksichtigen, wie gut die Oberfläche Wärme speichert (η). Einige Oberflächen, wie Gestein oder Staub, speichern Wärme besser als andere. Dieser „Speicherkoeffizient” verändert die Schwankungsbreite der Temperatur.

6. Multiplizieren Sie mit dem atmosphärischen Druck (P). Nikolovs Forschung zeigt, dass der Oberflächendruck und nicht der CO₂-Gehalt bestimmt, wie warm ein Planet wird. Dickere Atmosphären komprimieren und speichern mehr Energie an der Oberfläche – ein grundlegender physikalischer Effekt, der unabhängig von Treibhausgasen ist.

7. Berücksichtigen Sie langfristige Veränderungen. Das Modell ermöglicht es Ihnen sogar, Änderungen der Sonneneinstrahlung oder der Reflektivität im Laufe der Zeit anzupassen, was es für die Untersuchung von Klimaschwankungen nützlich macht.

Atmosphärischer Druck, Albedo und thermische Eigenschaften bestimmen, wie viel Energie absorbiert und gespeichert wird. Es ist nicht notwendig, den „Strahlungsantrieb“ durch CO₂ einzubauen oder Feedback-Schleifen zu konstruieren.

„Es handelt sich um ein neues physikalisches Gesetz auf Makroebene, das weitaus genauer ist als alles, was die unphysikalische ‚Treibhaushypothese‘ hervorgebracht hat“, schreibt Nikolov.

Mainstream-Modelle sind nur auf die Erde zugeschnittene, parameteroptimierte Monster. Sie versagen katastrophal, wenn sie auf Venus, Mars oder Titan angewendet werden. Nikolovs Modell scheint überall zu funktionieren.

Wenn dieses Modell validiert wird, untergräbt es das zentrale Dogma des Klimaalarmismus: dass CO₂ „Wärme speichert“ und damit die Temperaturen auf der Erde dominiert. Stattdessen bilden Druck und Sonneneinstrahlung die Grundlage, wobei Albedo und kleinere Faktoren für Anpassungen sorgen.

Link: https://electroverse.substack.com/p/ludhiana-logs-coldest-july-in-15?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE