Die NASA löscht Temperaturdaten der Vergangenheit

Cap Allon

Hier ein weiterer Nachweis von Daten-Manipulation seitens der NOAA:

Wieder einmal hat die NASA frühere Temperaturaufzeichnungen verschwinden lassen – in diesem Fall für Talladega, Alabama.

Die Daten aus der Zeit vor 1950, die höhere Temperaturen in der Vergangenheit und natürliche Schwankungen aufzeigten, wurden gelöscht, so dass nur die Aufzeichnungen nach 1950 übrig blieben, die in das vorgegebene Dogma passen:

Durch Homogenisierung und „Anpassung“ der historischen Temperaturen schreibt die NASA die Klimageschichte systematisch um, um die Erwärmung zu übertreiben.

Dies ist nicht das erste Mal, dass sie das getan hat, und es wird auch nicht das letzte Mal sein. So geht die NASA mit einer unbequemen Wahrheit um – sie streicht sie aus den Aufzeichnungen. Sie wollen nicht, dass man die Vergangenheit sieht. Sie versuchen, einen Großteil der Daten aus dem ländlichen Raum zu verbergen, und so weiter…

Bleiben wir in Alabama: hier zwei ländliche Wetterstationen mit über 120 Jahren aufgezeichneter Temperaturen (Grafik mit freundlicher Genehmigung des pensionierten Meteorologen John Shewchuk). Man stelklt fst: es gibt keine „Hockeyschläger“-Erwärmung, sondern einen klaren, langfristigen Abkühlungstrend:

[54°F = 12,2°C; 66°F = 18,9°C]

Anhand der TOB-Daten (Time of Observation Bias) der NOAA kann man die Wetterstationen in ländliche, städtische oder mittlere Gebiete einteilen. Der Trend spricht dann für sich selbst – städtische Stationen zeigen eine Erwärmung (der Urban Heat Island (UHI)-Effekt), während ländliche Stationen einen Abkühlungstrend aufweisen.

Sie können dies selbst überprüfen. Verwenden Sie die Breiten-/Längenangaben der NOAA-Wetterstationen, gleichen Sie sie mit Google Earth ab und klassifizieren Sie die Stationen unabhängig voneinander. Die Daten lügen nicht – das Muster ist eindeutig.

Wie von Dr. Roy Spencer schon lange vermutet, scheint die „globale Erwärmung“ ein ausschließlich städtisches Phänomen zu sein. Sich ausdehnende Städte mit ihrem Asphalt, Beton und anderen Wärme speichernden Strukturen halten mit der Zeit immer mehr Wärme zurück.

Das natürliche Klimasignal ist in den ländlichen Stationen zu finden, die in den meisten Fällen, also insgesamt, eine Abkühlung zeigen – Abkühlung!

Link: https://electroverse.substack.com/p/snow-in-japan-exceeds-17-feet-another?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Das Energie-Debakel in Europa ist eine Warnung für die USA

Vijay Jayaraj

Wenn es um globale Energiepolitik geht, sind nur wenige Geschichten so lehrreich – und so warnend – wie Europas gescheitertes Experiment mit Wind- und Solarenergie. Die selbstverschuldeten Probleme des Kontinents enthalten Lektionen, die sich diejenigen zu Herzen nehmen sollten, die eine US-Energiestrategie für die neue Regierung formulieren.

Europas unangebrachtes Vertrauen in Wind und Sonne

Europas Engagement für die wetterabhängige Stromerzeugung, insbesondere in Deutschland und Großbritannien, war eine gravierende Fehleinschätzung. Diese Länder begannen eine ehrgeizige Energiewende, die auf der Annahme beruhte, dass Wind und Sonne die traditionellen fossilen Brennstoffe ersetzen könnten. Das Ergebnis war, wie von vielen vorhergesagt, eine Katastrophe.

Deutschland, das oft als Meister der „erneuerbaren“ Energien gefeiert wird, sollte zum König der Inkompetenz gekrönt werden. Die hohen Investitionen des Landes in Wind- und Solarenergie haben nicht nur die versprochene Verringerung der Kohlendioxid-Emissionen – das Schreckgespenst der Klimaalarmisten – nicht gebracht, sondern auch die einst robuste Industriewirtschaft destabilisiert.

[Hervorhebung vom Übersetzer]

Das verarbeitende Gewerbe in Deutschland – historisch gesehen das wirtschaftliche Kraftzentrum Europas – ist in die Knie gezwungen worden, da die Energiekosten viele industrielle Prozesse wirtschaftlich unrentabel gemacht haben. Robert Bryce berichtet über die Preise in der zweiten Dezemberwoche: „Auf dem deutschen Stromgroßhandelsmarkt wurden fast 1000 Dollar pro Megawattstunde erreicht, der höchste Stand seit 18 Jahren.“

Das grundlegende Problem liegt in der inhärenten Unberechenbarkeit der erneuerbaren Energien. Die Windenergie zeigt sich in kritischen Zeiten besonders anfällig. Der Winter ist ein perfekter Sturm von Herausforderungen: Die geringere Winderzeugung fällt mit der höchsten Energienachfrage zusammen, was zu einer Instabilität des Netzes und einem erhöhten Risiko von Stromausfällen führt.

Die so genannten erneuerbaren Energien sind nicht nur unzuverlässig, sondern auch teuer, obwohl das Gegenteil behauptet wird.

Der Mythos der nivellierten Energiekosten

Politische Entscheidungsträger und Befürworter erneuerbarer Energien haben sich lange Zeit auf die Stromgestehungskosten (Levelized Cost of Energy, LCOE) als primäre Messgröße für den Vergleich von Energiequellen verlassen. Von diesem irreführenden Konstrukt profitieren jedoch nur Geschäftemacher.

Die Stromgestehungskosten berücksichtigen nicht die massiven Investitionen in die Infrastruktur, den Bedarf an Reservestrom und die Kosten für die Netzstabilisierung, die mit intermittierenden Energiequellen verbunden sind. Dadurch sind die tatsächlichen Kosten von Wind- und Solarenergie viel höher als der beworbene Preis und wirken sich zerstörerisch auf die Wirtschaftlichkeit von Unternehmen und Haushalten aus.

„Wir haben es in Europa mit einem zerfallenden Stromnetz zu tun, das absichtlich von Politikern geschaffen wurde, die so grün wie ein Smaragd sein wollen“, sagt Thomas Shepstone, ein amerikanischer Beobachter der Energiemärkte. „Sie haben etwas geschaffen, das man nur als grünen Schleim bezeichnen kann, der sie alle zu verschlingen und zu ersticken droht. Die Strompreise sind außer Kontrolle, es drohen Stromausfälle, und trotzdem wollen die Ideologen noch mehr Druck machen.

[Hervorhebungen vom Übersetzer]

Die USA müssen das europäische Desaster unbedingt vermeiden

Das europäische Experiment ist eine deutliche Warnung: Ideologische Bestrebungen – insbesondere wie der „grüne“ Übergang, der auf fieberhaften Schwärmereien über eine angebliche Klimakrise beruht – dürfen niemals an die Stelle der technologischen und wirtschaftlichen Realitäten treten.

Die Vereinigten Staaten haben die Möglichkeit, einen verantwortungsvolleren, pragmatischeren Kurs einzuschlagen – einen Kurs, der wirtschaftliche Notwendigkeiten und Energiesicherheit mit innovativen Technologien in Einklang bringt:

– Erdgas, das durch Hydraulic Fracturing reichlich zur Verfügung steht, hat nicht nur die Strompreise gesenkt, sondern auch energieintensiven Branchen wie der Chemie-, Stahl- und Fertigungsindustrie einen Wettbewerbsvorteil verschafft.

– Die vielgeschmähte Kohle sollte ein Comeback erleben dürfen, und zwar mit der derzeit verfügbaren Technologie, die in Japan und anderswo eingesetzt wird, um die Emissionen auf ein unschädliches Maß zu reduzieren.

– Die Kernenergie scheint auf dem Vormarsch zu sein.

Politische Empfehlungen

Um die Fehler Europas nicht zu wiederholen, sollten die Vereinigten Staaten folgende Maßnahmen ergreifen:

1. Bei der Förderung von Energiequellen sollten Zuverlässigkeit und Erschwinglichkeit Vorrang haben.

2. Förderung von Investitionen in die Netzstabilität und weg von Wind- und Solarenergie, insbesondere in Regionen mit strengen Wintern.

3. Verwendung realistischer Maßstäbe für die Bewertung der Energiekosten.

4. Die Wettbewerbsfähigkeit der Industrie sollte bei der Entwicklung der Energiepolitik eine vorrangige Rolle spielen.

Die Wahrscheinlichkeit, dass die USA diesen Gedankengang weiterverfolgen, wird durch die Wahl von Donald Trump deutlich erhöht, obwohl diese Angelegenheit zu wichtig ist, um sie als selbstverständlich anzusehen.

This commentary was first published at Newsmax on January 7, 2025.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Farifax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://cornwallalliance.org/europes-energy-debacle-is-a-warning-for-u-s/

Übersetzt von Christian Freuer für das EIKE

 




Sechs Zehntausendstel eines Grades pro Gigatonne

Willis Eschenbach

[Alle Hervorhebungen im Original]

Nun, ich sehe, dass die kanadischen Klimabetrüger im einfachen Rechnen nicht besser sind als die Lehrer in Philadelphia. Hier ist der brillante kanadische Plan – die direkte Abscheidung von CO₂ aus der Luft (DAC) zur Pflicht zu machen. DAC bedeutet, CO₂ direkt aus der Luft abzusaugen und es tief in den Untergrund zu pumpen, wo es nicht entweichen kann. Theoretisch.

Aus dem Artikel:

Beim kanadischen DAC-Protokoll geht es nicht nur um freiwillige Gutschriften, sondern auch darum, die Grundlage für die Integration von DAC in die Kohlenstoffmärkte zu schaffen, auf denen Gutschriften gesetzlich vorgeschrieben und nicht freiwillig sind. Gegenwärtig dominieren Märkte für die Einhaltung von Vorschriften wie das EU-Emissionshandelssystem und das kalifornische Cap-and-Trade-Programm den globalen Kohlenstoffhandel.

Dieser Übergang würde die Nachfrage nach DAC-Gutschriften drastisch erhöhen, da große Emittenten, von Kraftwerken bis hin zu Produktionsanlagen, DAC-Kompensationen kaufen könnten, um die staatlich vorgeschriebenen Reduktionsziele zu erreichen. Diese Umstellung würde die Investitionen in die DAC-Infrastruktur erheblich steigern und die Kosten mit der Zeit senken.

Das klingt wie das Klima-Nirwana. Was gibt es da nicht zu mögen?

Wie immer steckt der Teufel in den Dollars … und das sieht folgendermaßen aus: Kanadas gesamter Bundeshaushalt beläuft sich auf etwa 450 Milliarden CAD$. (CAD = Kanadische Dollar). Das Land emittiert etwa 550 Millionen Tonnen CO₂ pro Jahr.

Nochmals zum Artikel:

Nach Angaben des CDR.fyi wurden bisher über 1,6 Millionen Tonnen DAC-Kohlenstoffzertifikate zu einem Durchschnittspreis von 470 Dollar pro Tonne gekauft.

470 CAD$ pro Tonne mal 550 Millionen Tonnen/Jahr ≈ 260 Milliarden CAD$ pro Jahr.

Sie schlagen vor, dass ein Betrag, der 60 % des gesamten kanadischen Bundeshaushalts entspricht, jedes Jahr für Direct Air Capture (DAC) ausgegeben wird … was nichts bewirken wird. Es wird nichts produziert werden. Kein Kanadier wird reicher werden. Niemand wird ernährt oder gekleidet werden. Es wird nichts von Wert geschaffen.

Wie ich bereits gesagt habe, sollte jeder, der einen Klimaplan wie diesen vorschlägt, gesetzlich verpflichtet werden, seine Berechnungen zu den Temperatureinsparungen aufgrund seiner genialen Idee zu veröffentlichen. Hier sind die Berechnungen für ihren Plan unter Verwendung der IPCC-Annahmen. Ich sage nicht, dass der IPCC Recht mit seiner Behauptung, CO₂ sei der Temperaturregler. Ich verwende nur ihre Annahmen, um die Auswirkungen der Klimapolitik zu berechnen, falls sie richtig sind.

Nach einigem Nachdenken bin ich auf eine einfache Möglichkeit gestoßen, die Beziehung zwischen CO₂-Emissionen und Temperatur unter Verwendung der IPCC-Annahmen zu schätzen. Zunächst muss ich jedoch eine Warnung für diejenigen aussprechen, die eine Mathe-Allergie haben. Aber keine Angst, es ist nur eine einfache Multiplikation. Hier ist die Warnung:

Nachdem dies geklärt ist, zeigt Abbildung 1 die Berechnungen. Anstatt anhand der Emissionen die Veränderung der atmosphärischen CO₂-Werte zu berechnen, dann anhand der CO₂-Änderungen in der Atmosphäre die Veränderung des CO₂-Antriebs zu berechnen und dann anhand dieser Antriebsveränderungen die erwartete Temperaturveränderung zu berechnen, dachte ich, ich würde den Sumpf durchbrechen.

Ich beschloss, alle Zwischenschritte wegzulassen und einfach zu sehen, wie die Beziehung zwischen Emissionen und Temperatur aussieht.

Abbildung 1. Jährliche Temperatur der Erde nach Berkeley Earth und geschätzte Temperatur aufgrund der kumulativen anthropogenen CO₂-Emissionen unter Verwendung der Formel oben in der Abbildung. Die Emissionen sind in Gigatonnen Gt angegeben, was einer Milliarde Tonnen oder 10⁹ Tonnen entspricht. Und zur Erinnerung: Korrelation ≠ Kausalität. Ich kann eine ebenso gute Korrelation mit der Temperatur erzielen, wenn ich die Bevölkerung anstelle der Emissionen verwende … aber ich schweife ab …

Beachten Sie die Einfachheit dieser Methode. Wenn der IPCC Recht hat, ist der vermiedene Temperaturanstieg in Grad Celsius die Summe der vermiedenen CO₂-Emissionen in Gigatonnen mal 0,0008 Grad Celsius pro Gigatonne.

Ich finde zum Beispiel Folgendes:

Wie viele Tonnen CO₂-Emissionen werden durch den Windpark Block Island pro Jahr vermieden?

Etwa 40.000 Tonnen pro Jahr

Trotz seiner bescheidenen Größe bedeutet der Windpark, dessen Bau etwa 300 Millionen Dollar gekostet hat, eine erhebliche Reduzierung der Kohlendioxid-Emissionen – etwa 40.000 Tonnen pro Jahr.

Geht man wiederum davon aus, dass die Behauptungen des IPCC richtig sind, und verwendet den Umrechnungsfaktor von 0,0008°C pro Gigatonne vermiedener CO₂-Emissionen, so ergibt sich, dass Block Island für eine vermiedene Erwärmung von 0,00000003°C pro Jahr verantwortlich ist.

Eindeutig eine „signifikante Reduktion“ … hier mehr über das Block Island Fiasko

Hier ist ein weiteres Beispiel. Im Jahr 2022 sagte die IEA:

Der verstärkte Einsatz sauberer Energietechnologien wie erneuerbare Energien, Elektrofahrzeuge und Wärmepumpen trug dazu bei, zusätzliche 550 Mio. t CO₂-Emissionen zu vermeiden.

Klingt beeindruckend … aber wenn wir das in Temperatur umrechnen, ergibt sich eine vermiedene Erwärmung durch all diese Technologien von 0,0004°C pro Jahr … bei dieser Rate wird das eine Weile dauern.

Um auf Kanada zurückzukommen: Bei den oben genannten Kosten von 470 CAD$ pro Tonne Direct Air Capture (DAC) werden die 7,4 Gt vermiedener CO₂-Emissionen bis 2050 etwa 3,5 Billionen CAD$ kosten.

Und für diese gigantischen Kosten wird die MÖGLICHE THEORETISCHE Abkühlung im Jahr 2050 n. Chr. nicht einmal ein Zehntel Grad betragen. Sie wird nicht einmal ein Hundertstel eines Grades betragen.

Es wird ein lächerliches Sechstausendstel eines Grades sein. Verloren im Rauschen. Unmeßbar.

Kanada schlägt vor, Billionen für ein Ergebnis auszugeben, das zu gering ist, um es zu messen: 0,006°C vermiedene Erwärmung bis 2050. Wie kommt es, dass dies jemals als vernünftige Maßnahme angesehen worden ist?

Und schließlich: Sagen Sie bitte nicht: „Aber wenn Kanada es tut, werden die anderen ihrem edlen Beispiel folgen!“ oder Ähnliches. Erstens werden die Chinesen und Inder nicht nachziehen, sie sind Realisten. Zweitens wachen die Menschen in fast allen anderen Ländern auf und stellen fest, dass die Ausgabe von 3,5 TRILLIONEN Dollar für eine mögliche Abkühlung um 0,006°C in einem Vierteljahrhundert verrückt ist, ganz zu schweigen davon, dass sie völlig unbezahlbar ist.

Ein lustiger Fakt für heute. Nur drei Länder haben sich der chimärenhaften Idee „Netto-Null bis 2050″ verschrieben – Kanada, Australien und UK. Das Commonwealth muss aufwachen, ja, sogar die Deutschen wachen auf. Die Menschen lassen sich täuschen. Hier ist, was die Kanadier glauben, dass sie tun:

Wow, ziemlich beeindruckend! Die CO₂-Emissionen sind gesunken! Werfen wir mehr Geld hinein!
Aber hier draußen in der realen Welt sieht der kanadische Wandel so aus:

Egal, wie viele Billionen Dollar die Kanadier für die Emissionskontrolle verschwenden, es wird keinen Unterschied machen. Kanada könnte morgen auf Netto-Null gehen. Es würde keinen Unterschied machen.

WACHT AUF, LIEBE FREUNDE!

Link: https://wattsupwiththat.com/2025/01/31/eight-ten-thousandths-of-a-degree-per-gt/

Übersetzt von Christian Freuer für das EIKE




Eine Warnung von Baumringen

spaceweather.com

Wie schlimm kann ein Sonnensturm sein? Man frage einfach einen Baum. Im Gegensatz zu menschlichen Aufzeichnungen, die Hunderte von Jahren zurückreichen, können sich Bäume an Sonnenstürme über Jahrtausende hinweg erinnern.

Die Doktorandin Fusa Miyake von der Universität Nagoya machte diese Entdeckung im Jahr 2012, als sie Ringe im Stumpf einer 1900 Jahre alten japanischen Zeder untersuchte. Vor allem ein Ring erregte ihre Aufmerksamkeit. Er stammte aus den Jahren 774-75 n. Chr. und enthielt einen 12%igen Anstieg von Kohlenstoff-14 (14C), einem Isotop, das durch kosmische Strahlung erzeugt wird. Der Anstieg war 20 mal größer als gewöhnliche Schwankungen der kosmischen Strahlung. Andere Teams bestätigten den Anstieg in Holz aus Deutschland, Russland, den Vereinigten Staaten, Finnland und Neuseeland. Was immer auch geschah, Bäume auf der ganzen Welt legen Zeugnis davon ab.

Die meisten Forscher glauben, dass es sich um einen Sonnensturm handelte – einen außergewöhnlichen. Oft wird auf das Carrington-Ereignis von 1859 als das Worst-Case-Szenario für Sonnenstürme verwiesen. Der Sturm von 774-75 n. Chr. war mindestens 10-mal stärker; würde er sich heute ereignen, würde er die moderne Technik dem Erdboden gleichmachen. Seit Miyakes erster Entdeckung haben sie und andere vier weitere Beispiele bestätigt (7176 v. Chr., 5259 v. Chr., 664-663 v. Chr., 993 n. Chr.). Die Forscher nennen sie „Miyake-Ereignisse“.

Graphik: Die Kohlenstoff-14-Spitze von 774-775 n. Chr.. [mehr]

Es ist nicht klar, ob alle Miyake-Ereignisse durch die Sonne verursacht werden. Auch Supernova-Explosionen und Ausbrüche von Gammastrahlen erzeugen Kohlenstoffspitzen. Die Beweise deuten jedoch eher auf Sonnenstürme hin. Bei jedem der bestätigten Miyake-Ereignisse haben Forscher in Eisbohrkernen passende Spitzen von 10Be und/oder 36Cl gefunden. Diese Isotope sind dafür bekannt, dass sie auf starke Sonnenaktivität hinweisen. Außerdem gab es für das Miyake-Ereignis von 774-75 n. Chr. Augenzeugen; historische Berichte über Polarlichter in China und England deuten darauf hin, dass die Sonne zu dieser Zeit extrem aktiv war.

Die Miyake-Ereignisse haben Dendrochronologen (Wissenschaftler, die Baumringe untersuchen) in den Mittelpunkt der Weltraumwetter-Forschung gerückt. Nach Miyakes erster Entdeckung im Jahr 2012 begann die internationale Baumringgemeinschaft zusammenzuarbeiten, um nach Beweisen für solare Superstürme zu suchen. Ihre Zusammenarbeit wird als „COSMIC-Initiative“ bezeichnet. Die 2018 in der Zeitschrift Nature veröffentlichten COSMIC-Ergebnisse bestätigen, dass die Miyake-Ereignisse in den Jahren 774-75 n. Chr. und 993 n. Chr. tatsächlich global waren. In Bäumen auf fünf Kontinenten wurden Kohlenstoffspitzen nachgewiesen.

„Es könnte weitere Miyake-Ereignisse im gesamten Holozän geben“, sagt Irina Panyushkina, ein Mitglied der COSMIC-Initiative vom Labor für Baumringforschung der Universität Arizona. „Sie zu finden, wird ein langsamer und systematischer Prozess sein.“

Graphik: Eine globale Karte der COSMIC-Baumring- und Eiskernmessungen [mehr]

„Eine wichtige neue Quelle für jährliche 14C-Messungen sind schwimmende Baumring-Aufzeichnungen aus Europa und an den Großen Seen“, sagt Panyushkina. „Dies sind sehr alte Ringe, die möglicherweise 14C-Spitzen bis zu 15.000 Jahre zurück erfassen können. Ich glaube, dass wir irgendwann eine vollständige Aufzeichnung der Miyake-Ereignisse in diesem Zeitraum haben werden.“

Vor kurzem wurden vier weitere Kandidaten für Miyake-Ereignisse identifiziert (12.350 v. Chr., 5410 v. Chr., 1052 C. und 1279 C.). Der Kandidat von 12.350 v. Chr., identifiziert anhand von Baumringen in den französischen Alpen, ist möglicherweise mehr als doppelt so stark wie alle anderen Miyake-Ereignisse. Die Bestätigung erfordert die Überprüfung von Bäumen auf vielen Kontinenten und das Auffinden übereinstimmender Spitzen von 10Be und 36Cl in Eisbohrkernen.

Eine vollständige Übersicht über die Miyake-Ereignisse könnte uns Aufschluss darüber geben, wie oft solare Superstürme auftreten und wie groß die Gefahr ist, die die Sonne für eine technisierte Gesellschaft darstellt. Bleiben Sie auf dem Laufenden, was die Bäume betrifft.

Link: https://www.spaceweather.com/ vom 30. Januar 2025

Übersetzt von Christian Freuer für das EIKE

 




Strom für Daten-Zentren … ist KI die treibende Kraft?

Dr. Lars Schernikau

Linkedin Instagram Youtube Twitter

[Alle Hervorhebungen in diesem Beitrag im Original]

Gehen wir die KI-Revolution mit dem Kopf in der „Cloud“ an?

Falls ja, was ist tatsächlich notwendig, um die ständig steigende Nachfrage nach Cloud-Speicher, Streaming, Virtualisierung, künstlicher Intelligenz und natürlich Blockchain-Anwendungen einschließlich digitaler Währungen zu bewältigen?

Daten-Zentren!

… das sind riesige Serverfarmen, die aus Hunderten, manchmal Tausenden von Computerschränken bestehen, die übereinander gestapelt und geclustert sind … und all das dreht sich um Strom?

Diese immer leistungsfähigeren Computerchips (die all diese Funktionen und Anwendungen ermöglichen) benötigen erhebliche Mengen an Energie, um ihre komplexen parallelen Operationen auszuführen. Natürlich wird die neueste Chiptechnologie (einschließlich Quantencomputer) immer energieeffizienter, aber der Gesamtstrombedarf wird sich trotzdem vervielfachen.

Werfen wir einen Blick auf diese „neuen“ Infrastrukturprojekte im industriellen Maßstab, die unser künftiges Leben bestimmen werden, und gehen wir näher darauf ein.

Im Oxford Dictionary liest man:eine große Gruppe von vernetzten Computerservern, die typischerweise von Organisationen für die Fernspeicherung, -verarbeitung oder -verteilung großer Datenmengen verwendet werden“.

Wikipedia geht noch weiter und fügt ein bedeutendes Element hinzu: „Da der IT-Betrieb für die Kontinuität des Geschäftsbetriebs von entscheidender Bedeutung ist, umfasst er in der Regel redundante oder Backup-Komponenten und -Infrastrukturen für die Stromversorgung, Datenkommunikations-Verbindungen, Umgebungskontrollen (z. B. Klimaanlagen, Brandbekämpfung) und verschiedene Sicherheitseinrichtungen. Ein großes Rechenzentrum ist ein Betrieb im industriellen Maßstab und verbraucht so viel Strom wie eine mittelgroße Stadt“.

1. Rechenzentren, wo hat alles angefangen und wo stehen wir heute?

Cloud Computing hat vor weniger als einem Jahrzehnt wie eine Rakete abgehoben. Plattformen wie Dropbox, Unternehmenslösungen von Amazon und Microsoft und zahllose andere neue Cloud-Systeme tauchten in der Covid-Periode auf. Tatsächlich übertrafen die Cloud-Infrastrukturdienste im Jahr 2019 zum ersten Mal die Hard- und Software von Rechenzentren (90 Mrd. USD, laut Synergy Research Group [1]).

Gehen wir einen Schritt zurück zum ersten Rechenzentrum (genannt „Mainframe“), das 1945 gebaut wurde, um den ENIAC an der Universität von Pennsylvania unterzubringen. Der Electronic Numerical Integrator and Computer (ENIAC) war der erste elektronische, digital programmierbare Allzweckcomputer. Das US-Militär entwickelte den ENIAC zur Berechnung von Artillerie-Abschusstabellen. Er wurde jedoch erst Ende 1945 fertiggestellt. Sein erstes Programm war offenbar eine Machbarkeitsstudie für Atomwaffen. [2]

Großrechner aus den 50er und 60er Jahren markieren wahrscheinlich die legitime Geburtsstunde der Rechenzentren, großer Gebäude, in denen riesige Computeranlagen mit Vakuumröhren und Lochkartensystemen untergebracht sind.

In den 60er Jahren wurde der erste Supercomputer eingeführt, der CDC6600. Transistoren, Magnetbänder und Fortschritte bei der Vernetzung veränderten die Landschaft der „Rechenzentren“ in den 70er Jahren. Mit den Mikrocomputern der 80er Jahre verlagerte sich der Schwerpunkt auf die persönliche Datenverarbeitung, und erst in den 90er Jahren kam die „Erfindung“ des Internets und damit die Bedeutung großer „moderner“ vernetzter Rechenzentren wieder auf.

Die heutige Hochgeschwindigkeits-Datenübertragung ermöglicht ein anderes Niveau von Virtualisierung, Streaming, Cloud Computing, KI, Blockchain und mehr. Rechenzentren sind wieder in den Blickpunkt gerückt, weil ihr Strombedarf zu einem ernst zu nehmenden Thema geworden ist.

Da fortschrittliche Computerhardware die Effizienz erhöht, wird der Gesamtenergiebedarf weiter steigen und einen immer größeren Anteil am Gesamtstromverbrauch darstellen, wie in Irland, wo Rechenzentren bereits über 20 % des Strombedarfs ausmachen [3].

2. „Ladet mich auf!“ … Rechenzentren und KI brauchen Strom

Offenbar gibt es weltweit bereits über 11.000 Rechenzentren, die oft räumlich konzentriert sind. Die IEA [3] hat kürzlich richtig festgestellt, dass wir die Dinge ins rechte Licht rücken müssen. Im Jahr 2024 entfällt auf Rechenzentren nur etwa 1 % oder über 300 TWh des weltweiten Stromverbrauchs (Deutschland verbraucht etwa 2 %), und der jährliche Stromverbrauch von Rechenzentren weltweit macht bisher etwa die Hälfte des Stromverbrauchs von IT-Haushaltsgeräten wie Computern, Telefonen und Fernsehern aus. Aber es gibt kein Land, das in den kommenden Jahren schneller wächst als das „Rechenzentrumsland“… wir werden also einige große Veränderungen erleben (Abbildung 1).

Die IEA fährt fort, dass in großen Volkswirtschaften wie den Vereinigten Staaten, China und der Europäischen Union Rechenzentren bereits 2-4 % des gesamten Stromverbrauchs ausmachen, und da sie in der Regel räumlich konzentriert sind, können ihre lokalen Auswirkungen erheblich sein. In mindestens fünf US-Bundesstaaten macht dieser Sektor bereits mehr als 10 % des Stromverbrauchs aus, während es in Irland 20 % des gesamten Stromverbrauchs sind.

– Die IEA teilt auch mit, dass große Rechenzentren einen Strombedarf haben können, der dem eines Elektrolichtbogenofen-Stahlwerks entspricht. Allerdings ist es weniger wahrscheinlich, dass Stahlwerke konzentriert in einem geografischen Gebiet angesiedelt sind, wie es bei Rechenzentren der Fall ist.

Bloomberg 2024 [4] kommentierte den jüngsten Boom: „KI braucht so viel Strom, dass alte Kohlekraftwerke weiterbetrieben werden [müssen]“… und das ist keine Übertreibung. Es wird erwartet, dass die Stromnachfrage in den USA auf 1,5 % pro Jahr oder mehr steigt und damit die schnellste Wachstumsrate seit den 1990er Jahren erreicht. Elektrofahrzeuge, Batteriefabriken, Computerchipfabriken und andere von der Regierung subventionierte „Clean Tech“-Produktionsanlagen werden nur einen Teil dieser steigenden Nachfrage ausmachen. Dies birgt die Gefahr eines Zusammenbruchs der Energienetze. Natürlich müssen die alten Kohlekraftwerke einspringen, denn es gibt kein einziges Rechenzentrum, das mit einer intermittierenden Energiequelle wie Wind oder Sonne oder sogar mit schwankenden Flussläufen betrieben werden kann (siehe meinen Blog über Wasserkraft hier).

Unter Berücksichtigung der neuen KI-Technologie hat Brian Gitt einmal richtig gesagt, dass ein einziger KI-GPU-Chip von Nvidia heute etwa so viel Strom verbraucht wie ein typischer US-Haushalt ohne KI.

Noch interessanter ist die Aussage, dass der Spitzenstrombedarf (in GW) für Rechenzentren schneller wachsen könnte als der Stromverbrauch (TWh), was wir weltweit bereits beobachten können. McKinsey schätzt, dass sich der Spitzenstrombedarf für Rechenzentren allein in den USA auf 80 GW [5] verdreifachen wird, was dem gesamten derzeitigen Spitzenstrombedarf in Deutschland entspricht. Eine solche ununterbrochene Spitzenstromnachfrage zur Versorgung kann natürlich niemals aus einer Kombination von Wind, Sonne und Batterien kommen, da Batterien nur kurzzeitige Energiespeicher sind.

Im World Energy Outlook 2024 der IEA [6] wurde der Spitzenstrombedarf zum ersten Mal ausführlicher diskutiert. Unabhängig von KI und Rechenzentren wird die Primärenergienachfrage weiter wachsen, wobei die Stromnachfrage voraussichtlich 6-mal schneller steigen wird und die Spitzenstromnachfrage den Stromverbrauch übersteigt… über diese entscheidende Situation wurde in den nationalen energiepolitischen Gremien nur sehr wenig gesprochen!

Energie ist ein dreistufiges System (siehe meinen LinkedIn-Beitrag):

1. Spitzenleistung,

2. Elektrizität,

3. Primärenergie

◦ 40 % der Primärenergie bilden die Grundlage für die Stromerzeugung

◦ Elektrizität ist die Grundlage für die Deckung des Spitzenstrombedarfs

Auch wenn die Entwicklung von Rechenzentren durch Engpässe in der Versorgungskette und sogar im Stromnetz selbst behindert werden kann, schätzt die IEA [3] in ihrem Basisfall, dass Rechenzentren im nächsten Jahrzehnt 10 % des Wachstums der Stromnachfrage ausmachen werden, was ich als zu niedrig ansehe.

„Rechenzentren weisen eine außergewöhnlich hohe räumliche Konzentration auf, was angesichts ihres beträchtlichen Strombedarfs erhebliche Auswirkungen auf die lokalen Stromnetze hat“. Ich möchte auch argumentieren, dass die Entwicklung von Rechenzentren zu mehr Ausfällen im Stromnetz führen wird… siehe Abschnitt 5 Rechenzentren, KI, Krypto und die Umwelt weiter unten.

Abbildung 1: Investitionen in Rechenzentren in den USA, IEA [6]

 

Abbildung 2: Strombedarf von US-Rechenzentren, McKinsey [7]

3. Was sagen Google, Meta, Microsoft, Apple und Co.?

Um es gleich vorweg zu nehmen, ich bin ein begeisterter Techniknutzer und finde die Produkte und Dienstleistungen der genannten Unternehmen nicht nur hilfreich, sondern auch sehr wichtig für die Zukunft der Menschheit, auch wenn ich die Moral in Frage stelle. Ich kritisiere hier nur einen Aspekt aller 4 großen Unternehmen, und zwar die Energiepolitik, die nicht falsch interpretiert oder missverstanden werden soll.

Google, Meta, Microsoft, Apple und viele andere behaupten, ihre Rechenzentren zu 100 % mit erneuerbarer Energie zu versorgen, und unterstellen damit eine 100 %ige „Dekarbonisierung“, die nicht nur möglich, sondern offenbar auch schon erreicht ist [7].

Solche Behauptungen werden sogar in Bezug auf ihre in China ansässigen Rechenzentren aufgestellt. Dabei handelt es sich eindeutig um das, was wir als „Green Washing“ kennen, denn die meisten von uns „kaufen“ Gutschriften und wenden sie auf ihren Stromverbrauch an.

Am meisten beunruhigt vielleicht, dass diese großen Unternehmen schon seit langem gegen Kohle/Gas und für Wind- und Solarenergie sind. Erst in jüngster Zeit, als die Bedenken und Gesamtkosten von Wind- und Solarsystemen immer offensichtlicher wurden begannen sie, die Kernenergie zu befürworten. Um es klar zu sagen: Es gibt kein einziges Rechenzentrum auf der Welt, das mit intermittierendem Wind- und Solarstrom betrieben werden kann, das ist physikalisch unmöglich, und je mehr Marktanteile Wind- und Solaranlagen erobern, desto mehr steigen die Gesamtkosten. Bei diesem Tempo wird nicht einmal die Kernkraft in der Lage sein, unseren künftigen Energiebedarf unabhängig zu decken.

Ein weiterer interessanter Punkt sind die Betreiber von Rechenzentren, die behaupten, dass ihre Wasserkraftwerke zu 100 % „erneuerbar“ sind, und ich bitte, Folgendes zu bedenken (1): Wasserkraft ist eine begrenzte Ressource, und wenn die wachsende Nachfrage die Wasserkraft erschöpft, fällt jemand anderes, wie z.B. ein Krankenhaus, in einen Engpass bei der Energieversorgung und ist gezwungen, auf andere Energieträger auszuweichen, in der Regel auf Kohle oder Gas. Eine weitere unbestrittene Tatsache unter denjenigen, die sich mit Wasserkraft beschäftigen ist (2), dass Wasserkraft weit davon entfernt ist, „CO₂- oder kohlenstofffrei“ zu sein, wie es oft angepriesen wird. Mehr dazu in meinem Blogbeitrag „Die unpopuläre Wahrheit über Wasserkraft“.

Google ist ein besonders interessanter Fall. Nicht nur der Strombedarf von Google hat sich innerhalb von 5 Jahren verdoppelt, sondern auch die „CO₂-Intensität“ des Unternehmens hat sich pro MWh verdoppelt. Somit hat sich der „CO₂-Fußabdruck“ von Google vervierfacht (Abbildung 2). Dies scheint in völligem Widerspruch zu den „24/7 Carbon-Free“-Behauptungen des Unternehmens zu stehen… alles natürlich nur Selbstaussagen.

Wenn ich also sage, dass eine KI-Anfrage das 10-fache der Energie verbraucht, die eine Standard-Google-Suche verbraucht… dann bekommen Sie einen Eindruck davon, was auf uns zukommt… dabei sind die „Nicht-Such“-Anwendungen von KI, die in dieser Hinsicht viel wichtiger sind, noch gar nicht berücksichtigt.

Kritische Ausrüstung: Alle Betreiber von Rechenzentren und Investoren sehen sich mit Problemen bei der Verfügbarkeit kritischer Ausrüstung konfrontiert. In den letzten 5 Jahren haben sich die Lieferzeiten für Generatoren, unterbrechungsfreie Stromversorgungen, Transformatoren, Schaltanlagen und Stromverteilungseinheiten verdoppelt und sogar vervierfacht. Ausgebildete Techniker sind Mangelware, werden aber aufgrund der begrenzten Dienste stark nachgefragt.

Über die an der Bereitstellung dieser Rechenzentren beteiligten Rohstoffe und die Lieferketten wird selten diskutiert. Die Entsorgung … wohin all dies nach 3-7 Jahren (so lange halten die Computer) geht … wird ebenfalls nicht diskutiert. Die „Umweltfreundlichkeit“ von „Netto-Null“-Rechenzentren ist lächerlich. Es handelt sich um Industrieanlagen, die einen industriellen Fußabdruck haben, selbst wenn sie keinen Schornstein haben… dieser Schornstein kann einfach woanders stehen. Genauso wie ein „sauberes“ Elektroauto, das in China mit Strom aus einem Hunderte Kilometer entfernten Kohlekraftwerk geladen wird.

Abbildung 3: Stromverbrauch von Google und „CO₂-Intensität“

4. KI-Bots: Ein DDoS-Angriff auf das gesamte Internet?

Künstliche Intelligenz erfordert nicht nur teure und energiehungrige Rechenzentren, sondern hat auch Auswirkungen auf „besuchte Standorte“ und erhöht den Netzwerkverkehr an anderen Stellen, was sich auf die Computerinfrastruktur und natürlich auch auf den Energieverbrauch auswirkt. Dies wird in den Zahlen der IEA oder von McKinsey NICHT berücksichtigt.

Da wir jetzt etwas technischer werden, möchte ich das Szenario wie folgt erklären… etwas, das sich „KI-Kriecher“ nennt, durchkämmt ständig das Internet, wechselt die Strategien, „lernt“, passt sich an und erntet jede Information, die sie in die Finger bekommt. Ein deutscher Netzwerkadministrator bezeichnete die KI-Kriecher als einen „DDoS-Angriff auf das gesamte Internet“.

Der Netzwerkadministrator aus Deutschland (Diaspora [8]) erklärte, dass 70 % des Datenverkehrs auf bestimmten Websites durch KI-„Crawler“-Bots verursacht wird. Diese Anfragen verbrauchen Serverzeit und verstopfen das System, das sie „kriechen“, was dazu führt, dass eine größere und energieintensivere Infrastruktur benötigt wird, um diese zusätzlichen Anfragen zu bewältigen.

Dieses Beispiel zeigt, dass nur 0,5 % des Datenverkehrs von klassischen Google- und BING-Bots stammen und 70 % von GPTBot, ClaudeBot und anderen „KI-Crawlern“. Hier ein Zitat des Webadministrators der betroffenen Website:

„Oh, und natürlich crawlen sie eine Seite nicht nur einmal und ziehen dann weiter. Oh, nein, sie kommen alle 6 Stunden wieder, weil lol, warum nicht. Sie scheren sich auch keinen Deut um robots.txt, denn warum sollten sie auch. Und das Beste von allem: Sie crawlen die dümmstmöglichen Seiten. Kürzlich haben sowohl ChatGPT als auch Amazon – zur gleichen Zeit – die gesamte Bearbeitungshistorie des Wikis gecrawlt.

Falls man versucht, die Rate zu begrenzen, wechseln sie einfach ständig zu anderen IPs. Falls man versucht, sie über den User-Agent-String zu blockieren, wechseln sie einfach zu einem Nicht-Bot-UA-String (nein, wirklich). Dies ist buchstäblich ein DDoS im gesamten Internet.“ [8]

Abbildung 4: DDoS-Angriffe im Internet? [9]

5. Zusammenfassung und Implikationen

Es braucht nicht viel mehr als den gesunden Menschenverstand, um zu verstehen, dass der technologische Fortschritt, auch wenn er für unsere weitere Entwicklung von entscheidender Bedeutung ist, enorme Auswirkungen auf die Energienachfrage hat, ob es sich nun um künstliche Intelligenz, die „Cloud“, Raumfahrt, Blockchain oder Robotik handelt.

Mark Mills [9] stellte fest, dass die Investitionsausgaben für die globale Cloud-Infrastruktur inzwischen die globalen Investitionsausgaben aller Stromversorger zusammen übersteigen, obwohl wir alles elektrifizieren.

Die Cloud ist nicht das Internet. Die Cloud nutzt das Internet in Kombination mit Rechenzentren und Datenübertragungsleitungen als Fabriken und Autobahnen.

Die Auswirkungen des technologischen Fortschritts auf die Umwelt sind vielfältig, sei es „nur“ die benötigte Energie, die Rohstoffe und das Wasser oder die von großen Serverfarmen ausgehende Wärme. „Angesichts der sich weltweit ausbreitenden Dürre kommt es zu Kriegen um Wasser zwischen KI-Unternehmen, die nach mehr Rechenleistung streben, und den Gemeinden, in denen sich ihre Anlagen befinden.“ (Bloomberg [2]).

Der weltweite Primärenergieverbrauch hat sich in den letzten 40 Jahren mehr als verdoppelt, während sich die Energieintensität des BIP um etwas weniger als 1 % verbessert/verringert hat. Dies bestätigt das Jevon-Paradoxon, wonach Verbesserungen der Energieeffizienz im Prinzip immer durch eine höhere Energienachfrage ausgeglichen werden, in diesem Fall durch technologischen Fortschritt wie Rechenzentren für die Cloud und KI (Polimeni et al. 2015).

Ich sage voraus, dass Rechenzentren oder allgemeiner das die KI-Revolution umfassende „Cloud Computing“ in den nächsten 10-15 Jahren 10 % des weltweiten Stroms verbrauchen könnten, was einen viel größeren Einfluss auf die Stromspitzen haben wird. Dieser Spitzenstrombedarf muss gedeckt werden, und das kann niemals durch Wind- und Solarenergie ohne teure und umfangreiche Kurz- und Langzeitspeicher, Wärmespeicher und eine umfangreiche Netz- und Übertragungsinfrastruktur geschehen.

Auch die Kernenergie wird nicht die Lösung sein. Bedenken Sie, dass das Krankenhaus nebenan seinen Strom woanders beziehen muss, wenn ein neues Rechenzentrum die knappe Ressource Kernkraft nutzt.

Entweder gehen (1) die Lichter aus, (2) die Energiekosten schießen in die Höhe, oder (3) wir krempeln die Ärmel hoch und bauen eine technologisch fortschrittliche und saubere Mischung aus Kohle, Gas, Wasserkraft und Kernkraft, die uns das gibt, was wir für den menschlichen Fortschritt brauchen!

Links und Quellen

[1] The Cost of Cloud, a Trillion Dollar Paradox, Andreessen Horowitz, May 2022. link

[2] Bloomberg; Thirsty Data Centers Are Making Hot Summers Even Scarier. July 2023. link

[4] Bloomberg: AI Needs So Much Power That Old Coal Plants Are Sticking Around (1).” January 2024. link

[7] More details with links at Alex Epstein post, May 2024, link

[2] Econnex, link

[3] IEA: What the Data Centre and AI Boom Could Mean for the Energy Sector – Analysis,” October 2024. link

[5] McKinsey: Data Centers and AI: How the Energy Sector Can Meet Power, September 2024. link.

[6] IEA World Energy Outlook 2024, October 2024, page 45, link

[8] Dispora AI bots crawl the internet, German language summary, English language primary source

[9] Mark Mills on the Cloud, the Robot Revolution, and Machines That Think, 2023, link

Link: https://unpopular-truth.com/2025/01/24/electricity-for-data-centers/?

Übersetzt von Christian Freuer für das EIKE