Wird Kernfusion die „Norm“?

Duggan Flanakin

Der Traum der Menschheit, die Kräfte zu imitieren, die ihren Lebensraum geschaffen haben, ist mindestens seit der Zeit lebendig, als Menschen mit einer einzigen Sprache beschlossen, eine Stadt mit einem Turm zu bauen, der bis zum Himmel reicht. Für ein solches Volk wird „nichts, was sie planen, unmöglich sein“, heißt es.

Mindestens seit dem gleichen Zeitraum sucht die Menschheit nach Komfort durch Technologie. Während primitive Wärmeerzeuger wie Kohle und Holz auch heute noch verwendet werden, führte die Entdeckung, dass Erdöl, Erdgas und sogar bewegtes Wasser ein neu entdecktes Phänomen namens „Elektrizität“ erzeugen können, die industrielle Revolution in die Neuzeit.

Erst in den 1930er Jahren bauten deutsche Wissenschaftler auf Enrico Fermis Entdeckung auf, dass Neutronen Atome spalten können, und erkannten, dass bei der Spaltung von Atomen erhebliche Energie freigesetzt wird – Energie, die sowohl für Bomben als auch für die Stromerzeugung genutzt werden kann. In den 1950er Jahren begannen Wissenschaftler mit dem Bau von Kernspaltungskraftwerken, die heute etwa ein Zehntel des weltweiten Stroms liefern.

Wissenschaftler und Ingenieure begannen auch, sich das Potenzial der Kernfusion vorzustellen – die Reaktion leichter Atomkerne treibt die Sonne und die Sterne an. Seitdem haben sie fieberhaft, aber mit wenig Erfolg daran gearbeitet, diese energiereiche Reaktion mit Deuterium und Tritium zu replizieren.

Eine Gruppe von Wissenschaftlern und Ingenieuren beschloss, einen alternativen Ansatz zu versuchen.

Das 1998 gegründete kalifornische Unternehmen TAE Technologies hat einen Reaktor entwickelt, der mit der aneutronischen Protonen-Bor-Fusion arbeitet, d. h. einer Fusionsreaktion, bei der ein Wasserstoffkern mit dem nicht radioaktiven Bor-11 verschmolzen wird, anstatt Wasserstoffisotope von Deuterium und Tritium zu verschmelzen. Ihr Ziel ist die Entwicklung einer kommerziellen Fusionsenergie mit einem möglichst sauberen Umweltprofil.

Alle Fusionsbemühungen erfordern Kammern, die Temperaturen von Millionen Grad Celsius und einem immensen Druck standhalten können, die für die Verschmelzung zweier Isotope erforderlich sind. Um dies zu erreichen, sind enorme Energiemengen erforderlich – und bis vor kurzem mehr Energie, als bei der Fusion erzeugt wird.

Die meisten Fusionsforscher, einschließlich derjenigen, die das in Frankreich im Bau befindliche ITER-Projekt aufbauen, verwenden eine donutförmige Tokamak-Reaktorkammer, in der ein Plasmastrom durch Elektromagnete von den Wänden ferngehalten werden muss, damit überhaupt Energie erzeugt werden kann. Die Tokamak-Konstruktion verwendet ein toroidales Magnetfeld, um das Wasserstoffplasma einzuschließen und es heiß genug zu halten, um die Fusion zu zünden.

Leider sind, wie bei ITER, die Projektkosten in die Höhe geschnellt und die Zeitpläne trotz gelegentlicher Durchbrüche auf der Strecke geblieben. Im Laufe der Jahrzehnte wurden die Tokamak-Konstruktionen immer gigantischer, mit riesigen supraleitenden Magnetspulen zur Erzeugung von Eindämmungsfeldern; sie verfügten auch über riesige, komplexe elektromagnetische Heizsysteme.

Nachdem Wind- und Solarenergie den Wunsch nach „sauberer Energie“ nicht vollständig befriedigen konnten, begannen Regierungen und private Investoren in großem Umfang in Kernspaltungs- und Fusionsprojekte zu investieren. Oak Ridge, Tennessee, hat einen staatlichen Fonds in Höhe von 60 Millionen Dollar in Anspruch genommen, um sowohl die Spaltungs- als auch die Fusionsenergie in der amerikanischen Geburtsstadt der Atomenergie zu fördern.

Neue Forschungsarbeiten an der University of Texas, in Zusammenarbeit mit dem Los Alamos National Laboratory und der Type One Energy Group, nutzen die Symmetrietheorie, um Ingenieuren zu helfen, magnetische Einschlusssysteme zu entwerfen, die den Plasmaaustritt aus den Magnetfeldern von Tokamaks reduzieren.

Das alte Verfahren, das für einen Stellaratorreaktor verwendet wurde, beruhte auf der Störungstheorie. Das neue Verfahren, das sich auf die Symmetrietheorie stützt, ist ein entscheidender Fortschritt. Es kann auch dazu verwendet werden, Löcher im Magnetfeld des Tokamaks zu identifizieren, durch die durchgebrannte Elektronen durch die sie umgebenden Wände stoßen und die Energieabgabe stark verringern.

Der Reaktor von TAE Technology ist völlig anders als alle Tokamak- oder Stellarator-Fusionskammern. Im Jahr 2017 stellte das Unternehmen seinen Reaktor der fünften Generation mit dem Namen Norman vor, der dafür ausgelegt war, das Plasma bei 30 Millionen C stabil zu halten. Fünf Jahre später hatte das Gerät bewiesen, dass es in der Lage war, ein stabiles Plasma bei mehr als 75 Millionen C aufrechtzuerhalten.

Dieser Erfolg ermöglichte es TAE, eine ausreichende Finanzierung für seinen Copernicus-Reaktor der sechsten Generation zu sichern und die Geburt seines kommerziell nutzbaren Da Vinci-Reaktors in Aussicht zu stellen. Dazwischen aber entwickelte TAE „Norm“.

Norm verwendet eine andere Art von Fusionsreaktion und ein neues Reaktordesign, das Plasma ausschließlich mit Hilfe von Neutralstrahlinjektionen erzeugt. Bei der TAE-Konstruktion wird das toroidale Feld zugunsten eines linearen Magnetfelds aufgegeben, das auf dem Prinzip der „feldumgekehrten Konfiguration“ (FRC) beruht, einer einfacheren und effizienteren Methode zum Bau eines kommerziellen Reaktors.

Anstelle von massiven Magnetspulen sorgt FRC dafür, dass das Plasma sein eigenes magnetisches Eindämmungsfeld erzeugt. Bei diesem Verfahren werden hochenergetische Wasserstoffionen beschleunigt und mit einer neutralen Ladung versehen, um sie dann als Strahl in das Plasma zu injizieren. Dadurch werden die Strahlen re-ionisiert, während die Kollisionsenergie das Plasma aufheizt, so dass sich interne toroidale Ströme bilden.

Das neutrale Strahlinjektionssystem von Norm hat die Größe, Komplexität und Kosten im Vergleich zu Norman bis zu 50 % reduziert. Laut TAE ist ein FRC-Reaktor nicht nur kleiner und kostengünstiger in der Herstellung und im Betrieb, sondern kann bei gleicher Magnetfeldstärke und gleichem Plasmavolumen auch bis zu 100-mal mehr Fusionsleistung erzeugen als ein Tokamak.

Der FRC-Reaktor kann auch mit der aneutronischen Proton-Bor-Fusion betrieben werden, bei der anstelle eines Neutrons drei Alphateilchen und viel Energie erzeugt werden. Weniger Neutronen richten auch weniger Schaden im Reaktor an; die Energie, die in Form von geladenen Teilchen freigesetzt wird, lässt sich leichter nutzbar machen. Es sind weniger Abschirmungen erforderlich, und, was vielleicht das Beste ist, Bor-11 ist relativ häufig vorhanden und nicht radioaktiv.

Auch wenn „Norm“ vielleicht nicht der letzte Schritt in der Entwicklung der kommerziellen Fusionsenergie ist, hofft die TAE, dass die Fusionsenergie bereits Mitte der 1930er Jahre zur „Norm“ wird. Laut TAE-Geschäftsführer Michl Binderbauer hat die FRC-Technologie das Risiko von Copernicus erheblich gesenkt.

Wenn Norm das hält, was es verspricht, wird es den Weg zur kommerziellen Wasserstoff-Bor-Fusion beschleunigen – einer sicheren, sauberen und praktisch unbegrenzten Energiequelle.

Aber ist die Menschheit bereit dafür, dass freie Energie zur „Norm“ wird?

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2025/05/18/will-nuclear-fusion-be-the-norm/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: So viel zum Punkt „Kernenergie ist tot“! Allerdings vermag ich nicht zu beurteilen, ob Obiges realistisch ist oder nicht. Das geht jetzt als Frage an Kernkraft-Fachleute.




EXKLUSIV: Fast alle „extremen“ Temperaturhöchstwerte in Großbritannien werden jetzt an Junk-Stationen mit massiven möglichen Fehlern aufgezeichnet

Chris Morrison, THE DAILY SCEPTIC

In den letzten Tagen herrschte in UK mildes Frühlingswetter mit Temperaturen, die sich oft zwischen 20 und 25°C einpendelten. Das Wetteramt hat die Karten orange eingefärbt und überall im grünen und angenehmen Land „extreme“ Höchstwerte verkündet. Oder genauer gesagt, an bemerkenswert wenigen ausgewählten Orten im Land der G&P. Die Net-Zero-Promotion verlangt immer höhere Temperaturaufzeichnungen, so dass nur unnatürlich hitzegeplagte Orte die meisten täglichen Aufzeichnungen liefern. Ich habe mir die letzten neun Tage der Aufzeichnungen des Met Office bis Sonntag, den 18. Mai, angesehen und kann feststellen, dass fast neun von zehn lokalen „extremen“ Tageshöchsttemperaturen an Standorten der Schrottklasse 4 und der Superschrottklasse 5 mit international anerkannten „Unsicherheiten“ von 2°C bzw. 5°C gemessen worden sind.

Bestimmte Orte tauchen immer wieder in den Aufzeichnungen auf. In neun Tagen wurden in den schottischen Orten Aboyne und Tyndrum acht bzw. sieben Mal Höchstwerte gemessen. In England verzeichnete Coton-in-the-Elms sieben Tageshöchstwerte und Kielder Castle sechs. Natürlich bedeutet die Aufzeichnung von Höchstwerten an diesen korrumpierten Standorten nicht, dass die Lufttemperatur repräsentativ für die weitere Umgebung war. Es bedeutete lediglich, dass die Standorte schlecht neben unnatürlichen Wärmequellen gelegen waren und einen falschen natürlichen Luftrekord produzierten, der kürzlich vom Met Office als sogenanntes „extremes“ Hoch umgetauft wurde. Solange das Met Office nicht sein weitgehend schrottreifes Netz von über 380 Wetterstationen in Ordnung bringt, sind diese Aufzeichnungen weitgehend bedeutungslos.

Jeden Tag gibt das Met Office die Tageshöchsttemperaturen für 16 Orte in ganz UK bekannt. An den neun untersuchten Tagen habe ich zunächst festgestellt, dass 83,8 % der Höchstwerte an Orten der Klassen 4 und 5 aufgezeichnet worden sind, die von der Weltorganisation für Meteorologie als Orte mit großen „Unsicherheiten“ bis 5°C eingestuft werden. Nicht weniger als 36,6 % der Aufzeichnungen stammten von Standorten der Klasse 5, für die es keine qualifizierten Kriterien für die Genauigkeit gibt und die sich überall befinden können. Es ist seit langem ein Rätsel, wie ein Standort der Klassen 4 und 5 zur Berechnung einer nationalen, geschweige denn einer globalen Temperatur verwendet werden kann, und ihre zentrale Verwendung zur Förderung der Netto-Null-Phantasterei ist ein wissenschaftlicher und politischer Skandal. Aber ich habe mir die behaupteten Aufzeichnungen genauer angesehen und festgestellt, dass das Gesamtbild noch schlechter ist, als es auf den ersten Blick scheint.

Auf dem obigen Bild von Google Earth ist der Standort der Wetterstation in Kirkwall rot markiert. Es wird behauptet, es handele sich um einen Standort der Klasse 2, eine makellose Bewertung ohne „Unsicherheiten“. Das Met Office hat nur sehr wenige dieser mit Klasse 2 bewerteten Standorte, 78 % seiner Stationen befinden sich in den beiden untersten Schrottkategorien. Aber dies ist auf keinen Fall ein Standort der Klasse 2. Sie befindet sich auf dem Flughafen von Kirkwall, kaum 50 Meter von dem entfernt, was offenbar der Flugzeugpark ist. Die nahe gelegenen Gebäude, Parkplätze und Straßen bieten reichlich Gelegenheit für Abwärme-Verschmutzung. Dennoch soll Kirkwall in den letzten neun Tagen sechsmal den Temperaturrekord für Orkney und Shetland gehalten haben. Ich habe das vermeintlich „nicht-schrottige“ Kirkwall aus der Gesamtberechnung herausgenommen, mit dem Ergebnis, dass nicht weniger als 87,4 % der Tageshöchstwerte in den Schrottklassen liegen.

Natürlich ist es kaum zu glauben, dass auf einer großen Insel mit vier verschiedenen Nationen und sehr unterschiedlichen geografischen Gegebenheiten immer wieder dieselben Verdächtigen die höchsten Tagestemperaturen verzeichnen. War es in den East Midlands sieben Tage lang nirgendwo wärmer als in Coton-in-the-Elms? Was ist so besonders an Kielder Castle, dass es an sechs Tagen heißer war als überall sonst in Nordostengland? Sollten Hitzeliebhaber in Nordirland und Wales nach Castlederg bzw. Porthmadog ziehen, wo sie fünf Tage lang rekordverdächtige Temperaturen erlebt hätten? In Schottland ist es oft kühl. Können wir also davon ausgehen, dass die Hauspreise in Tyndrum einen Aufschlag haben, wo es in den neun untersuchten Tagen nur zweimal den Platz mit der höchsten Temperatur in der Region Central, Tayside und Fife verlor?

Anfang dieses Monats untersuchte der Bürgerdetektiv Ray Sanders die mittelenglische Klasse-5-Wetterstation in Coton-in-the-Elms und kam zu dem Schluss: „Es gibt schlimmere Standorte … aber nicht so viele.“

Ende letzten Jahres hat Science Feedback die Artikel des Daily Sceptic und von Ray Sanders überprüft“, in denen die meisten Standorte des Met Office und die Erfindung von Temperaturdaten von über 100 nicht existierenden Standorten als Schrott bezeichnet wurden. In dem größtenteils vom Met Office verfassten „Faktencheck“ wurde behauptet, dass die intern als „unbefriedigend“ eingestuften Stationen die erforderlichen Standards für die Datenvalidität nicht erfüllten und die Aufzeichnungen nicht in den offiziellen Aufzeichnungen verwendet würden. Eine kürzlich gestellte Anfrage ergab, dass nur 27 Stationen auf die meteorologische schwarze Liste gesetzt worden waren. Wie man in den Wildwest-Tagen der Londoner City zu sagen pflegte, führt Selbstregulierung – wie Selbstmissbrauch – zu einer äußerst kurzen Sicht. Aber wenn das Met Office, das seine eigenen Hausaufgaben gemacht hat sagt, dass die 27 Standorte Unsinn sind, wer sind wir dann, um zu widersprechen?

Es ist daher überraschend, dass Castlederg auf der „Unbefriedigend“-Liste steht und, wie oben erwähnt, an fünf von neun Tagen einen neuen lokalen Rekord aufstellte. Es ist möglich, dass die Liste in den letzten Monaten aktualisiert und Castlederg dabei herausgenommen wurde. Es wäre interessant herauszufinden, ob er am 21. Juli 2021 auf der Liste stand, als an diesem Ort ein nordirischer Temperaturrekord von 31,3 °C gemeldet wurde. Zu den anderen in den letzten Tagen genannten unbefriedigenden Orten gehören Redesdale Camp und Hawarden, ein Flughafen der Klasse 4, der den nationalen Temperaturrekord für Wales vom 21. Juli 2021 hält.

Warum ist das alles relevant und wichtig? Wie wir beim Daily Sceptic schon oft gezeigt haben, werden diese überhitzten Daten in den Mainstream eingespeist, um die politischen Bedürfnisse von Net Zero zu fördern. Nur ein Beispiel von vielen: Justin Rowlatt von der BBC berichtete im Juli letzten Jahres, dass der Klimawandel die Häufigkeit von „extremen“ hohen Temperaturen in UK dramatisch erhöht, „eine neue Analyse des Met Office hat dies bestätigt“. Rowlatt stellte außerdem fest, dass die Zahl der angenehmen Tage, die als Temperaturen um 20°C definiert sind, um 40 % zugenommen hat. „Diese Veränderungen mögen positiv klingen“, klagt der BBC-Chefaktivist, “aber der Klimawandel in UK stellt eine gefährliche Umwälzung für unsere Ökosysteme und unsere Infrastruktur dar.“

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2025/05/22/exclusive-almost-all-extreme-temperature-highs-in-uk-now-being-recorded-at-junk-sites-with-massive-possible-errors/

Übersetzt von Christian Freuer für das EIKE

 




Warum eine radikale Energiewende in die Verarmung führt

Vorbemerkung

Die meisten Klimawisschenschaftler haben von Ökonomie keine Ahnung und oft auch nicht mal die Basics in Physik drauf.

1. Aus physikalischer Sicht:

Die Energiewende zielt darauf ab, fossile Energieträger durch erneuerbare Energiequellen wie Sonne, Wind und Wasser zu ersetzen. Physikalisch betrachtet sind diese Energiequellen grundsätzlich geeignet, unseren Energiebedarf zu decken – aber:

  • Energieflussdichte: Fossile Energien wie Erdöl oder Kohle haben eine hohe Energiedichte. Das bedeutet: Man bekommt viel Energie pro Volumen oder Masse. Sonnen- und Windenergie haben eine wesentlich geringere Energieflussdichte, was bedeutet, dass viel mehr Fläche, Technik und Speichertechnik nötig ist, um die gleiche Energiemenge bereitzustellen.

  • Speicherproblematik: Physikalisch ist die Speicherung großer Energiemengen über längere Zeiträume (z. B. im Winter) mit heutigen Technologien ineffizient, teuer und verlustbehaftet. Batterien, Wasserstoff und andere Speicherlösungen sind derzeit physikalisch und ökonomisch noch nicht ausgereift genug für eine vollständig volatile Energieversorgung.

  • Systemkomplexität: Ein auf erneuerbaren Energien basierendes System ist hochgradig komplex, da es wetter- und jahreszeitenabhängig ist. Die physikalische Netzstabilität (Frequenzhaltung, Spannung, Trägheit) ist schwerer zu gewährleisten.

2. Aus ökonomischer Sicht:

Eine radikale und zu schnelle Energiewende kann aus mehreren Gründen zu Verarmung führen:

  • Produktionskosten steigen: Der Aufbau erneuerbarer Infrastruktur, der Netzausbau und Speichersysteme erfordern enorme Investitionen. Diese Kosten werden über Steuern oder Strompreise auf die Verbraucher und Unternehmen umgelegt.

  • Standortwettbewerb leidet: Höhere Energiepreise führen dazu, dass energieintensive Industrien abwandern – insbesondere in Länder mit günstigeren Energiepreisen. Das gefährdet Arbeitsplätze und Wertschöpfung.

  • Inflationäre Effekte: Energie ist ein grundlegender Produktionsfaktor. Steigende Energiepreise verteuern fast alle Güter und Dienstleistungen – mit entsprechenden inflationsfördernden Effekten, insbesondere für ärmere Bevölkerungsschichten.

  • Subventionsabhängigkeit: Wenn die Energiewende nicht marktwirtschaftlich organisiert ist, sondern über massive staatliche Subventionen erfolgt, entstehen Fehlanreize, Schulden und letztlich wirtschaftliche Fehlentwicklungen.

  • Zusammenfassendes Fazit:

    Eine radikale Energiewende – also schnell, ideologisch getrieben und ohne Rücksicht auf physikalische und ökonomische Realitäten – kann zu einer Verarmung führen:

    • Physikalisch, weil erneuerbare Energien noch nicht in der Lage sind, eine stabile, speicherbare und dichte Energieversorgung vollständig zu gewährleisten.

    • Ökonomisch, weil hohe Investitions- und Betriebskosten, Wettbewerbsnachteile und soziale Belastungen entstehen.

    • Herr Prof. Ganteför hat dies in diesem Video auch für Dummies verständlich erläutert.

 

 




Trinkwassermangel wegen Klima. Stimmt das?

Von Uta Böttcher.

Die Angst vor Wasserknappheit ist nicht unbegründet – allerdings nicht wegen des Klimawandels, sondern wegen maroder Wasserleitungen. 800 Milliarden Euro würde die Sanierung kosten.

Ist „Sondervermögen“ nicht ein wunderschöner Name für die Neuverschuldung des Staates? Fast so schön wie der Name „Elster“ für die Online-Plattform des Finanzamtes! Am 21. März 2025 wurden 500 Milliarden Euro Staatsverschuldung beschlossen, für die Finanzierung zusätzlicher Maßnahmen für Infrastruktur und Klimaneutralität. Durch die Lockerung der Schuldenbremse im Grundgesetz könnte dies bis zum Jahr 2036 eine Neuverschuldung von rund einer Billion Euro bedeuten, wenn alle nun ermöglichten Verschuldungsspielräume ausgenutzt werden (siehe auch hier).

Eine große Summe. Doch 800 Milliarden Euro Sanierungsbedarf hat allein unsere Wasserinfrastruktur, wie ein brandneues Gutachten zeigt. Das ganze schöne Sondervermögen müsste also direkt in die Sicherung unserer Trinkwasserversorgung fließen. Die Angst davor, dass bald kein Tropfen mehr aus dem heimischen Wasserhahn kommt, ist nicht unbegründet – allerdings nicht wegen des menschengemachten Klimawandels, sondern wegen maroder Wasserleitungen.

Das Gutachten, vom Verband kommunaler Unternehmen (VKU) in Auftrag gegeben, ergab, dass bis zum Jahr 2045 etwa 800 Milliarden Euro in die Infrastruktur der Wasserversorgung gesteckt werden müssen. Dies ging aus einer Befragung von Unternehmen der Wasserversorgung und Abwasserentsorgung im Januar 2025 hervor.

In den vergangenen 22 Jahren flossen jährlich rund 10 Milliarden Euro in Erhalt und Erneuerung der Trinkwasser- und Abwasseranlagen. Doch bald überschreitet ein großer Teil der vorhandenen Infrastruktur seine Lebensdauer – beim Trinkwasserversorgungsnetz sind das 60 Jahre – so dass in den kommenden Jahren deutlich höhere Investitionen notwendig sein werden.

In den nächsten 20 Jahren müssen Bestandsanlagen erneuert, Kapazitäten erweitert und vorhandene Anlagen modernisiert werden. Dafür sind zwischen 2025 und 2034 rund 45 Milliarden Euro und zwischen 2035 und 2044 rund 34 Milliarden Euro jährlich an Investitionen notwendig, also 40 Milliarden Euro pro Jahr anstatt wie bisher 10 Milliarden. Insgesamt ergeben sich rund 800 Milliarden Euro: Bei 800.000.000.000 Euro Finanzbedarf und gut 80.000.000 Einwohnern entfallen in den nächsten 20 Jahren also etwa 10 000 Euro auf jeden Einzelnen in Deutschland, das sind 500 Euro pro Kopf (nicht etwa pro Haushalt!) und Jahr. Das ist nicht wenig.

Enorm hoher Investitionsstau

Das bedeutet: Ohne staatliche Zuschüsse werden die Wasserpreise steigen müssen. Denn die Wasserversorgung ist Sache der Kommunen, die sich ihre Investitionen über den Preis für das Trinkwasser von den Bürgern zurückholen müssen. Die Kommunalabgabenordnung fordert das Kostendeckungsprinzip – mit dem Trinkwasser darf kein Gewinn erzielt werden. Die Kosten für Betrieb, Wartung und Sanierung der Trinkwasserinfrastruktur wird über die Wassergebühren der Haushalte und Unternehmen finanziert. Die Wasserversorgungsunternehmen sind meist kommunal organisiert, zum Beispiel in Form von Stadtwerken.

Um größere Sanierungen und Modernisierungen, beispielsweise umfassende Leitungsnetzerneuerung, zu finanzieren, die mit den laufenden Einnahmen nicht gestemmt werden können, müssen die Kommunen Kapital bereitstellen: Sie nehmen dafür Kredite auf, zum Beispiel bei der KfW. Weil eine Erhöhung der Trink- und Abwasserwassergebühren politisch heikel ist – denn sie belastet die Haushalte ganz direkt – wurden notwendige Investitionen lieber hinausgezögert. Das ist ein Grund für den enorm hohen Investitionsstau.

Das Gutachten besagt auch, dass bis zu 15 Prozent der Investitionen auf „die zukünftig notwendige Anpassung an den Klimawandel und weitere Ereignisse“ zurückzuführen sind. Für diesen Teil der Ausgaben könnten also die Geldtöpfe des Bundes in Anspruch genommen werden. Prinzipiell sieht der Bund die Wasserversorgung zwar als kommunale Aufgabe. Aber es gibt Förderprogramme, die speziell auf die Finanzierung von Projekten zur Anpassung an den Klimawandel oder zur Modernisierung von Infrastruktur ausgelegt sind. Und nun gibt es eben auch das neue Sondervermögen für Infrastrukurmaßnahmen. Dieses „Extrageld“ vom Bund müsste nicht über den Wasserpreis direkt an den Bürger weitergegeben werden. Selbstverständlich muss am Ende trotzdem der einzelne Bürger für die Kosten geradestehen, aber er merkt es nicht gleich.

Klimabegründete Maßnahmen

Welche Maßnahmen für den Klimaschutz in der Trinkwasserversorgung sind damit gemeint? Sind sie sinnvoll oder unnötig?

Zu den klimabegründeten Maßnahmen gehört der Ausbau der Fernwasserversorgung, um Trinkwasser aus wasserreichen Regionen in Gebiete mit wenig Wasserverfügbarkeit liefern zu können. Das ist in jeder Hinsicht sinnvoll, denn hydroklimatisch gesehen ist Deutschland zwar ein wasserreiches Land mit Süßwasserressourcen von im Mittel 188 Milliarden Kubikmetern (siehe dazu auch hier und hier), aber mit großen regionalen Unterschieden. Bedingt durch die geologischen Untergrundbedingungen gibt es Regionen mit ausgedehnten und ergiebigen Grundwasservorkommen genauso wie Bereiche ohne nennenswerte Grundwasserspeicherung. Auch die Niederschlagsmengen sind regional sehr verschieden (siehe auch hier). Für kleinere Kommunen ist die Instandhaltung und Modernisierung der Wasserversorgung finanziell oft schwer zu stemmen. Durch den Eintritt in einen Wasserverband wird hier für Entlastung gesorgt.

Auch die Schaffung von Redundanzen, also zusätzlicher Gewinnungs-/ Aufbereitungs- und Speicheranlagen als Reserve- und Sicherheitsmaßnahme kann dem Klimaschutz zugeordnet werden. Diese werden benötigt, um Ausfälle und Störungen in den technischen Anlagen zu verhindern oder deren Auswirkungen zu minimieren. Das ist in jeder Hinsicht sinnvoll, genauso wie der Bau zusätzlicher Speicheranlagen, um Verbrauchsspitzen abfangen zu können.

Ebenfalls in diesen Bereich gehört die Anpassung der Systeme auf sich ändernde gesetzliche Vorgaben, wie die Herabsetzung von vorhandenen Grenzwerten für bestimmte Inhaltsstoffe oder die Einführung neuer Grenzwerte für weitere Inhaltsstoffe. Das ist eine vernünftige Herangehensweise, weil solche Gesetzesänderungen bereits in der Diskussion sind.

Fazit: Unser Trinkwasser muss in den nächsten Jahren beträchtlich teurer werden, damit es weiterhin zuverlässig zur Verfügung steht.

Der Bürger soll wieder einmal erzogen werden

So gesehen ist der „Wassercent“ der Stadt Wiesbaden nur dreist zu nennen: Die Wiesbadener Stadtverordnetenversammlung beschloss diese Abgabe nämlich mit den Stimmen von SPD, Grünen, Linken und Volt im Dezember 2023. Dieser „Wassercent“ fließt nicht etwa in die Wasserinfrastruktur, sondern soll die marode Stadtkasse auffüllen und kann für alles Mögliche ausgegeben werden.

Es ist eine Wasserverbrauchssteuer, zusätzlich zu der zu erwartenden Erhöhung des Wasserpreises. Das hessische Innenministerium als Kommunalaufsicht stoppte den „Wassercent“ zunächst, da mit den Wassergebühren nur die Kosten gedeckt und keine Gewinne erzielt werden dürfen. Eigentlich.

Doch die Stadt Wiesbaden klagte dagegen und bekam kürzlich Recht vor dem örtlichen Verwaltungsgericht. In der Begründung heißt es, diese Wasserverbrauchssteuer sei gerade hoch genug für einen Lenkungseffekt ohne dabei erdrosselnde Wirkung zu haben (siehe auch hier). Der Bürger soll also wieder einmal erzogen werden, weil’s gut für’s Klima ist! Was sich bei den Verwaltungsrichtern wohl noch nicht herumgesprochen hat: Die erdrosselnden Wirkungen addieren sich zurzeit gewaltig, und der Einzelne ist ohnehin schon bis an die Grenze des Möglichen finanziell belastet.

 

Uta Böttcher ist Diplom-Geologin mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie. 

Der Beitrag erschien zuerst bei ACHGUT hier

 




Studie: In Mitteleurasien wurde es in den letzten zwei Jahrzehnten um 2°C kälter

Cap Allon

Eine neue, von Experten begutachtete Studie, veröffentlicht in der Fachzeitschrift Environmental Research Letters zeigt, dass sich fast ganz Mitteleurasien – 98 % davon – in den letzten zwei Jahrzehnten abgekühlt und nicht erwärmt hat.

Zwischen 2004 und 2018 sind die Herbsttemperaturen in Mitteleurasien (40-65°N, 50-130°E) um fast -2°C gesunken, was einem Rückgang von 1,425°C pro Jahrzehnt entspricht – ein Sturzflug. Von 2004 bis 2020 hielt der allgemeine Trend mit einer Rate von -0,867 °C pro Jahrzehnt an.

Dies ist kein regionales Rauschen. Es handelt sich um eine Klimaverschiebung, die ein Gebiet betrifft, das etwa ein Fünftel der Größe der nördlichen Hemisphäre ausmacht.

Die Studie deutet auf eine Zunahme der Schneemenge hin – eine Kennzahl, die sich aufgrund der CO₂-Emissionen angeblich im freien Fall befindet. Laut den Forschern der Qufu Normal University und der Chinesischen Akademie für Meteorologische Wissenschaften hat die Schneedecke im Herbst in Mitteleurasien um 5,38 % pro Jahrzehnt zugenommen.

Schnee reflektiert natürlich das Sonnenlicht – mehr Schnee bedeutet, dass mehr einfallende Sonnenenergie in den Weltraum zurückgeworfen wird. Dies führt zu einer geringeren Oberflächenerwärmung, einer geringeren Erwärmung der Atmosphäre und letztlich zu einer kühleren Region.

Die Autoren verwendeten ein „ausgefeiltes“ Klimamodell (WRF, lokalisiert für die Region) und bestätigten ihre Simulationen mit realen Daten von über 400 Wetterstationen. Ihr Fazit: Der Anstieg der Schneedecke ist für mindestens 21,5 % der Abkühlung im Herbst verantwortlich. Der Rest, so argumentieren sie, stammt wahrscheinlich aus Verschiebungen der atmosphärischen Zirkulation – nämlich dem verstärkten Sibirischen Hoch und der Pazifischen Dekadischen Oszillation, beides natürliche Klimatreiber, keine CO₂-Buhmänner.

Der Prozess ist einfach. Mehr Schnee → höhere Albedo (Reflexionsvermögen) → geringere Nettokurzwellenstrahlung → niedrigere Temperaturen.

Die Abkühlung steht im Gegensatz zu den gängigen Meldungen. Während uns gesagt wird, dass der Planet in eine unumkehrbare Hitzespirale gerät, stemmt sich eine riesige Landmasse gegen den Trend – auf natürliche Weise. Und sie ist nicht allein. Das Wachstum des Eisschildes in der Antarktis und die Abkühlung über mehrere Jahrzehnte hinweg ist ebenfalls ein Rätsel. Die Mongolei kühlt sich ab. Das Gleiche gilt für Ostkanada und das innere Grönland. Das Gleiche gilt für Nordindien und Westafrika.

Mutter Natur ist weitaus komplexer, als es die simplen Erzählungen des Establishments vermuten lassen.

Die vollständige Studie steht hier.

Link: https://electroverse.substack.com/p/south-africa-chills-canadian-prairies?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

Hinweis: Zur gleichen Studie findet sich in kürzerer Form auch etwas auf dem Blog von Pierre Gosselin hier.