Henrik Svensmark: Der Zusammenhang zwischen kosmischer Strahlung und Klima DEUTSCHE VERSION

16. Internationale EIKE-Klima- und Energiekonferenz, IKEK-16, 14.-15. Juni 2024, Wien.

Quantifizierung der Rolle, die die Sonne beim Klimawandel spielt. Warum glauben wir, daß es sich um kosmische Strahlung handelt, und was bedeutet das?

Nir Shaviv und Henrik Svensmark erklären, wie die Sonne der Erde unser Klima steuert. Sie entdeckten den Svensmark-Shaviv-Effekt, wie wir ihn bei EIKE nennen, fast gleichzeitig und unabhängig voneinander: Kosmische Strahlung, Überreste von Supernovae, trifft auf die obere Atmosphäre des Planeten und erzeugt in einem komplizierten Prozeß Wolkenkerne.
Die Teilchenstrahlung der Erdsonne verdrängt nun einen Teil dieser kosmischen Teilchen, was im Extremfall, nach einer Koronaeruption, seit den 1950er Jahren als Forbush-Effekt bekannt ist. Auf diese Weise bewirkt die Sonne – je nach ihrer eigenen aktuellen Strahlungsintensität – eine Abnahme der Wolkendecke, indem sie die Anzahl der für ihre Bildung erforderlichen Kerne verringert. Die Folge ist der bereits erwähnte Dominoeffekt: Weniger Wolken reflektieren weniger Sonnenstrahlung zurück ins All, wodurch sich die Atmosphäre aufheizt.




Freie Energie – zu hohem Preis

von Hans Hofmann-Reinecke

In Oberbayern entsteht derzeit eine gigantische Anlage, welche die Hitze aus kilometertiefen Erdschichten an die Oberfläche bringen soll, um dort Haushalte und Fabriken mit Energie zu versorgen. Es ist ein weltweit einzigartiges Vorhaben. Könnte das vielleicht seine Gründe haben?

Die Hitze in den Goldminen

Wo auch immer wir stehen, 6200 km unter uns, im Zentrum unserer Erdkugel, herrscht eine Temperatur von mehr als 5000 Grad Celsius. Zur Oberfläche hin wird es zwar kühler, aber nicht weit unter unseren Füßen ist es immer noch so heiß, dass das Gestein schmilzt; da herrschen um die 1200 Grad. Davor schützt uns nur eine dünne Erdkruste, die gerade mal 40 km dick ist. Allerdings ist die an manchen Orten auch dünner, denn sie setzt sich aus einer Reihe von tektonischen Platten zusammen. In der Nähe der Nahtstellen quillt manchmal sogar das heiße Magma heraus, aus dem sich im Laufe der Zeit riesige Vulkane aufgetürmt haben.

Normalerweise aber haben wir festen und kühlen Boden unter den Füßen, denn innerhalb der 40 km dicken Erdkruste sinkt die Temperatur von Magma-Glut auf Umgebungsluft ab. Das ergibt also eine Abkühlung von durchschnittlich 1200°/40km = 30 Grad pro Kilometer Erdkruste. Umgekehrt bedeutet das, dass es wärmer wird, wenn wir von oben in Erde hineinbohren, und zwar mit den besagten 30 Grad pro Kilometer. Davon können die Arbeiter in den Goldminen ein Lied singen, deren Schächte oft in einigen Kilometern Tiefe liegen. Aber könnte man diese Wärmequelle nicht auch zum Nutzen der Menschheit einsetzen? In Regionen, in denen die Erdkruste dünner ist, und daher die Hitze dichter unter der Oberfläche lauert, wird das schon längst getan, etwa in Island. Da holt man sich die Wärme aus einer Tiefe von hundert Metern oder weniger.

Wir sind nicht Island

Und in Deutschland? In unserem unerbittlichen Kampf gegen CO2 ist kein Opfer zu groß und kein Preis zu hoch. Wenn sich eine alternative Energieform anbietet, egal wo auf der Welt, dann wir die angezapft. Der neue Quell ist jedoch – anders als Chile oder Namibia – keine 100.000 Kilometer entfernt, sondern nur ein paar tausend Meter; allerdings nicht nach Süden oder Westen, sondern nach unten. Im oberbayerischen Geretsried startete letztes Jahr ein gigantisches Projekt mit dem Ziel, die unendliche Hitzequelle im Inneren unseres Planeten anzuzapfen. Solche geothermischen Anlagen sind, wie schon erwähnt, nicht Neues; hier aber handelt es sich um einen Standort, an dem die Erdkruste weder brüchig noch ausgedünnt, sondern ganz normal ist.

Hier bringt man die Hitze an die Erdoberfläche, indem man Wasser in die Tiefe leitet, damit es sich dort unten erhitzt, um es anschließend wieder nach oben zu holen. Damit sich das lohnt muss das Wasser aber richtig heiß werden. Bei der geplanten Anlage will man es bis auf 140°C aufheizen. Gemäß unserer Rechnung, dass es jeden Kilometer 30 Grad wärmer wird, wäre die notwendige Tiefe dann 140/30, also knapp fünf Kilometer. Die geplanten Bohrungen sollen deshalb auf 4500 Meter gehen. Genauer gesagt handelt es sich um zwei senkrechte Bohrungen im horizontalen Abstand von 3800 Metern, die an ihren unteren Enden durch eine Reihe von parallelen Leitungen verbunden sind. Das Wasser wird in Bohrung A eingefüllt, fließt dann in einer Tiefe von 4500 Metern durch die horizontalen Rohre zur 3800 Meter entfernte Bohrung B, in der es wieder an die Oberfläche steigt.

Nachhilfe von den Ölbohrern

Das zu verwirklichen ist natürlich eine gewaltige technische Herausforderung, aber man kann hier viel von der Petroleum-Industrie lernen. Die operieren in ähnlichen Tiefen und können da unten auch horizontale Bohrungen durchführen. Man wird dafür sorgen müssen, dass diese horizontalen Rohre möglichst guten Wärmekontakt mit dem umgebenden Gestein haben, damit sich das Wasser erhitzen kann, Bohrung B aber sollte gut isoliert sein, damit das Wasser auf dem Weg nach oben nicht seine kostbare Wärme wieder an die kalte Umgebung abgibt.

Oben angekommen wird das Wassers mit seinen mehr als 100 Grad zum einem Teil als Fernwärme an die umliegenden Haushalte verteilt, zum anderen Teil wird Strom daraus gemacht. Dazu muss dann irgendwie ein elektrischer Generator angetrieben werden. Eine Wärmekraftmaschine hat bei solch niedriger Temperatur zwar keinen guten Wirkungsgrad, trotzdem erwartet man, dass neben den 64 Megawatt an Heizleistung noch 8 Megawatt Elektrizität herauskommen, die dann an die umliegenden 32.000 Haushalte verteilt werden. Wieviel bekäme dann jeder Haushalt ab? Es wären 2 Kilowatt an Heizung und 0,25 kW an Strom. Damit könnte man schon das WiFi betreiben und die Smartphones der Familie aufladen. Für die Waschmaschine genügt das nicht.

Und wer pumpt die riesigen Mengen an Wasser durch dieses viele Kilometer lange Labyrinth an Rohren? Das macht die Schwerkraft. Die Wassersäule von 4500m Höhe erzeugt am Boden von Bohrung A einen Druck von 450 bar. In Bohrung B herrscht ein ähnlicher Druck, aber etwas weniger als bei A. Das kommt daher, dass das Wasser in Bohrung B eine geringeres Gewicht hat, weil es dort (hoffentlich)wärmer ist als in A. Der Unterschied der Dichte könnte bei 1% liegen, was eine Druckdifferent von 4,5 bar verursachen würde. Das sollte für die Zirkulation ausreichen.

Ein Perpetuum Mobile?

Haben wir jetzt also endlich das perpetuum mobile, das CO2-frei, ohne Treibstoff und unabhängig von Jahreszeit, Tageszeit und Wetter zuverlässig Energie liefert? Das wäre zu schön um wahr zu sein. Zwar ist der Wärmehaushalt von Mutter Erde unerschöpflich, das Gestein aber, welches die Röhren umgibt, wird sich abkühlen. Dem werden kontinuierlich so ca. 100 Megawatt Wärme entzogen. Diese Wärme muss aus der Umgebung nachfließen. Geht das so schnell?

Wäre das Gestein flüssig, oder wäre da unten heißes Wasser, dann würde sich die Temperatur sofort ausgleichen, im harten Fels aber ist das etwas anderes. Und so muss man damit rechnen, dass da unten bald keine 140° mehr herrschen werden. Die Anlage verliert also mit den Jahren an Leistung, sie hat eine „Halbwertszeit“, und irgendwann ist sie dann unbrauchbar. Würde man sie dann abschalten und ein oder zwei Jahrzehnte warten, dann brächte sie wieder die volle Leistung, weil das Gestein in der Tiefe Zeit hatte, wieder die natürliche, hohe Temperatur anzunehmen.

Die notwendigen Investitionen werden derzeit auf 350 Millionen Euro geschätzt. Angesichts der Tatsache, dass es sich um ein „weltweit einzigartiges“ Projekt handelt, sollte man hier nicht kleinlich sein, wenn dann letztlich noch ein Faktor zwei oder drei vor dieser Zahl steht. Im Jahr 2026 soll die Anlage betriebsbereit sein. Damit auch alles unter einem guten Stern steht kam im August vorigen Jahres die politische Elite Deutschland zum Projektstart nach Geretsried: Olaf Scholz (Jurist), Bettina Stark-Watzinger (Germanistin), Markus Söder (Jurist) und Hubert Aiwanger (Landwirt). Schön, dass kein Ingenieur dabei war, der hätte vielleicht dumme Fragen gestellt. Dafür hat Hubert Aiwanger den „Innovationsmut“ gelobt, der das Vorhaben möglich gemacht hat. Allerdings wurden die Steuerzahler, auf deren Risiko sich all das abspielt, nicht vorher gefragt.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.

Version 1.0.0

 




Die Sonne macht das Klima! Klimaschau 200 – Jubiläum!

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende.

Thema der 200. Ausgabe: Sonne macht Klima. Offiziell unmöglich, empirisch jedoch belegt.




Hochwasser, eine besondere Gefahr in Warmzeiten – damals und heute (Teil 1)

2024 in Süddeutschland, 2021 im Ahrtal, 2002 in Sachsen und Thüringen – Hochwasser haben verheerende Folgen. Wie gingen und gehen Behörden mit der Gefahr um? Was können Betroffene tun und wie können Sie sich vorbereiten? Die Diplomingenieure Klaus H. Richardt und Tim Sumpf blicken auf die historischen und aktuellen Gefahren durch steigendes Wasser – und wie Sie sich schützen können und müssen.

Von Klaus H. Richardt, Tim Sumpf

Dieser Artikel erschien im Original auf epochtimes.de als vierteilige Artikelserie unter dem Titel „Hochwasser, eine besondere Gefahr“. Zweitveröffentlichung mit freundlicher Genehmigung der Autoren.

Baden-Württemberg, Bayern, Rheinland-Pfalz und das Saarland sind im Jahr 2024 betroffen gewesen; Rheinland-Pfalz, Nordrhein-Westfalen und Hessen waren es 2021 und Sachsen, Sachsen-Anhalt, Thüringen, Niedersachsen, Brandenburg und die Stadtstaaten Hamburg und Bremen waren 2002 betroffen. Egal ob Starkregen oder Schneeschmelze, Menschen in den betroffenen Regionen scheinen Hochwasser hilflos ausgeliefert, aber ist das wirklich so? Und richten die Wassermassen wirklich immer häufiger und immer größere Schäden an?

In dieser vierteiligen Artikelserie betrachtet Klaus H. Richardt, Kraftwerksingenieur, Strömungstechniker sowie Wasser- und Stahlwasserbauer im Ruhestand, die jüngsten Hochwasser im Detail und im geschichtlichen Kontext.

Lesen Sie im Folgenden, wie sich die Gefahr durch steigendes Wasser in den letzten Jahren – und Jahrhunderten – entwickelt hat. Der zweite und dritte Teil beschäftigen sich im Einzelnen mit den Ereignissen 2021 und 2024 sowie ihren historischen Rahmenbedingungen und der Einordnung der aktuellen Fluten. Im vierten Teil erfahren Sie, wie Sie sich selbst schützen können, sowie wann und wo das Gesetz Sie dazu sogar verpflichtet.

der Anfang 2024 fertiggestellte und im Juni bewährte Hochwasserdamm im Wolfental bei Biberach.
Foto: gemeinfrei, Drohnenstaffel DRK Biberach; mit freundlicher Genehmigung, Collage: ts/Epoch Times

Hochwasser, eine steigende Gefahr?

Ja, die Hochwasserereignisse der Neuzeit haben etwas mit dem permanenten Klimawandel zu tun. Mit einer neuen Warmzeit, wie seinerzeit der Mittelalterlichen Warmperiode, in der Hochwasserereignisse auftraten, die bis heute nicht erreicht wurden.

In diesem Zusammenhang veröffentlichte Prof. Joachim Sartor von der Hochschule Trier einen Fachbeitrag zu Hochwassern an der Mosel. Darin listet er die Pegelstände seit 1550 auf, erwähnt aber auch die Magdalenenflut vom Juli 1342. Zwei Grafiken zeigen zudem die Temperaturänderungen und die durchschnittliche Bodenerosion. Letzteres lässt auf Niederschläge schließen und zeigt eine auffällige Korrelation zu den Temperaturen.

Entwicklung der globalen Mitteltemperatur während der letzten rund 1.000 Jahre mit „Mittelalterlicher Warmperiode“ und „Kleiner Eiszeit“ sowie Bodenerosion seit dem Frühmittelalter in Deutschland (ohne Alpenraum).
Foto: ts/Epoch Times nach IPCC, Dotterweich; Bork: Jahrtausendflut 1342. AiD 4/07 in Sartor (2020); doi.org/10.3243/kwe2020.11.001

 

Die Stadt Würzburg schreibt von einem „zwei Tage anhaltenden außerordentlichen Wolkenbruch“, der zu Mitteleuropas größtem bekannten Hochwasser am Magdalenentag, 21. Juli 1342 führte. Weiter heißt es:

„Damals stand das Wasser des Mains in Würzburg bis nahe an den Dom. Aus der Rheinregion wird berichtet, dass im Mainzer Dom ‚das Wasser einem Mann bis zum Gürtel stand‘ und man in Köln mit Booten über die Stadtmauer fahren konnte.“

Ähnliches ist in den Chroniken von Regensburg und Passau bezüglich der Donau vermerkt sowie an Elbe, Mosel, Unstrut, Werra und Weser, außerdem aus Tschechien, Österreich und Italien. Die Forschungen zur Magdalenenflut sind sich einig: Das in ganz Europa spürbare Hochwasser mit über 60.000 Toten war einer stehenden Wetterlage im Juli 1342 mit hohen Temperaturen und hoher Luftfeuchtigkeit geschuldet, wie sie gehäuft in naturbedingten Warmzeiten auftreten.

Das gleiche Phänomen mit ähnlichen, aber zum Glück weniger tödlichen Folgen traf Deutschland im Juli 2021 in Nordrhein-Westfalen und Rheinland-Pfalz (Ahrtal-Hochwasser), sowie dieses Jahr in oben genannten Bundesländern.

„Hundertjährige Hochwasser“ auch schon früher

Im Mittelalter hatten die Menschen die Lektion verstanden: Sie bauten ihre Häuser nicht mehr so nah an die Flüsse, nach Möglichkeit etwas erhöht, um weiteren Flutereignissen vorzubeugen. Heute dagegen baut man wegen der schönen Aussicht ebenerdig, am besten in Bereichen, die früher Sumpf- und Überflutungsgebieten vorbehalten waren. Vielleicht ist das auch der Annahme geschuldet, dass wenn einmal CO₂-Neutralität erreicht ist, es keine Unwetter mehr gäbe.

Das ist ein Trugschluss; selbst wenn „Netto Null“ diesen Effekt hätte und paradiesische Zustände erreicht würden, muss man die Menschen bis dahin weiter gegen die Unbill der Natur schützen.

Es gibt jedoch auch eine gute Nachricht: Die Intensität von Starkregenereignissen und damit einhergehenden Hochwassern hat sich in jüngerer Zeit eher verringert, denn erhöht. Das zeigt sich unter anderem in Abflussmengen und Pegelständen historischer Hochwasser des Mains in Würzburg.

 

Abflussmengen des Mains während vergangener Hochwasser und digitalisierte Flutmarken am Pegel Würzburg. Im Hintergrund eine künstlerische Darstellung des Mainhochwassers von 1784. Zum Vergrößern klicken.
Foto: ts/Epoch Times, mit Material von Rainer Lippert (Diagramm und Flutmarken, gemeinfrei), unbekannt (Hochwasser 1784, gemeinfrei), Lencer (Karte, CC BY-SA 2.5)

Sinkende Schäden, steigende Preise

Und es gibt eine zweite erfreuliche Entwicklung: Zwar zeigen Daten der US-amerikanischen Nationalen Behörde für Ozeane und Atmosphäre (NOAA), dass die absoluten Kosten für Unwetter- und Hochwasserereignisse steigen. Der Vergleich mit dem ebenfalls steigenden Bruttoinlandsprodukt zeigt aber, dass die Schäden in Bezug zur jeweiligen Wirtschaftsleistung tatsächlich sinken.

Die vermeintlichen Mehrkosten sind somit vor allem „auf eine Kombination aus erhöhter Exposition (mehr gefährdete Vermögenswerte) und Anfälligkeit (wie viel Schaden eine Gefahr von bestimmter Intensität – z. B. Windgeschwindigkeit oder Überschwemmungstiefe – an einem Ort verursacht) zurückzuführen“ [Anm. d. Aut.: Erklärungen im Original], so die NOAA.

Mit anderen Worten, die zahlenmäßige Steigerung der Schadenssumme ist unter anderem auf die Inflation zurückzuführen. Ein einfaches Beispiel verdeutlicht dies: Verlor eine Familie um 1950 ihr Auto in den Fluten, kostete sie die Neuanschaffung eines Pick-ups, dem „meistverkauften Auto der USA“, damals unter 1.500 Dollar. Knapp 75 Jahre später schlägt die Basisversion des Nachfolgers mit rund 20.000 US-Dollar zu Buche.

Rückblick und Ausblick

Hochwasser prägten die jüngere und jüngste Geschichte jedoch nicht nur negativ. Ein positives Beispiel ist die Sturmflut 1962 in Hamburg.

Helmut Schmidt und seine Mitarbeiter hatten im Krieg gelernt, blitzartig auf überraschende Situationen zu reagieren und nicht zu hoffen, es werde schon irgendwie gut gehen. Sie hatten das Land nach dem Krieg wieder aufgebaut und wollten das Erreichte nicht aus der Hand geben.

Ein wesentlicher Unterschied bestand damals in einer parteiübergreifenden Zusammenarbeit in Krisensituationen. Heute entsteht stattdessen vielfach der Eindruck, jeder versuche, aus den Fehlern des anderen parteipolitisches Kapital zu schlagen. Verantwortungsbewusstsein war damals noch kein Fremdwort, Verantwortung wurde vorgelebt. Heute scheint dies anders, wie die Hochwasserereignisse 2021 und 2024 zeigen.

Historische Flutmarken (v.l.n.r.) in Limburg an der Lahn (Pegel am Domfelsen), in Hannoversch Münden (Werra, am Packhof), in Frankfurt am Main (Eiserner Steg) und in Kaub (Rhein, historischer Pegel). Zum Vergrößern klicken.
Foto: ts/Epoch Times, mit Material von Oliver Abels (Limburg, CC BY-SA 3.0), Axel Hindemith (Münden, gemeinfrei), Melkom (Frankfurt, CC BY-SA 3.0), LoKiLeCh (Kaub, CC BY 3.0)

Lesen Sie im nächsten Teil, wie es 2021 zu einer Katastrophe kommen konnte. Was war im Ahrtal und anderswo passiert? Welche Probleme hat es gegeben?




Three Mile Island soll wieder ans Netz

von Hans Hofmann-Reinecke

Ein Block des Kernkraftwerks von Three Mile Island, in dem es 1979 zur ersten nuklearen Kernschmelze kam, soll wieder in Betrieb genommen werden. Seine Leistung ist angeblich zur Versorgung der Welt mit künstlicher Intelligenz notwendig.

Beginn einer Feindschaft

Three Mile Island ist eine langgestreckte Insel im Susquehanna-River nahe der Stadt Harrisburg in Pennsylvania, etwa 150 km westlich von Philadelphia. Man hätte von diesem Ort nie gehört, wäre es dort nicht zur ersten schwerwiegenden Havarie in einem nuklearen Kraftwerk gekommen.

Auf der Insel steht eine Anlage mit zwei Druckwasserreaktoren zu je 850 MW elektrischer Leistung. Block 2, der im März 1974 ans Netz gegangen war, erlitt fünf Jahre darauf, am 28. März 1979, eine partielle Kernschmelze. Obwohl niemand durch diesen Unfall zu Schaden kam, weder im Kraftwerk selbst, noch in der Umgebung, löste das Ereignis in der westlichen Welt eine Welle von Hysterie und atomarer Verteufelung aus. Die von den 68ern gesäte Technologiefeindlichkeit hatte bereits damals breite Teile der Gesellschaft ideologisch infiziert.

Der havarierte Reaktorblock wurde inzwischen weitgehend zurückgebaut, der andere Block aber, Block 1, war noch bis 2019 am Netz, war also insgesamt 45 Jahre in Betrieb. Auch sein Rückbau wurde nun geplant. Es wurden aber noch keine Kühltürme gesprengt oder Rohrleitungen durch Säure zerstört.

Es sollte anders kommen. Vor einigen Tagen verkündete der aktuelle Eigentümer und Betreiber, die Constellation Energy, man wolle 1,6 Milliarden US-Dollar investieren, um den stillgelegten Reaktor wieder in Betrieb zu nehmen. Im Jahr 2028 soll Block 1 die Produktion erneut aufnehmen.

Ein Quantensprung

Nun ist die Welt all die Jahre auch ohne den Strom aus Block 1 ausgekommen – wird Constellation jetzt Abnehmer für sein zusätzliches Angebot an Elektrizität finden? Sind es die Fahrer der Tesla-Limousinen in Pennsylvania? Weit gefehlt! Zur Erklärung ist da ein Gleichnis hilfreich.

Der Mensch hat ja, im Vergleich zu anderen Lebewesen, etwa zur Gans, einen relativ großen Kopf. In dem hat ein relativ großes Gehirn Platz, welches dennoch nur etwa 2% des gesamten Körpergewichts ausmacht. Nichts desto trotz ist das Gehirn für 20% unseres Energieverbrauchs verantwortlich! Bei der Gans ist das vermutlich weniger.

Denken braucht also Energie (wurzelt hier die Strategie der Grünen zum Energiesparen?) und Intelligenz ist ein energieintensives Geschäft. Und wie ist das bei der künstlichen Intelligenz? Schon der Betrieb der elementarsten neurologischen Funktionen unseres Worldwide Webs braucht gigantische Mengen an Energie. Allein das Download von 1 Gigabyte Daten verbraucht, nach Angaben von 2021 immerhin 1,8 Kilowattstunden. Damit könnte man einen richtigen Kuchen backen. Die Kilowattstunden werden natürlich nicht in unseren Handys oder Modems verbraucht, sondern in den gigantischen Datenzentren und „Hyperscales“, die, über die Welt verstreut, den globalen Transport der Bits und Bytes möglich machen.

Und jetzt kommt dieser „Quantensprung“, der Sprung vom Web zur künstlichen Intelligenz, sozusagen der Sprung von der Gans zum Homo sapiens. Und dieses künstliche Gehirn hat seine Neuronen über den ganzen Globus verteilt , und es wird einiges mehr and Strom schlucken, als das gute alte Web. Und so hat Microsoft, in weiser, strategischer Voraussicht, einen Vertrag mit Constellation über die Abnahme von 100% der Leistung aus Block 1 über den Zeitraum von 20 Jahren unterzeichnet.

Wenn wir den Leuten von Microsoft und Constellation unterstellen, dass sie nicht nur über künstliche Intelligenz verfügen, sondern auch über strategischen geschäftlichen Weitblick, dann kann man zwei Lehren aus dieser Entwicklung ziehen: man kann stillgelegte AKWs wiederbeleben, und ohne verlässliche Energie gibt es keine Intelligenz.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.

 

Version 1.0.0