Freie Energie – zu hohem Preis

von Hans Hofmann-Reinecke

In Oberbayern entsteht derzeit eine gigantische Anlage, welche die Hitze aus kilometertiefen Erdschichten an die Oberfläche bringen soll, um dort Haushalte und Fabriken mit Energie zu versorgen. Es ist ein weltweit einzigartiges Vorhaben. Könnte das vielleicht seine Gründe haben?

Die Hitze in den Goldminen

Wo auch immer wir stehen, 6200 km unter uns, im Zentrum unserer Erdkugel, herrscht eine Temperatur von mehr als 5000 Grad Celsius. Zur Oberfläche hin wird es zwar kühler, aber nicht weit unter unseren Füßen ist es immer noch so heiß, dass das Gestein schmilzt; da herrschen um die 1200 Grad. Davor schützt uns nur eine dünne Erdkruste, die gerade mal 40 km dick ist. Allerdings ist die an manchen Orten auch dünner, denn sie setzt sich aus einer Reihe von tektonischen Platten zusammen. In der Nähe der Nahtstellen quillt manchmal sogar das heiße Magma heraus, aus dem sich im Laufe der Zeit riesige Vulkane aufgetürmt haben.

Normalerweise aber haben wir festen und kühlen Boden unter den Füßen, denn innerhalb der 40 km dicken Erdkruste sinkt die Temperatur von Magma-Glut auf Umgebungsluft ab. Das ergibt also eine Abkühlung von durchschnittlich 1200°/40km = 30 Grad pro Kilometer Erdkruste. Umgekehrt bedeutet das, dass es wärmer wird, wenn wir von oben in Erde hineinbohren, und zwar mit den besagten 30 Grad pro Kilometer. Davon können die Arbeiter in den Goldminen ein Lied singen, deren Schächte oft in einigen Kilometern Tiefe liegen. Aber könnte man diese Wärmequelle nicht auch zum Nutzen der Menschheit einsetzen? In Regionen, in denen die Erdkruste dünner ist, und daher die Hitze dichter unter der Oberfläche lauert, wird das schon längst getan, etwa in Island. Da holt man sich die Wärme aus einer Tiefe von hundert Metern oder weniger.

Wir sind nicht Island

Und in Deutschland? In unserem unerbittlichen Kampf gegen CO2 ist kein Opfer zu groß und kein Preis zu hoch. Wenn sich eine alternative Energieform anbietet, egal wo auf der Welt, dann wir die angezapft. Der neue Quell ist jedoch – anders als Chile oder Namibia – keine 100.000 Kilometer entfernt, sondern nur ein paar tausend Meter; allerdings nicht nach Süden oder Westen, sondern nach unten. Im oberbayerischen Geretsried startete letztes Jahr ein gigantisches Projekt mit dem Ziel, die unendliche Hitzequelle im Inneren unseres Planeten anzuzapfen. Solche geothermischen Anlagen sind, wie schon erwähnt, nicht Neues; hier aber handelt es sich um einen Standort, an dem die Erdkruste weder brüchig noch ausgedünnt, sondern ganz normal ist.

Hier bringt man die Hitze an die Erdoberfläche, indem man Wasser in die Tiefe leitet, damit es sich dort unten erhitzt, um es anschließend wieder nach oben zu holen. Damit sich das lohnt muss das Wasser aber richtig heiß werden. Bei der geplanten Anlage will man es bis auf 140°C aufheizen. Gemäß unserer Rechnung, dass es jeden Kilometer 30 Grad wärmer wird, wäre die notwendige Tiefe dann 140/30, also knapp fünf Kilometer. Die geplanten Bohrungen sollen deshalb auf 4500 Meter gehen. Genauer gesagt handelt es sich um zwei senkrechte Bohrungen im horizontalen Abstand von 3800 Metern, die an ihren unteren Enden durch eine Reihe von parallelen Leitungen verbunden sind. Das Wasser wird in Bohrung A eingefüllt, fließt dann in einer Tiefe von 4500 Metern durch die horizontalen Rohre zur 3800 Meter entfernte Bohrung B, in der es wieder an die Oberfläche steigt.

Nachhilfe von den Ölbohrern

Das zu verwirklichen ist natürlich eine gewaltige technische Herausforderung, aber man kann hier viel von der Petroleum-Industrie lernen. Die operieren in ähnlichen Tiefen und können da unten auch horizontale Bohrungen durchführen. Man wird dafür sorgen müssen, dass diese horizontalen Rohre möglichst guten Wärmekontakt mit dem umgebenden Gestein haben, damit sich das Wasser erhitzen kann, Bohrung B aber sollte gut isoliert sein, damit das Wasser auf dem Weg nach oben nicht seine kostbare Wärme wieder an die kalte Umgebung abgibt.

Oben angekommen wird das Wassers mit seinen mehr als 100 Grad zum einem Teil als Fernwärme an die umliegenden Haushalte verteilt, zum anderen Teil wird Strom daraus gemacht. Dazu muss dann irgendwie ein elektrischer Generator angetrieben werden. Eine Wärmekraftmaschine hat bei solch niedriger Temperatur zwar keinen guten Wirkungsgrad, trotzdem erwartet man, dass neben den 64 Megawatt an Heizleistung noch 8 Megawatt Elektrizität herauskommen, die dann an die umliegenden 32.000 Haushalte verteilt werden. Wieviel bekäme dann jeder Haushalt ab? Es wären 2 Kilowatt an Heizung und 0,25 kW an Strom. Damit könnte man schon das WiFi betreiben und die Smartphones der Familie aufladen. Für die Waschmaschine genügt das nicht.

Und wer pumpt die riesigen Mengen an Wasser durch dieses viele Kilometer lange Labyrinth an Rohren? Das macht die Schwerkraft. Die Wassersäule von 4500m Höhe erzeugt am Boden von Bohrung A einen Druck von 450 bar. In Bohrung B herrscht ein ähnlicher Druck, aber etwas weniger als bei A. Das kommt daher, dass das Wasser in Bohrung B eine geringeres Gewicht hat, weil es dort (hoffentlich)wärmer ist als in A. Der Unterschied der Dichte könnte bei 1% liegen, was eine Druckdifferent von 4,5 bar verursachen würde. Das sollte für die Zirkulation ausreichen.

Ein Perpetuum Mobile?

Haben wir jetzt also endlich das perpetuum mobile, das CO2-frei, ohne Treibstoff und unabhängig von Jahreszeit, Tageszeit und Wetter zuverlässig Energie liefert? Das wäre zu schön um wahr zu sein. Zwar ist der Wärmehaushalt von Mutter Erde unerschöpflich, das Gestein aber, welches die Röhren umgibt, wird sich abkühlen. Dem werden kontinuierlich so ca. 100 Megawatt Wärme entzogen. Diese Wärme muss aus der Umgebung nachfließen. Geht das so schnell?

Wäre das Gestein flüssig, oder wäre da unten heißes Wasser, dann würde sich die Temperatur sofort ausgleichen, im harten Fels aber ist das etwas anderes. Und so muss man damit rechnen, dass da unten bald keine 140° mehr herrschen werden. Die Anlage verliert also mit den Jahren an Leistung, sie hat eine „Halbwertszeit“, und irgendwann ist sie dann unbrauchbar. Würde man sie dann abschalten und ein oder zwei Jahrzehnte warten, dann brächte sie wieder die volle Leistung, weil das Gestein in der Tiefe Zeit hatte, wieder die natürliche, hohe Temperatur anzunehmen.

Die notwendigen Investitionen werden derzeit auf 350 Millionen Euro geschätzt. Angesichts der Tatsache, dass es sich um ein „weltweit einzigartiges“ Projekt handelt, sollte man hier nicht kleinlich sein, wenn dann letztlich noch ein Faktor zwei oder drei vor dieser Zahl steht. Im Jahr 2026 soll die Anlage betriebsbereit sein. Damit auch alles unter einem guten Stern steht kam im August vorigen Jahres die politische Elite Deutschland zum Projektstart nach Geretsried: Olaf Scholz (Jurist), Bettina Stark-Watzinger (Germanistin), Markus Söder (Jurist) und Hubert Aiwanger (Landwirt). Schön, dass kein Ingenieur dabei war, der hätte vielleicht dumme Fragen gestellt. Dafür hat Hubert Aiwanger den „Innovationsmut“ gelobt, der das Vorhaben möglich gemacht hat. Allerdings wurden die Steuerzahler, auf deren Risiko sich all das abspielt, nicht vorher gefragt.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.

Version 1.0.0

 




Die Sonne macht das Klima! Klimaschau 200 – Jubiläum!

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende.

Thema der 200. Ausgabe: Sonne macht Klima. Offiziell unmöglich, empirisch jedoch belegt.




Hochwasser, eine besondere Gefahr in Warmzeiten – damals und heute (Teil 1)

2024 in Süddeutschland, 2021 im Ahrtal, 2002 in Sachsen und Thüringen – Hochwasser haben verheerende Folgen. Wie gingen und gehen Behörden mit der Gefahr um? Was können Betroffene tun und wie können Sie sich vorbereiten? Die Diplomingenieure Klaus H. Richardt und Tim Sumpf blicken auf die historischen und aktuellen Gefahren durch steigendes Wasser – und wie Sie sich schützen können und müssen.

Von Klaus H. Richardt, Tim Sumpf

Dieser Artikel erschien im Original auf epochtimes.de als vierteilige Artikelserie unter dem Titel „Hochwasser, eine besondere Gefahr“. Zweitveröffentlichung mit freundlicher Genehmigung der Autoren.

Baden-Württemberg, Bayern, Rheinland-Pfalz und das Saarland sind im Jahr 2024 betroffen gewesen; Rheinland-Pfalz, Nordrhein-Westfalen und Hessen waren es 2021 und Sachsen, Sachsen-Anhalt, Thüringen, Niedersachsen, Brandenburg und die Stadtstaaten Hamburg und Bremen waren 2002 betroffen. Egal ob Starkregen oder Schneeschmelze, Menschen in den betroffenen Regionen scheinen Hochwasser hilflos ausgeliefert, aber ist das wirklich so? Und richten die Wassermassen wirklich immer häufiger und immer größere Schäden an?

In dieser vierteiligen Artikelserie betrachtet Klaus H. Richardt, Kraftwerksingenieur, Strömungstechniker sowie Wasser- und Stahlwasserbauer im Ruhestand, die jüngsten Hochwasser im Detail und im geschichtlichen Kontext.

Lesen Sie im Folgenden, wie sich die Gefahr durch steigendes Wasser in den letzten Jahren – und Jahrhunderten – entwickelt hat. Der zweite und dritte Teil beschäftigen sich im Einzelnen mit den Ereignissen 2021 und 2024 sowie ihren historischen Rahmenbedingungen und der Einordnung der aktuellen Fluten. Im vierten Teil erfahren Sie, wie Sie sich selbst schützen können, sowie wann und wo das Gesetz Sie dazu sogar verpflichtet.

der Anfang 2024 fertiggestellte und im Juni bewährte Hochwasserdamm im Wolfental bei Biberach.
Foto: gemeinfrei, Drohnenstaffel DRK Biberach; mit freundlicher Genehmigung, Collage: ts/Epoch Times

Hochwasser, eine steigende Gefahr?

Ja, die Hochwasserereignisse der Neuzeit haben etwas mit dem permanenten Klimawandel zu tun. Mit einer neuen Warmzeit, wie seinerzeit der Mittelalterlichen Warmperiode, in der Hochwasserereignisse auftraten, die bis heute nicht erreicht wurden.

In diesem Zusammenhang veröffentlichte Prof. Joachim Sartor von der Hochschule Trier einen Fachbeitrag zu Hochwassern an der Mosel. Darin listet er die Pegelstände seit 1550 auf, erwähnt aber auch die Magdalenenflut vom Juli 1342. Zwei Grafiken zeigen zudem die Temperaturänderungen und die durchschnittliche Bodenerosion. Letzteres lässt auf Niederschläge schließen und zeigt eine auffällige Korrelation zu den Temperaturen.

Entwicklung der globalen Mitteltemperatur während der letzten rund 1.000 Jahre mit „Mittelalterlicher Warmperiode“ und „Kleiner Eiszeit“ sowie Bodenerosion seit dem Frühmittelalter in Deutschland (ohne Alpenraum).
Foto: ts/Epoch Times nach IPCC, Dotterweich; Bork: Jahrtausendflut 1342. AiD 4/07 in Sartor (2020); doi.org/10.3243/kwe2020.11.001

 

Die Stadt Würzburg schreibt von einem „zwei Tage anhaltenden außerordentlichen Wolkenbruch“, der zu Mitteleuropas größtem bekannten Hochwasser am Magdalenentag, 21. Juli 1342 führte. Weiter heißt es:

„Damals stand das Wasser des Mains in Würzburg bis nahe an den Dom. Aus der Rheinregion wird berichtet, dass im Mainzer Dom ‚das Wasser einem Mann bis zum Gürtel stand‘ und man in Köln mit Booten über die Stadtmauer fahren konnte.“

Ähnliches ist in den Chroniken von Regensburg und Passau bezüglich der Donau vermerkt sowie an Elbe, Mosel, Unstrut, Werra und Weser, außerdem aus Tschechien, Österreich und Italien. Die Forschungen zur Magdalenenflut sind sich einig: Das in ganz Europa spürbare Hochwasser mit über 60.000 Toten war einer stehenden Wetterlage im Juli 1342 mit hohen Temperaturen und hoher Luftfeuchtigkeit geschuldet, wie sie gehäuft in naturbedingten Warmzeiten auftreten.

Das gleiche Phänomen mit ähnlichen, aber zum Glück weniger tödlichen Folgen traf Deutschland im Juli 2021 in Nordrhein-Westfalen und Rheinland-Pfalz (Ahrtal-Hochwasser), sowie dieses Jahr in oben genannten Bundesländern.

„Hundertjährige Hochwasser“ auch schon früher

Im Mittelalter hatten die Menschen die Lektion verstanden: Sie bauten ihre Häuser nicht mehr so nah an die Flüsse, nach Möglichkeit etwas erhöht, um weiteren Flutereignissen vorzubeugen. Heute dagegen baut man wegen der schönen Aussicht ebenerdig, am besten in Bereichen, die früher Sumpf- und Überflutungsgebieten vorbehalten waren. Vielleicht ist das auch der Annahme geschuldet, dass wenn einmal CO₂-Neutralität erreicht ist, es keine Unwetter mehr gäbe.

Das ist ein Trugschluss; selbst wenn „Netto Null“ diesen Effekt hätte und paradiesische Zustände erreicht würden, muss man die Menschen bis dahin weiter gegen die Unbill der Natur schützen.

Es gibt jedoch auch eine gute Nachricht: Die Intensität von Starkregenereignissen und damit einhergehenden Hochwassern hat sich in jüngerer Zeit eher verringert, denn erhöht. Das zeigt sich unter anderem in Abflussmengen und Pegelständen historischer Hochwasser des Mains in Würzburg.

 

Abflussmengen des Mains während vergangener Hochwasser und digitalisierte Flutmarken am Pegel Würzburg. Im Hintergrund eine künstlerische Darstellung des Mainhochwassers von 1784. Zum Vergrößern klicken.
Foto: ts/Epoch Times, mit Material von Rainer Lippert (Diagramm und Flutmarken, gemeinfrei), unbekannt (Hochwasser 1784, gemeinfrei), Lencer (Karte, CC BY-SA 2.5)

Sinkende Schäden, steigende Preise

Und es gibt eine zweite erfreuliche Entwicklung: Zwar zeigen Daten der US-amerikanischen Nationalen Behörde für Ozeane und Atmosphäre (NOAA), dass die absoluten Kosten für Unwetter- und Hochwasserereignisse steigen. Der Vergleich mit dem ebenfalls steigenden Bruttoinlandsprodukt zeigt aber, dass die Schäden in Bezug zur jeweiligen Wirtschaftsleistung tatsächlich sinken.

Die vermeintlichen Mehrkosten sind somit vor allem „auf eine Kombination aus erhöhter Exposition (mehr gefährdete Vermögenswerte) und Anfälligkeit (wie viel Schaden eine Gefahr von bestimmter Intensität – z. B. Windgeschwindigkeit oder Überschwemmungstiefe – an einem Ort verursacht) zurückzuführen“ [Anm. d. Aut.: Erklärungen im Original], so die NOAA.

Mit anderen Worten, die zahlenmäßige Steigerung der Schadenssumme ist unter anderem auf die Inflation zurückzuführen. Ein einfaches Beispiel verdeutlicht dies: Verlor eine Familie um 1950 ihr Auto in den Fluten, kostete sie die Neuanschaffung eines Pick-ups, dem „meistverkauften Auto der USA“, damals unter 1.500 Dollar. Knapp 75 Jahre später schlägt die Basisversion des Nachfolgers mit rund 20.000 US-Dollar zu Buche.

Rückblick und Ausblick

Hochwasser prägten die jüngere und jüngste Geschichte jedoch nicht nur negativ. Ein positives Beispiel ist die Sturmflut 1962 in Hamburg.

Helmut Schmidt und seine Mitarbeiter hatten im Krieg gelernt, blitzartig auf überraschende Situationen zu reagieren und nicht zu hoffen, es werde schon irgendwie gut gehen. Sie hatten das Land nach dem Krieg wieder aufgebaut und wollten das Erreichte nicht aus der Hand geben.

Ein wesentlicher Unterschied bestand damals in einer parteiübergreifenden Zusammenarbeit in Krisensituationen. Heute entsteht stattdessen vielfach der Eindruck, jeder versuche, aus den Fehlern des anderen parteipolitisches Kapital zu schlagen. Verantwortungsbewusstsein war damals noch kein Fremdwort, Verantwortung wurde vorgelebt. Heute scheint dies anders, wie die Hochwasserereignisse 2021 und 2024 zeigen.

Historische Flutmarken (v.l.n.r.) in Limburg an der Lahn (Pegel am Domfelsen), in Hannoversch Münden (Werra, am Packhof), in Frankfurt am Main (Eiserner Steg) und in Kaub (Rhein, historischer Pegel). Zum Vergrößern klicken.
Foto: ts/Epoch Times, mit Material von Oliver Abels (Limburg, CC BY-SA 3.0), Axel Hindemith (Münden, gemeinfrei), Melkom (Frankfurt, CC BY-SA 3.0), LoKiLeCh (Kaub, CC BY 3.0)

Lesen Sie im nächsten Teil, wie es 2021 zu einer Katastrophe kommen konnte. Was war im Ahrtal und anderswo passiert? Welche Probleme hat es gegeben?




Three Mile Island soll wieder ans Netz

von Hans Hofmann-Reinecke

Ein Block des Kernkraftwerks von Three Mile Island, in dem es 1979 zur ersten nuklearen Kernschmelze kam, soll wieder in Betrieb genommen werden. Seine Leistung ist angeblich zur Versorgung der Welt mit künstlicher Intelligenz notwendig.

Beginn einer Feindschaft

Three Mile Island ist eine langgestreckte Insel im Susquehanna-River nahe der Stadt Harrisburg in Pennsylvania, etwa 150 km westlich von Philadelphia. Man hätte von diesem Ort nie gehört, wäre es dort nicht zur ersten schwerwiegenden Havarie in einem nuklearen Kraftwerk gekommen.

Auf der Insel steht eine Anlage mit zwei Druckwasserreaktoren zu je 850 MW elektrischer Leistung. Block 2, der im März 1974 ans Netz gegangen war, erlitt fünf Jahre darauf, am 28. März 1979, eine partielle Kernschmelze. Obwohl niemand durch diesen Unfall zu Schaden kam, weder im Kraftwerk selbst, noch in der Umgebung, löste das Ereignis in der westlichen Welt eine Welle von Hysterie und atomarer Verteufelung aus. Die von den 68ern gesäte Technologiefeindlichkeit hatte bereits damals breite Teile der Gesellschaft ideologisch infiziert.

Der havarierte Reaktorblock wurde inzwischen weitgehend zurückgebaut, der andere Block aber, Block 1, war noch bis 2019 am Netz, war also insgesamt 45 Jahre in Betrieb. Auch sein Rückbau wurde nun geplant. Es wurden aber noch keine Kühltürme gesprengt oder Rohrleitungen durch Säure zerstört.

Es sollte anders kommen. Vor einigen Tagen verkündete der aktuelle Eigentümer und Betreiber, die Constellation Energy, man wolle 1,6 Milliarden US-Dollar investieren, um den stillgelegten Reaktor wieder in Betrieb zu nehmen. Im Jahr 2028 soll Block 1 die Produktion erneut aufnehmen.

Ein Quantensprung

Nun ist die Welt all die Jahre auch ohne den Strom aus Block 1 ausgekommen – wird Constellation jetzt Abnehmer für sein zusätzliches Angebot an Elektrizität finden? Sind es die Fahrer der Tesla-Limousinen in Pennsylvania? Weit gefehlt! Zur Erklärung ist da ein Gleichnis hilfreich.

Der Mensch hat ja, im Vergleich zu anderen Lebewesen, etwa zur Gans, einen relativ großen Kopf. In dem hat ein relativ großes Gehirn Platz, welches dennoch nur etwa 2% des gesamten Körpergewichts ausmacht. Nichts desto trotz ist das Gehirn für 20% unseres Energieverbrauchs verantwortlich! Bei der Gans ist das vermutlich weniger.

Denken braucht also Energie (wurzelt hier die Strategie der Grünen zum Energiesparen?) und Intelligenz ist ein energieintensives Geschäft. Und wie ist das bei der künstlichen Intelligenz? Schon der Betrieb der elementarsten neurologischen Funktionen unseres Worldwide Webs braucht gigantische Mengen an Energie. Allein das Download von 1 Gigabyte Daten verbraucht, nach Angaben von 2021 immerhin 1,8 Kilowattstunden. Damit könnte man einen richtigen Kuchen backen. Die Kilowattstunden werden natürlich nicht in unseren Handys oder Modems verbraucht, sondern in den gigantischen Datenzentren und „Hyperscales“, die, über die Welt verstreut, den globalen Transport der Bits und Bytes möglich machen.

Und jetzt kommt dieser „Quantensprung“, der Sprung vom Web zur künstlichen Intelligenz, sozusagen der Sprung von der Gans zum Homo sapiens. Und dieses künstliche Gehirn hat seine Neuronen über den ganzen Globus verteilt , und es wird einiges mehr and Strom schlucken, als das gute alte Web. Und so hat Microsoft, in weiser, strategischer Voraussicht, einen Vertrag mit Constellation über die Abnahme von 100% der Leistung aus Block 1 über den Zeitraum von 20 Jahren unterzeichnet.

Wenn wir den Leuten von Microsoft und Constellation unterstellen, dass sie nicht nur über künstliche Intelligenz verfügen, sondern auch über strategischen geschäftlichen Weitblick, dann kann man zwei Lehren aus dieser Entwicklung ziehen: man kann stillgelegte AKWs wiederbeleben, und ohne verlässliche Energie gibt es keine Intelligenz.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.

 

Version 1.0.0




Sonne, Wolken und Klima – ein Beitrag vom EIKE-Leser

Unser Leser Garik Müller merkte im Gespräch mit der EIKE-Redaktion an, daß aktuelle Sonnenstürme die Wolkenbildung befördert hätten – was dem Svensmark-Shaviv-Folgeeffekt und dem Forbush-Effekt widerspräche. Aber die Atmosphäre der Erde ist bekanntlich wesentlich komplizierter als die Computermodelle der Klimaforscher – da kann auch die Sonnenstrahlung unter anderen Umstand anders wirken.

Ein Diskussionsartikel von Garik Müller

Frage von EIKE:

Wenn viel Sonnenwind kommt, werden die Teilchen aus dem Weltraum von der Erde weggepustet, der Forbush-Effekt. Wenn es weniger Teilchen gibt, weniger Wolkenkeime. Die solaren Auswürfe der letzten Zeit müßten also die Wolken eher verringert haben.
Es sei denn, daß bestimmte Sonnenereignisse Teilchen produzieren, die den van-Allengürtel durchdringen können.

Müller:

Es ist hochenergetische Strahlung, die sowohl aus dem kosmischen Bereich kommt, als auch bei bestimmten Aktivitäten der Sonne in Richtung Erde abgestrahlt wird. Zumeist zeigt der Ausgangspunkt auf der Sonne von der Erde weg. Doch dieses Mal war die Erde direkt im Fokus. Durch den Kaskadeneffekt gelangt die ionisierende Strahlung bis in die Troposphäre.
Der Forbush-Effekt wirkt tatsächlich nur, wenn der „Sonnensturm“ gleichzeitig in Richtung Erde zeigt.
Ist es zeitlich versetzt, wirkt er nicht so stark.

Der Svensmark-Shaviv-Effekt, den ich übrigens, nachdem ich mich lange damit auseinandergesetzt habe, für schlüssig und korrekt halte, ist aber nur der erste Stein des Anstoßes bei Ereignissen wie in diesem Jahr und geht weitaus stärker von der Sonne aus. Bis Anfang Juni war die Bewölkung noch gering. Wir hatten dadurch global höhere Oberflächentemperaturen, welche anschließend sanken, da die Verdunstungsrate über den Meeren erheblich anstieg, wodurch auch wiederum partiell die Temperaturen der Meeresoberflächen sanken, speziell im Atlantik und Pazifik.
Danach hatten wir einen Zeitraum erhöhter Sonnenaktivität, wie ich anhand der Beobachtung eines Freundes in Frankfurt erfahren konnte. Immer wenn die großflächige Wolkenbildung begann, war die Anzahl der Sonnenflecken erheblich gestiegen. Das war auch zuletzt der Fall. Interessant war auch, daß die Vorgänge zeitlich immer kongruent waren.

Wenn man dann dazu die Arbeit von Zharkova nimmt, scheint auffällig, daß solche Ereignisse sich zum Ende eines solaren Maximums zu häufen scheinen, was dann oft mit lokalen Wetterphänomenen wie aktuell zusammentrifft, was wieder viele Fragen aufwirft. Ungut wird es dann, wenn die Strömungssystene das Ganze zusammen mit den topografischen Gegebenheiten verstärken.
Da sind die Reaktionen der Klima-Hysteriker weder hilfreich noch angebracht. Das wird dann aber mathematisch so komplex, daß 99,9% der Wissenschaft das kaum noch darstellen kann. Da wäre akribische Arbeit notwendig. Über bestehende algorithmische Modelle ist das nicht darstellbar, weil die Modelle dann kollabieren.
Das ist der Punkt, wo die Mathematik die gängige Theorie einholt. Es gibt dazu einige Arbeiten von denen man aber ohne gezielte Recherche erst einmal nichts findet.
Der Gedanke kam mir, als ich in dem Zusammenhang an meine Arbeit über Mesonendurchgänge dachte. Die theoretischen Grundlagen daraus sind für dieses Thema sehr hilfreich.

Aus der Literatur gibt es da einiges dazu:

[1] Review of Particle Physics, C. Amsler et al., Physics Letters B667, 1 (2008)

[2] O.C. Allkofer, H. Jokisch, A survey on the recent measurements of the absolute vertical cosmic­ray muon flux at sea level, Il Nuovo Cimento A (1971-1996), Volume 15, Number 3, 1973, Pages 371-389.

[3] Thomas Hebbeker, Charles Timmermans, A compilation of high energy atmospheric muon data at sea level, Astroparticle Physics, Volume 18, Issue 1, August 2002, Pages 107-127.

[4] M. Fuidl, Kosmische Myonen in Schulversuchen, Johannes-Gutenberg-Universitaet Mainz, Institut fur¨ Physik, September 2003.

[5] C. Wiebusch, Astroteilchenphysik -Vorlesungsskriptum, RWTH Aachen, III. Physikalisches Insti­tut, Sommer 2010.

[6] S. Schael, Teilchen und Astrophysik -Vorlesungsskriptum, RWTH Aachen, I. Physikalisches Insti­tut, Winter 2008.

[7] W.R.Leo: Techniques for Nuclear and Particle Physics Experiments, Springer Verlag 1987

[8] J.Krieger, GNU Public License / wikimedia Commons http://upload.wikimedia.org/wikipedia/commons/a/ab/Photomultiplier_schema_de.png

[9] J.N. Crookes, B.C. Rastin, An investigation of the absolute intensity of muons at sea-level, Nuclear Physics B, Volume 39, 1 April 1972, Pages 493-508.

[10] B76D01 Photomultiplier Tube, ADIT.

[11] Christophe Dang Ngoc Chan, Angle solide definition, Wikicommons http://commons.wikimedia.org/wiki/File:Angle_solide_definition.svg

[12] R. Haeusler, A. F. Badea, H. Rebel, I. M. Brancus, J. Oehlschlager, Distortions of experimental muon arrival time distributions of extensive air showers by the observation conditions, Astroparticle Physics, Volume 17, Issue 4, July 2002, Pages 421-426.

[13] Allkofer, O. C., Grieder, P. K. F., Cosmic Rays on Earth, Physik Daten, ISSN 0344-8401, 1984.

[14] Helios Dr. Bulle GmbH & Co. KG, Tea Boy Nr. 3334 -002 http://www.helios-wertheim.com/Sitemap/Tea_Boy/

[15] S. Sciutto, COSMUS work group, AIRES Simulations http://astro.uchicago.edu/cosmus/projects/aires/

[16] Auger Engineering Array Group, Pierre Auger Observatory http://www.auger.org/observatory/animation.html

[17] F. Schmidt, CORSIKA Shower Images http://www.ast.leeds.ac.uk/~fs/showerimages.html

[18] K.-H. Kampert and A. A. Watson. Extensive air showers and ultra high-energy cosmic rays: a historical review., European Physical Journal H 37:359-412 (August 2012). doi:10.1140/epjh/e2012-30013-x

[19] I. Allekotte et al., The Surface Detector System of the Pierre Auger Observatory , Nucl. Inst. Meth., vol. A586, pp. 409-420 (2008), arXiv:astro-ph/0712.2832

[20] J. de Mello Neto (for the Pierre Auger Collaboration), Studies of Cosmic Rays at the Highest Energies with the Pierre Auger Observatory, EPJ Web of Conferences(2014), doi: http://dx.doi.org/10.1051/epjconf/20147100036

[21] J. Bl¨ orandel, Cosmic rays from the knee to the highest energies, Progressumer, R. Engel and J.R. H¨ in Particle and Nuclear Physics, vol. 63, p. 293-338 (October 2009),http://arxiv.org/abs/0904. 0725

[22] M.G. Aartsen et al., Observation of High-Energy Astrophysical Neutrinos in Three Years of IceCube Data, IceCube Collaboration, Phys.Rev.Lett., Volume 113, 2014 http://arxiv.org/abs/1405.5303

[23] Anne Schukraft, Search for a diffuse flux of extragalactic neutrinos with the IceCube Neutrino Observatory, Dissertation, Rheinisch-Westf¨alische Technische Hochschule (RWTH) Aachen, June 2013

[24] IceCube Collaboration, Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detec­tor, Science, 22 November 2013, Vol. 342 no. 6161, DOI: 10.1126/science.1242856