Durchbruch: Wissen­schaftler finden handfeste Beweise, dass kosmische Strahlen das Erdklima beeinflussen

Als sich die kosmische Strahlung während der letzten Polumkehr der Erde vor etwa 780.000 Jahren verstärkte, führte der Abschirm-Effekt der Bildung tiefer Wolken zu hohem Luftdruck über Sibirien. Dadurch verstärkte sich der ostasiatische Wintermonsun. Dies ist ein eindeutiger Beweis dafür, dass galaktische kosmische Strahlung Änderungen des Erdklimas bewirkt. Diese Ergebnisse erzielte ein Forschungsteam unter Leitung von Prof. Masayuki Hyodo (Research Center for Inland Seas, Kobe University). Die Studie wurde am 28. Juni in der Online-Ausgabe von Scientific Reports veröffentlicht.

Der Svensmark-Effekt ist eine Hypothese, der zufolge kosmische Strahlung die Bildung tiefer Wolken induziert und das Erdklima beeinflusst. Tests auf der Grundlage jüngerer meteorologischer Beobachtungen zeigen kurzfristig nur geringe Änderungen der Menge kosmischer Strahlung und der tiefen Wolken, was es schwierig macht, diese Hypothese zu beweisen. Während der letzten geomagnetischen Transition jedoch, als die kosmische Strahlung dramatisch zunahm, gab es gleichzeitig eine große Zunahme der Wolkenbedeckung. Dadurch war es möglich, die Auswirkung kosmischer Strahlung auf das Klima mit größerer Sensitivität zu bestimmen.

Im Loess Plateau in China, unmittelbar südlich der Wüste Gobi nahe der Grenze zur Mongolei, wurde seit 2,6 Millionen Jahren Staub aus Löss-Schichten verfrachtet – Sedimente, entstanden durch Akkumulation von windverblasenem Staub. Sie können eine Dicke bis zu 200 Metern erreichen. Falls der Wind zunimmt, werden die groben Partikel über längere Strecken verweht, außerdem werden größere Mengen verfrachtet. Gestützt auf dieses Phänomen konnte das Forschungsteam nachweisen, dass der Wintermonsun unter dem Abschirm-Effekt tiefer Wolken während des geomagnetischen Übergangs stärker wurde. Das Team untersuchte Änderungen der Partikelgröße und die Geschwindigkeit der Akkumulation der Staubschichten an zwei Stellen auf dem Loess Plateau.

An beiden Stellen fanden sie über einen Zeitraum von etwa 5000 Jahren während der geomagnetischen Umkehrung vor 780.000 Jahren Beweise für stärkere Wintermonsune: Die Partikel wurden größer und die Akkumulation erfolgte bis zu drei mal schneller. Diese starken Wintermonsune fielen mit dem Zeitraum während der geomagnetischen Umkehrung zusammen, in denen die Stärke des irdischen Magnetfeldes auf weniger als ¼ sank und die kosmische Strahlung um über 50% zunahm. Dies belegt, dass die Zunahme der kosmischen Strahlung begleitet worden war durch eine Zunahme der Bedeckung mit tiefen Wolken. Der dadurch hervorgerufene Abschirm-Effekt kühlte den Kontinent, und das sibirische Hochdruckgebiet verstärkte sich. Bezieht man weitere Phänomene während der geomagnetischen Umkehrung mit ein – also Beweise für einen Rückgang der jährlichen Mitteltemperatur um 2 bis 3°C sowie eine Zunahme der jährlichen Temperaturschwankungen – ist diese neue Entdeckung bzgl. des Wintermonsuns ein weiterer Beleg dafür, dass Klimaänderungen verursacht werden durch den Wolken-Abschirm-Effekt.

Das IPCC hat die Auswirkungen der Wolkenbedeckung auf das Klima in seinen Evaluierungen angesprochen, aber dieses Phänomen wurde in den Klima-Prophezeiungen niemals berücksichtigt wegen des unzureichenden physikalischen Verständnisses desselben“, kommentiert Prof. Hyodo. „Diese Studie bietet eine Gelegenheit, die Auswirkungen von Wolken auf das Klima noch einmal zu überdenken. Nimmt die kosmische Strahlung zu, ist das bei tiefen Wolken ebenso, und umgekehrt. Eine Klima-Erwärmung könnte also dem Gegenteil eines Abschirm-Effektes geschuldet sein. Der Abschirm-Effekt infolge kosmischer Strahlung ist bedeutsam, wenn man über die jüngste globale Erwärmung und auch über die Warmzeit des Mittelalters nachdenkt“.

Journal Reference:

  1. Yusuke Ueno, Masayuki Hyodo, Tianshui Yang, Shigehiro Katoh. Intensified East Asian winter monsoon during the last geomagnetic reversal transitionScientific Reports, 2019; 9 (1) DOI: 10.1038/s41598-019-45466-8.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/scientists-find-evidence-cosmic-rays-influence-earths-climate/

Übersetzt von Chris Frey EIKE




„Atommüll“ im Bohrloch

Man kann heute nicht nur einige tausend Meter senkrecht in die Tiefe bohren, sondern auch noch bis zu 5 km waagerecht. Dabei ist entscheidend, daß man die waagerechten Bohrungen bis auf etwa einen Meter zielgenau innerhalb einer Schicht ausführen kann. Damit ergeben sich völlig neue Aspekte für den Bau eines Endlagers.

Bergwerk oder Bohrfeld

Der klassische Weg ist die Anlage eines Bergwerkes. Bis man mit der Einlagerung beginnen kann, muß man tatsächlich ein komplettes Bergwerk mit allen zugehörigen Einbauten errichten. Entscheidender Faktor ist hierbei der Mensch: Bergleute müssen von der ersten Stunde bis zum endgültigen Verschluß – ein Zeitraum von rund 100 Jahren – in diesem Bergwerk arbeiten. Das erfordert einen enormen Aufwand für die Sicherheit und begrenzt die Tiefe: Es muß nicht nur eine mehrere Kilometer lange Rampe für den Transport der Abfallbehälter aufgefahren werden, sondern zusätzlich noch Schachtanlagen für die Belüftung und den Personentransport. Für all die aufwendige Technik müssen im Berg komplette Werkstätten, Sozialräume etc. eingerichtet und betrieben werden. Ein enormer Kostenfaktor. Abschließend müssen alle Einbauten und Installationen (Kabel, Rohrleitungen usw.) wieder zurückgebaut werden und alle Hohlräume sorgfältig verfüllt und abgedichtet werden. Bei einem konventionellen Bergwerk holt man nur die wertvollen Dinge raus und läßt das Bergwerk absaufen und langsam in sich zusammenfallen. Genau das geht bei einem Endlager nicht. Hier muß der ursprüngliche Zustand des Gebirges möglichst gleichwertig wieder hergestellt werden – ist doch das Gestein die entscheidende Barriere eines Endlagers. Durch all diese bergmännischen Tätigkeiten wird die ursprüngliche Einlagerungsstätte erheblich verletzt. Dabei sind nicht nur die Hohlräume wieder zu verschließen, sondern auch die durch den Abbau gestörten Randzonen entsprechend abzudichten.

Legt man ein Bohrfeld an, muß zu keinem Zeitpunkt irgendein Mensch unter Tage arbeiten. Alle Bau-, Einlagerungs- und Verfüllarbeiten werden ausschließlich von der Oberfläche aus ausgeführt. Die Arbeiten gehen abschnittsweise vor sich. Sobald eine Bohrung fertiggestellt ist, kann sie befüllt werden und (wunschgemäß sofort) wieder fachgerecht verschlossen werden. Für jede Bohrung sind nur einige Monate erforderlich und anschließend ist sofort der Endlagerzustand erreicht. Dies bedeutet eine enorme Flexibilität. Man muß nicht mehr ein zentrales Endlager betreiben, in dem alle radioaktiven Abfälle eingelagert werden, sondern kann mehrere spezielle Lagerstätten einrichten. Dies könnte auch eine bessere Akzeptanz bei der Bevölkerung bedeuten. Es gibt nicht mehr eine Region, die sich als „Atomklo“ der Nation verstehen muß, sondern viele Endlager sind möglich. Der Nutzen von einem Kernkraftwerk kann besser mit den (vermeintlichen) Nachteilen eines Endlagers ausgeglichen werden. Insbesondere durch horizontale Bohrungen werden ganz neue Gebiete für die Endlagerung gewonnen. Für ein Bergwerk braucht man eine möglichst dicke Schicht (z. B. Salzstock). Für horizontale Bohrungen reichen sehr dünne Schichten (Abweichungen von weniger als einem Meter bei der Bohrung) aus. Ein stark geschichteter Untergrund kann sogar von Vorteil sein, wie man von den Gaslagerstätten weiß. Einzelne Schichten im Untergrund sind oft so dicht, daß sie nicht einmal unter Druck stehendes Erdgas durchlassen. Ein gewaltiger Vorteil für ein Endlager.

Senkrecht oder horizontal?

Die Idee „Atommüll“ in tiefe Bohrungen zu versenken ist nicht neu. So hat man in den USA versuchsweise Bohrungen bis 5000 m Tiefe ausgeführt. In den unteren 1 bis 2 km sollten dann Kanister mit „Atommüll“ endgelagert werden. Hier galt das Prinzip: Je tiefer, je sicherer, denn Tiefe schützt vor durchgehenden Rissen und es verbleibt nur noch die (langsame) Diffusion zum Transport. Der „Atommüll“ sollte also mindestens drei Kilometer unter der Erdoberfläche gelagert sein. Bei dieser Bauart stehen die Kanister übereinander, was zu einer entsprechenden Belastung für den untersten Kanister führt. Gemildert kann dies werden, indem man mehrere Pfropfen in die Bohrung einbaut, auf denen jeweils ein separater Turm steht. Dies verkürzt aber die nutzbare Länge entsprechend und erhöht die Baukosten. Nachteilig ist auch bei einem Wassereintritt, daß die radioaktiven Stoffe – angetrieben durch den Auftrieb durch die Wärmeentwicklung – bevorzugt in der Bohrung und ihrer Störzone nach oben steigen wollen. Es ist also eine besonders sorgfältige Wiederverfüllung nötig, damit auch langfristig keine radioaktiven Stoffe in Grundwasser führende Schichten gelangen.

Bei einer horizontalen Lagerung ist der Auftrieb naturbedingt wesentlich kleiner, da die Wärmeentwicklung eher flächig auftritt. Technisch arbeitet man dem Auftrieb entgegen, indem man den horizontalen Teil leicht ansteigend ausführt. Flüssigkeiten und Gase haben dadurch die Tendenz sich entgegen der Hauptbohrung zu bewegen. Bei einer solchen Anlage spielt Wasser in der Einlagerungszone eine geringe Rolle. Anders als bei einem Bergwerk muß es gar nicht abgepumpt werden und es werden somit nicht die Strukturen gestört. Es muß lediglich gewährleistet sein, daß es oberhalb ausreichende Sperrschichten gibt, die einen Austausch mit oberflächennahen Grundwasserschichten verhindern. Wie lange dieses Wasser schon keinen Kontakt mehr mit der Oberfläche hatte, kann man leicht über eine Isotopenanalyse ermitteln. So stammen beispielsweise die Wässer in den Ölfeldern von Texas (permian) überwiegend aus dem gleichen Meer, in dem auch die öl- und gasbildenden Organismen gelebt haben – sie sind Millionen Jahre alt. Genau die Schichten, die auch das Öl und Gas gefangen gehalten haben, haben auch sie von der Oberfläche fern gehalten. Ein weiterer Vorteil dieser alten Wässer ist, daß sie längst mit Mineralien gesättigt sind und keinen Sauerstoff mehr enthalten – sie können deshalb nur sehr schlecht den „Atommüll“ auflösen bzw. die Behälter korrodieren.

Die Konstruktion eines horizontalen Lagers

Der Bau eines solchen Endlagers vollzieht sich in drei Schritten: Im ersten Schritt wird eine ganz konventionelle Bohrung bis in die gewünschte Tiefe (mindestens so tief wie die geplanten Bergwerke) niedergebracht. Ist sie fertig gebohrt, wird sie komplett mit einem Stahlrohr ausgekleidet, welches einzementiert wird. Der Spezialzement verbindet das Rohr fest mit dem umgebenden Gestein und festigt die durch das Bohrgerät beschädigte Randzone (jeweils ungefähr einen halben Bohrungsdurchmesser um das Loch). Ab diesem Moment hat man also eine stabile senkrechte Rohrleitung nach unten. Im zweiten Schritt wird der Bogen als Übergang von der Senkrechten in die Horizontale gebohrt. Dies geschieht mit einem Winkel von etwa 0,25° pro Meter (300 bis 600 Höhenmeter zwischen Senkrecht und Waagerecht). Wie stark die Krümmung sein darf, hängt wesentlich von der Länge der „Müllbehälter“ ab. Schließlich sollen diese Behälter später ohne Belastung – wie ein Sattelzug auf einer Straße – um die Ecke gefahren werden. Will man z. B. komplette Brennelemente (in Deutschland z. B. ist eine Wiederaufbereitung politisch ausgeschlossen) einlagern, hat ein solcher Kanister eine Länge von knapp 5 m und wiegt rund 500 kg. Ist auch dieser Teil fertig gebohrt, wird er ebenfalls durchgehend bis zur Erdoberfläche verrohrt. Im senkrechten Teil besteht die Konstruktion nun aus zwei zentrischen Rohren, deren Zwischenraum ebenfalls zementiert wird. Im dritten Schritt wird die horizontale Bohrung ausgeführt. Man realisiert heute im Ölgeschäft bis zu 5 km lange Strecken. Wie lang eine Bohrung sein kann hängt maßgeblich von der Beschaffenheit der Schicht ab, in die die Endlagerung erfolgen soll. Dieser Teil wird nun ebenfalls verrohrt, was zur Folge hat, daß im senkrechten Teil nun drei Rohre ineinander gesteckt sind.

Die „Abfallbehälter“ bestehen aus Rohren mit einer Wandstärke von etwa 1 cm aus „Alloy 625“ (einem rostfreien Edelstahl, aus dem z. B. auch Rohre in Kernkraftwerken gefertigt werden). Hohlräume in den Behältern werden ausgefüllt und diese anschließend gasdicht verschweißt. Solche „Stangen“ – typische Durchmesser 23 bis 33 cm – sind außerordentlich stabil. Bis diese Behälter „durchgerostet“ sind, vergehen mindestens 50 000 Jahre. Ein Zeitraum, in dem fast alle Spaltprodukte bereits zerfallen sind. Erst dann müßte das Gestein seine Aufgabe als weitere Barriere erfüllen. Die Rohre zur Auskleidung der Bohrlöcher haben eine Lebensdauer von mehreren hundert Jahren.

Aus der Ölindustrie kennt man zahlreiche Verfahren, wie man solche Bohrungen befahren kann. Das Ein- und Ausbringen von Messgeräten, Kameras, Werkzeugen usw. ist Routine. Es gibt sogar Spezialfirmen, die abgebrochene oder verklemmte Bohrgestänge wieder aus einem Bohrloch fischen können. Die „Abfallbehälter“ werden wahrscheinlich mit einem elektrisch angetriebenen Traktor, an einem Stahlseil hängend, in die Rohre gedrückt bzw. wieder herausgezogen. Die Lagerung ist also für (mindestens) Jahrzehnte rückholbar. Auch dies eine politische Forderung, die eigentlich im Widerspruch zu einem Endlager steht.

Alle Arbeiten werden also von der Erdoberfläche aus ausgeführt. Einzige Besonderheit ist eine Abschirmung gegen die Strahlung während der Versenkung des „Atommülls“. In der Ölförderung ist es üblich, von einer kleinen Baustelle aus, mehrere Löcher zu bohren. Teilweise sogar mehrere Schichten übereinander zu erschließen. So könnte man auch ein recht großes Lagerfeld für viele Tonnen Abfall anlegen. Auch der oberirdische Platzbedarf wäre somit sehr viel kleiner als für ein vergleichbares Bergwerk.

Was könnte man einlagern?

Wie oben schon erwähnt, könnte man ganze Brennelemente ohne weitere Bearbeitung einlagern. Dies dürfte – wegen der enormen Rohstoffverschwendung – die Ausnahme sein. Viel eher wird man die verglasten Spaltprodukte mit den minoren Aktinoiden nach einer Wiederaufbereitung (französischer Weg) in solche Behälter gießen. Es sind aber auch andere Wege darstellbar. So fällt man in den USA in den militärischen Aufbereitungsanlagen Strontium und Cäsium (Halbwertszeit etwa 30 Jahre) aus der Spaltproduktlösung aus. So erhält man eine relativ große Menge kurzlebigen Abfall und eine relativ geringe Menge langlebigere Spaltprodukte. Diese Cäsium- und Strontium-Kapseln werden getrennt gelagert. Man kann hierfür einen besonders geeigneten Lagerort finden. Dampferzeuger aus Kernkraftwerken werden heute schon in Spezialfabriken zerlegt und dekontaminiert. Übrig bleibt eine große Menge handelsüblicher Schrott zu Wiederverwendung und ein kleiner Block eingeschmolzenen radioaktiven Materials. Diesen Abfall könnte man auch in die „Abfallbehälter“ gießen und endlagern. Heute wird es immer mehr üblich, kontaminierte Stoffe (Schutzkleidung etc.) vorher einzuäschern und nur noch das kleine Volumen der Asche zu lagern. Genauso könnte man belastete Filterharze in „Abfallbehälter“ umfüllen. Alles nur eine Frage der Kosten und des politischen Willens.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Temperatur­rekorde in Frank­reich: 3 Fakten, welche man nie in den Medien finden wird

[Vorbemerkung: sämtliche Temperaturangaben im Original in Grad Fahrenheit wurden hier gleich umgerechnet in Grad Celsius. Anm. d. Übers.]

Nun ist es nicht ganz ausgeschlossen, dass die menschliche Komponente zu der jüngsten Erwärmung diese Hitzewelle noch ein klein wenig verschlimmert hat, doch gibt es drei Fakten, welche die Medien regelmäßig ignorieren, wenn über solche „Rekord-Hitze“-Ereignisse berichtet wird. Falls jemand diese Fakten benennt, würden nur sehr wenige Individuen mit der Fähigkeit, selber zu denken, weiter darauf bestehen, dass unsere Treibhausgas-Emissionen einen wesentlichen Einfluss haben.

1. Rekordhohe Temperaturen treten auch ohne globale Erwärmung auf

Der mit zuverlässigen Thermometermessungen abgedeckte Zeitraum ist relativ kurz, selbst in Europa. Infolge der chaotischen Natur des Wetters ist zu erwarten, dass es von Zeit zu Zeit rekordhohe und auch rekordniedrige Temperaturen gibt – selbst ohne einen langfristigen Erwärmungstrend.

Die Frage lautet: nimmt die Anzahl rekordhoher Temperaturen mit der Zeit zu? Zumindest in den USA lautet die Antwort ,nein‘, hat doch die Anzahl der Tage mit Werten über 38°C bzw. 41°C nicht zugenommen (siehe Abbildung 5 in diesem Beitrag). Man müsste die Daten für Europa unter die Lupe nehmen, um diesen Sachverhalt dort zu ergründen.

Aber selbst wenn das der Fall sein sollte, muss man sich auf die Suche nach der Ursache machen. Der größte Teil der Erwärmung seit Ende der Kleinen Eiszeit (um das Jahr 1900) erfolgte, bevor man Treibhausgase dafür verantwortlich machen konnte. Es gibt keine Temperaturmessungen während der Mittelalterlichen Warmzeit vor etwa 1000 Jahren. Wie heiß waren die Sommer der damaligen Zeit? Niemand weiß das. Das Wetter ändert sich eben, und das führt mich zum nächsten Punkt.

2. Sommerliche Hitzewellen sind Wetter, und ungewöhnliche Kälte findet sich gewöhnlich daneben

Die jüngste exzessive Hitzewelle in Europa wurde nicht verursacht durch Sommerluft, die einfach da war und in einem Bad vom Menschen emittierten Kohlendioxids aufgekocht wurde. Verursacht wurde sie vielmehr durch einen Schwall Sahara-Luft (SAL), die aus dieser gigantischen Wüste nordwärts wehte.

Das kommt immer wieder einmal vor. Hier sind die Temperaturabweichungen im 850-hPa-Niveau (ca. 1500 m Höhe):

[*Leider wird nicht angegeben, welcher Normalwert über welchen Zeitraum hier gemeint ist. Anm. d. Übers.]

Die Sahara-Luftmasse wehte aus der Sahara über Westeuropa hinweg nordwärts, während sich gleichzeitig ein Kaltluftkörper über Osteuropa südwärts ausbreitete. Als Beweis dafür, wie groß natürliche Wettervariationen sein können, beachte man einfach die ganze Bandbreite der Abweichungen vom Normalwert nur in diesem kleinen Teil der Welt: Sie machte 25°C aus.

Die globale mittlere Temperatur-Anomalie für Juni (vom Climate Forecast System, CFSv2-Modell der NASA) an der Erdoberfläche betrug lediglich 0,3°C und hatte selbst an einem einzelnen Tag (1. Juli 2019; WeatherBell.com) einen Wert von +0,3°C).

Wird das Missverhältnis dieser beiden Zahlen deutlich? Auf Wetter bezogene Temperatur-Variationen von 25°C relativ zu einer Klima-bezogenen „Erwärmung“ von 0,3°C.

Am Boden stellte sich das Ganze so dar:

Die Bandbreite der Temperaturabweichungen vom Normalen betrug 32°C, was ebenfalls die globale „Klima“-Wärme von 0,3°C um einen Faktor 100 überstieg.

Das heißt, wenn wir von neuen Temperaturrekorden sprechen, sollten wir zunächst die ganz normalen Variationen des Wetters betrachten.

3. Die meisten Thermometer-Messungen sind teilweise vom Städtischen Wärmeinsel-Effekt beeinflusst

Ich bin zutiefst davon überzeugt, dass die globalen Thermometer-Aufzeichnungen übertriebene Erwärmungstrends aufweisen infolge des Wärmeinsel-Effektes UHI. Wird natürliche Vegetation durch Gebäude oder Straßenpflasterung ersetzt und treten zusätzliche Wärmequellen hervor wie Air Condition, Autos und Eiskrem-LKW, ändert sich das Mikroklima um die Messorte.

Viele von uns machen täglich diese Erfahrungen, wenn man aus der ländlicheren Umgebung zur Arbeit in Innenstädte fährt.

Man nehme als Beispiel den Miami International Airport. Dort war kürzlich ein neuer Temperatur-Wärmerekord für den Monat Mai mit 37°C aufgetreten. Das fragliche Thermometer befindet sich am westlichen Ende der südlichen Rollbahn des Flughafens im Zentrum des Metro-Komplex‘ Miami-Ft. Lauderdale. Noch vor 120 Jahren lebte fast niemand in Miami, betrug doch die Bevölkerung dort im Jahre 1896 300 Menschen.

Der UHI-Effekt ist so stark und allgegenwärtig, dass er inzwischen Eingang in das GFS-Wettervorhersage-Modell gefunden hat, und im Falle der jüngsten Hitze in Miami zeigte sich, dass es im Zentrum des Metro-Komplex‘ um Mitternacht über 5°C wärmer war als in der ländlichen Umgebung:

[Einschub des Übersetzers: Im Gebiet von Berlin (West) gab es während der achtziger Jahre {leider ist das genaue Datum nicht mehr erinnerlich} zwischen Innenstadt und Außenbezirken eine maximale Temperaturdifferenz von 14 K! In klaren Nächten, in denen die nächtliche Abkühlung in der Innenstadt viel später und schwächer erfolgte als am Stadtrand, traten während der späten Abendstunden regelmäßig Unterschiede über 10 K auf. Bis zum Eintreten der Tiefsttemperatur hatte sich die Differenz wieder etwas verringert, weil die Taubildung am Stadtrand und die dadurch freigesetzte latente Wärme einer weiteren starken Abkühlung entgegen wirkte.

Ende Einschub]

Weist ein Thermometer-Messpunkt diese Art einer unechten nächtlichen Erwärmung auf, wird man dort auch tagsüber unecht hohe Temperaturen messen (und umgekehrt).

Die sorgfältigste und umfassendste Analyse des UHI-Effektes auf die Temperaturen in den USA wurde von Anthony Watts und seinen Mitautoren durchgeführt. [Bei uns in Deutschland ist dies den gründlichen Arbeiten von Kämpfe und Kowatsch zu verdanken]. Watts et al. analysierten Hunderte von Thermometer-Messpunkten in den gesamten USA und wiesen nach, dass falls nur die am besten positionierten Thermometer berücksichtigt werden (zumeist in ländlichen Gebieten) der Erwärmungstrend in der Regel nur halb so hoch ist. Komischerweise ergab sich außerdem, dass die offiziellen, von der NOAA adjustierten Temperaturdaten (in die sowohl ländliche als auch städtische Messwerte eingehen) sogar eine noch stärkere Erwärmung zeigen als wenn man keine UHI-Adjustierungen vorgenommen hätte. Dies führte viele von uns dazu zu folgern, dass das UHI-Adjustierungs-Verfahren der NOAA ländliche Daten wie städtische Daten aussehen lässt anstatt umgekehrt, wie es der Fall sein sollte.

Wie beeinflusst das alles nun die rekordhohen Temperaturen in Frankreich? Es ist keine Frage, dass es ungewöhnlich heiß war; mir geht es lediglich darum zu ergründen, warum diese Rekorde aufgetreten waren. Ich habe schon in früheren Arbeiten nachgewiesen, dass 1) rekordhohe Temperaturen auch ohne globale Erwärmung auftreten; 2)Variationen des Wetters die primäre Ursache sind (in diesem Falle ein Vorstoß von Sahara-Luft) und jetzt 3) viele Thermometer-Messpunkte Schauplatz einer unechten Erwärmung sind.

Zu diesem dritten Punkt listet MeteoFrance hier die Temperaturrekorde jenes Ereignisses. Dabei stach mir ein Messpunkt ins Auge (Mont Aigua), weil das ein Bergobservatorium mit nur geringer Veränderung ist auf einem gut belüfteten Gipfel. Der bisherige Temperaturrekord aus dem Jahr 1923 wurde um lediglich 0,5°C übertroffen.

Einige der anderen Rekorde auf der Liste jener Website stammen ebenfalls aus dem frühen 20. Jahrhundert, was natürlich die Frage aufwirft, wie es damals so heiß hatte werden können, wenn keine anthropogenen Treibhausgase zugegen waren und auch kaum eine städtische Entwicklung.

Unter dem Strich steht, dass rekordhohe Temperaturen auf natürliche Weise auftreten, mit oder ohne Klimawandel, und unsere Fähigkeit, diese auszumachen, wurde durch eine unechte Erwärmung in den meisten Thermometerdaten kompromittiert, weil dieser unechten Erwärmung nicht angemessen Rechnung getragen worden ist.

Link: https://wattsupwiththat.com/2019/07/02/record-high-temperatures-in-france-3-facts-the-media-dont-tell-you/

Übersetzt von Chris Frey EIKE

Anmerkung: Zum gleichen Thema hat aus hiesiger Sicht auch schon Dipl.-Met. Hans-Dieter Schmidt einen Beitrag geschrieben.




Batteriespeicherung – ein winziger Teil der benötigten elektrischen Energie

Großspeicher sind jedoch nur ein unbedeutender Teil der Elektroenergieindustrie und sind dazu verurteilt, dies auch in den kommenden Jahrzehnten zu tun.

[Auf Eike fanden Sie dazu u.a. den übersetzten Artikel „Energiespeicher sind noch nicht verfügbar, für einen Einsatz im Stromsystemwobei das „noch“unter Mythos abzulegen ist, der Übersetzer]

Im vergangenen Monat hat Senatorin Susan Collins  aus Maine eine Gesetzesvorlage mit dem Titel „The Better Energy Storage Technology Act“ (Gesetz über bessere Energiespeicherungstechnologie) vorgelegt, in der 300 Millionen US-Dollar für die Entwicklung von Batterielösungen für elektrischen Strom vorgesehen sind. Collins erklärte  im Washington Exeminer: „Energiespeicher der nächsten Generation werden dazu beitragen, die Effizienz und Zuverlässigkeit unseres Stromnetzes zu verbessern, die Energiekosten zu senken und die Übernahme erneuerbarer Ressourcen zu fördern.“

[Washington Exeminer
… Collins und die anderen Republikaner, die die Gesetzesvorlage unterstützen, Sens. Cory Gardner aus Colorado und Martha McSally aus Arizona, stehen 2020 vor harten Wiederwahlkämpfen in lila Staaten, wobei Umweltprobleme, als Thema mit dem „Green New Deal“ durch die Demokraten ins Spiel gebracht, eine herausragende Rolle spielen dürften.]

Arizona, Kalifornien, Hawaii, Massachusetts, New Jersey, New York und Oregon verabschiedeten Statuten oder Ziele zur Entwicklung von Speichersystemen für die Netzstromversorgung, wobei sich New York zum ehrgeizigsten Ziel des Landes bekennt. Im Januar kündigte der Gouverneur von New York, Andrew Cuomo, im Rahmen seines Mandats „100 Prozent sauberen Strom bis 2040“ an, bis 2030 Speicher mit einer Leistung von 3.000 Megawatt (MW) bereitzustellen.

Heute haben 29 Staaten Gesetze für die Mengen an zu nutzender „Erneuerbarer Energien“, was bedeutet, weiter steigende Mengen an erneuerbaren Energien zu erwerben. Die Stromerzeugung aus Wind- und Solarsystemen ist jedoch intermittierend [und selten gerade dann erhältlich, wenn gebraucht]. Im Durchschnitt liegt die Windleistung zwischen 25% und 35% der Nennleistung der Windstromanlagen. Die Solarleistung ist sogar noch geringer und macht durchschnittlich etwa 15% bis 20% der Nennleistung aus.

Zum Vergleich bedeutet der erzwungene Einkauf von Strom aus Wind und Sonne, dass eine Familie gezwungen wird, ein zweites Auto zu kaufen, welches aber im Durchschnitt nur in 30% der Zeit fahren kann [und dass noch unplanbar]. Die Familie kann das ursprüngliche Auto nicht durch das neue intermittierende Auto ersetzen, sondern muss dann zwei Autos betreiben.

Befürworter erneuerbarer Energien schlagen jetzt die Speicherung von Elektrizität vor, um das Problem der Zufälligkeit zu lösen und die traditionellen Kohle-, Erdgas- und Kernkraftwerke durch erneuerbare Energien zu ersetzen. Bei hoher Wind- und Solarleistung wird überschüssiger Strom in Batterien gespeichert um in schwachwind und sonnenarmen Zeiten traditionelle Kraftwerke zu ersetzen, welche standardmäßig rund um die Uhr Strom erzeugen können.

In den Schlagzeilen einschlägiger Medien wird das Wachstum von Batterieanlagen für die Netzspeicherung hervorgehoben, die im vergangenen Jahr um 80% und gegenüber 2014 um 400% gestiegen sind. Die Menge an US-amerikanischem Strom, der heutzutage gespeichert wird, ist jedoch zum Ganzen verglichen gering.

US Energy Information Administration, Vergleich Kapazität  Pumpspeicher zu Batteriespeicher

Pumpspeicher, nicht Batterien, speichern in den USA etwa 97% des gespeicherten Stromes. Pumpspeicher verwenden überschüssigen Strom, um Wasser in ein höher gelegenes Reservoir zu pumpen, und wenn es abgelassen wird, treibt es eine Turbine mit Generator an, um wieder Strom zu erzeugen, wenn dieser [kurzfristig] benötigt wird. Aber weniger als ein Watt in 100.000 Watt US-Strom stammt aus Pumpspeichern.

Im Jahr 2018 erzeugten US-Kraftwerke 4,2 Millionen GWh an elektrischen Strom. Die Kapazität der Pumpspeicher belief sich auf 23 GWh. Die Batteriespeicher bieten nur etwa 1 GWh Kapazität. Damit ist ersichtlich, dass nur weniger als ein Millionstel des verbrauchten Stroms in Batterien gespeichert werden kann.

Stromspeicher sind teuer. Pumpspeicher sind mit etwa 2.000 USD pro Kilowatt die kostengünstigste Form des Netzspeichers, erfordern jedoch Landschaften, in denen ein tiefgelegener See mit genügend Wasser-Kapazität und ein dazugehöriges, hochgelegenes Gegenstück gebaut werden kann, bzw. zur Verfügung steht. Dagegen kosten Batteriespeicher etwa 2.500 USD pro Kilowatt für eine Entladungsdauer von zwei Stunden oder mehr. Batterien sind teurer als Windenergie an Land, deren Marktpreis unter 1.000 USD pro Kilowatt liegt. Ein Schlüsselfaktor für die Nützlichkeit des Speichers ist jedoch die Zeitspanne, in der das System den gespeicherten Strom liefern kann.

Im Fall des Staates New York, sind geplant:

In Part 4. Launching the Green New Deal, ab Seite 312

Die Installation von 9.000 MW Offshore – Windkapazität bis 2.035 und 3.000 MW Batteriespeicherung bis 2030 [Es ist unklar, ob damit 3.000 MWh gemeint sind oder „MW = Anschlussleistung“]. Das Windsystem kostet wahrscheinlich über 9 Milliarden USD und das Batteriesystem wird wahrscheinlich etwa 7,5 Milliarden USD kosten. Diese geplante Batteriekapazität ist jedoch völlig unzureichend, um die Unterbrechungen des Windstroms auszugleichen.

Wenn das Windsystem eine durchschnittliche Abgabeleistung von 33% seiner Nennleistung hat, können die geplanten 3.000 MW-Batteriespeicher nur etwa zwei Stunden lang die durchschnittliche Windleistung liefern

[Annahme: dann hätten die geplanten Batteriespeicher eine Kapazität von 6.000 MWh –das  muss aber in Überschusszeiten erstmal wieder geladen werden können.

Die „größte Batterie der Welt“ von Elon Musk in Südaustralien kann gerade mal 30MW anbieten (s. Nachsatz unten) und hat eine Kapazität von etwa 100 MWh, der Übersetzer]

Um die Leistung für einen ganzen Tag zu ersetzen, an dem der Wind nicht weht, wären 36.000 MW Speicher erforderlich, und zwar zu einem Preis von 90 Milliarden US-Dollar, was etwa dem Zehnfachen des Windsystems selbst entspricht. Da an den meisten Standorten mehrere Tage Windstille üblich sind, reicht selbst ein Tag Batteriesicherung nicht aus.

Darüber hinaus ist die Lebensdauer von Batterien im Netzabsicherungs-Maßstab von 10-15 Jahren nicht lang zu nennen. Wind- und Solaranlagen sind für eine Lebensdauer von 20-25 Jahren ausgelegt. Traditionelle Kohle-, Erdgas- und Nuklearsysteme haben eine Lebensdauer von 35 Jahren und mehr.

Die Speicherung von Elektrizität war bislang von jedem verarbeitenden Gewerbe als unklug angesehen. Jahrzehntelang setzten große Unternehmen auf Just-in-Time-Produktion, „Losgröße eins“, Kanban, Lean Manufacturing und andere Mitarbeiterprogramme, die darauf abzielen, den Bestand an Fertigwaren zu reduzieren, um die Kosten zu senken.

Strom muss bei Bedarf sofort erzeugt und geliefert werden, das ultimative Null-Fertigwaren-Inventar-Produkt. Aber viele Organisationen fordern jetzt Stromspeicher, um die Unterbrechungsschwäche der erneuerbaren Energien zu beheben.

Heute beträgt die Speicherkapazität der Batterien am Netz weniger als ein Millionstel der nationalen Stromproduktion. Batteriespeicherung erhöht die Kosten des Partnersystems für erneuerbare Energien um einen Faktor von mindestens zehn. Es wird Jahrzehnte dauern, bis die Batteriespeicherung in großen Stromversorgungssystemen eine bedeutende Rolle spielt, wenn überhaupt  [genügend Rohstoffe und Geld zur Herstellung vorhanden sind].

Veröffentlicht auf Wattsupwiththat vom 29.06.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/06/29/battery-storage-an-infinitesimally-small-part-of-electrical-power/

Ursprünglich in Energy Central veröffentlicht . Auf Wunsch des Autors hier neu veröffentlich

 

Nachschub vom Übersetzer:

Dieser Artikel ist offenbar durch die Pläne der Politiker in USA beeinflusst, und kann unseren Lesern einen anderen Blickwinkel auf die Problematik der volatilen Erneuerbaren und die Stromspeicher geben. Gleichwohl, sind die Eigenschaften der angesprochenen Stromgeneratoren und Stromspeicher unklar beschrieben. Kommt sicherlich auch durch die Agenda 2019 von Gouverneur Andrew M. Cuomo., Part 4. Launching the Green New Deal, ab Seite 312

***

Eigenschaften

Ein Kraftwerk wird mit MW spezifiziert, thermische Kraftwerke (Kohle, Gas Nuklear) können z.B. eine Leistung von 1.300 MW haben, Windkraft inzwischen meist um 3.000 kWatt (= 3 MW), die Haliade-X 12 des US-amerikanischen Herstellers General Electric soll 12MW haben.

Diese Leistung kann das Kraftwerk maximal zur Verfügung stellen, anders ausgedrückt, Verbraucher mit diesem Bedarf können daran angeschlossen werden. Das ist aber erstmal nichts anderes, als z.B. von einem PKW Motor zu sagen: der hat 100PS (74 KW) – solange der Motor steht, wird auch keine Energie erzeugt (aus dem Brennstoff in Bewegung / Strom umgewandelt). Wie lange und ob überhaupt  (Windstärke -> Windstrom) Strom geliefert werden kann, ist eine ganz andere Frage.

Was gebraucht wird, ist die tatsächlich gelieferte Energie, in der Elektrotechnik im Privathaushalt mit kWh abgerechnet, größere Verbrauchsmengen werden in MWH oder GWh gemessen.

Ein konventionelles Kraftwerk kann beispielsweise aufs Jahr gesehen, den Strom an durchschnittlich mehr als 90% aller Stunden mit seiner Nennleistung liefern. (Stillstands Zeiten für Störung und Wartung eingerechnet), also 8760 h x 0,9 x 1.300 MW = 10.249.200 MWh  = ~ 10.249 GWh – und dieses kontinuierlich, planbar

Windkraftanlagen, 3 MW Nennleistung, liefern aufs Jahr durchschnittlich z.B. 40%  ihrer Kapazität, 8760h x 0,4 x 3 MW = 10.512 MWh, das ist im Durchschnitt aufs Jahr. Das kann – wie der Wind weht – auch mal mehr oder weniger sein, aber nicht planbar wie lange und wann,

Batterien werden mit drei Kennwerten beschrieben, mit der Anschluss Spannung (in Volt), der Kapazität (in Ah) und dem maximalen Entladestrom (in Ampere) (zum Laden auch den maximalen Ladestrom).

Weil das viele unserer Leser sicherlich schon mal gesehen haben, zur Erläuterung als Beispiel eine typische, gute Autobatterie: 12 V, 44 Ah, 440 A

Die Anschlussspannung ist 12 Volt,
ein Strom von 44 Ampere kann eine Stunde lang geliefert werden , dann ist sie leer (das sind 12 V x 44A x 1h = 0,528 KWh

( – wobei die Zellenspannung nicht auf 12 V bis zur vollständigen Entladung bleibt, damit sinkt der Strom, d.h. real weniger nutzbare Kapazität, In der Praxis der Autobatterien wird ein Entladestrom über 5 Stunden gemessen und dann auf Stundenwert umgerechnet)

Der maximale Strom, der zum Starten für 30sec gezogen werden kann, sind 440A, realerweise  dann nicht mit 12V. Nehmen wir mal 10V an: 10 V x 440 A= 4.400 Wh = 4,4 kW Startleistung, mit obigen Kapazitätswerten, hält die Batterie das dann theoretisch rd. 9 min durch, bis sie leer ist.

Daher ist die im Artikel angegebene Leistung von 3.000 MW für das große Netzspeicher-Batteriesystem wahrscheinlich die von Politikern phantasierte Kurzzeitleistung – noch ist so ein Batteriespeicher nicht gebaut worden.




Strom ist nicht gleich Strom – Wieder Engpässe beim Strom in Deutschland

So viel Sonne – und dann Stromengpässe? Wie kann das denn sein? Die chaotischen Zustände kommen bekanntlich nicht erst seit diesem Monat vor, sondern schon seit langem. Wir haben die katastrophalen Folgen der Energiewende hier oft genug beschrieben. Z.B.:

Der Spiegel-Mann schreibt vermutlich von der FAZ ab: »Gerät das System aus der Balance, schwankt auch die sogenannte Stromfrequenz – was ganze Fabriken aus dem Takt bringen kann.«

Sogar ganze Fabriken. Das muss ja schlimm sein. Was, erführe der wackere Spiegel-Mann, dass die Netzfrequenz, nicht die »sogenannte Stromfrequenz«, die entscheidende Regelgröße ist, nach der Stromproduktion dem Verbrauch angepasst wird. Strom ist nämlich ein ganz besonderer Saft. Er kann nicht in größeren Mengen gespeichert werden. Es kommt immer darauf an, wann er gebraucht wird. „Strom ist also nicht gleich Strom“, wie auch der Titel eines lesenswerten Buches lautet.

Es kommt darauf an, wann er gebraucht wird und nicht, wann er zufällig anfällt. Ein Industrieland benötigt die Energie „Strom“, es kann seine Produktion nicht danach ausrichten, wenn zufällig die Sonne so schön scheint und ein paar Stunden tagsüber sehr viel Strom aus den Photovoltaikanlagen kommt. Nachmittags und spätestens abends ist Schluss mit lustig, Strom gibts nicht mehr, weil die Sonne untergegangen ist. Das Gleiche gilt für die Windräder, die auch nur dann Strom liefern, wenn der zufällig weht.

Woher kommt dann der Strom? In den Mengen, in denen er gebraucht wird, kann er nicht gespeichert werden. Wenn die letzten Kohlekraftwerke abgeschaltet sein werden, wird’s dunkel in Deutschland. Nur mit den großen Schwungmassen der Generatoren können die kurzzeitigen Schwankungen im Netz schnell ausgeglichen werden. Die werden sich nicht mehr drehen.

Denn noch steht in Deutschland hinter jedem Windrad, hinter jeder Photovoltaikanlage die Leistung eines konventionellen Kraftwerkes. Das lässt sich nicht eben mal anschalten, das dauert. Es läuft daher tagsüber gewissermaßen im Leerlauf, kostet entsprechend, muss dann liefern, wenn’s dunkel wird und von den Solaranlagen nichts mehr kommt.

Verbrauch und Produktion müssen in einem sehr exakten Gleichgewicht stehen. Die Netzfrequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz auch nur geringfügig unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten, also etwa mal eine Stadt.

Gerät das Verhältnis zwischen Stromproduktion und Verbrauch aus dem Takt, droht nicht nur der Ausfall einer Fabrik, sondern ein weitreichender Stromausfall, ein Blackout, der schnell ganz Europa erfassen kann. Das Beispiel Südamerika, das jüngst einen Stromausfall erlebte, der 48 Millionen Menschen im Dunkeln ließ, sollte für uns ein Warnschuss sein. Besonders bemerkenswert an diesem Ereignis ist, dass seine Ursachen immer noch nicht geklärt sind. Eine stabile Stromversorgung für ein Industrieland aufrecht zu erhalten, ist hoch komplex, insbesondere dann, wenn zwangsweise immer mehr wetterabhängiger Zufallsstrom eingespeist wird. Denn der ist pures Gift für die Netzstabilität.

Wenn wie derzeit tagsüber zu viel Sonnenstrom da ist, wissen die Netzbetreiber oft nicht, wohin damit. Denn auch in den Nachbarländern wartet man nicht auf den Strom, der zufällig mal aus Deutschland kommt. Erst eine kräftige Mitgift in Höhe von einigen Millionen Euro bewegt die Netzbetreiber, die eigene Produktion herunterzufahren und Strom aus Deutschland abzunehmen. Das nennen nur sehr Wohlmeinende Stromexportland.

Sehr nett finden es mitunter eidgenössische Netzbetreiber, Zufallsstrom aus Deutschland abzunehmen und damit Wasser in hochgelegene Speicher in den Alpen zu pumpen. Dafür bekommen sie oft genug viele Euros; die bekommen sie dann auch wieder, wenn sie diese Energie wieder an Deutschland zurückgeben, wenn dort Dunkelflaute herrscht. Der Gelackmeierte ist der Stromkunde, der den Spaß mit den höchsten Strompreisen Europas bezahlt.

Noch nicht erwähnt haben wir bisher die erheblichen Energieverluste, die bei diesen Stromtransporten quer durch Europa entstehen, und die ebenfalls der Stromkunde bezahlt. Denn Energie in Form elektrischer Energie über weite Strecken zu transportieren, ist die ungünstigste Form des Energietransportes. Effektiver geht es in Form der Kohlenwasserstoffe wie Kohle, Öl oder Gas.

Also: Strom ist nicht gleich Strom, es kommt immer darauf an, wann er gebraucht wird. Die Energiewende zerstört diese Regeln gründlich.

Der einzige vernünftige Vorschlag in der unseligen Energiewendendiskussion, den ich kenne, war der, dass Windkraft- und Photovoltaikstromlieferanten dann ihren Strom liefern müssten, wenn er auch benötigt wird. So, wie das der Bäcker machen muss, wenn er seine Brötchen ausliefert – in der Menge und zu dem Zeitpunkt, wenn seine Kunden sie benötigen. So müssen es die Wasserwerke machen, die schlecht sagen können: Jetzt haben wir gerade Wasser, wascht euch!

Das wäre Markt: Das Angebot richtet sich nach der Nachfrage, der Preis wird entsprechend geregelt. Und nicht umgekehrt wie derzeit auf dem Energiesektor, wo Stromproduzenten munter fordern: Wir liefern jetzt Strom, weil wir ihn gerade haben, weil Sonne und Wind liefern, also zahlt uns unseren horrenden Preis, gleichgültig, ob ihr den Strom benötigt oder nicht. In einem solchen System von „Marktteilnehmern“ zu sprechen, wie es der Spiegel tut, ist schräg.

Eine regelmäßige, gesicherte Energieversorgung ist die Voraussetzung für ein Industrieland. Das zerstört man am besten, indem dessen Energieversorgung zerstört wird, wie es die Energiewende gerade macht.

Die Schuld an einem Blackout muss man dann natürlich Spekulanten in die Schuhe schieben. Kennt man von Honecker & Co, die für schlechte Ernten den Klassenfeind verantwortlich machten, aber niemals die eigene Unfähigkeit. Von daher klingt dieses »Framing« bekannt – und bedrohlich.

Der Beitrag erschien zuerst bei TICHYS Einblick hier