Sind die behaup­teten globalen Rekord-Tempera­turen haltbar?

Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen:

Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“.

Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik:

Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben.

Genauigkeit

Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben.

Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird:

http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf

Im Abschnitt 4.1.3 im o. g. Link liest man:

4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C…

Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C.

In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die Original-Instrumente kaum noch für eine Kalibrierung verfügbar.

Präzision

Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik.

Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen.

Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier).

Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05.

Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden.

Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“

Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen.

Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen.

Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2:

Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“.

Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten Temperatur-Bandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert!

Konsequenzen

Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind!

Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird.

Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem Temperatur-Zeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchst- und Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen.

Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt.

[*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.]

Summary

Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen.

References

Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41

Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181

Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6

Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures-valid/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F.




Beeinflussungs­grad der deutschen Jahresmittel­temperatur durch städtische Wärme­inseln erstmals flächen­deckend quanti­fiziert

Dazu müssen wir zunächst klären, ob die offiziellen DWD-Kurven bereits hinsichtlich des UHI korrigiert sind. Vor gut zwei Jahren fragten wir diesbezüglich beim DWD konkret nach und erhielten eine klare Antwort:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine UHI-Korrektur hat also seitens des DWD noch nicht stattgefunden. Es stellt sich also die Frage, ob es überhaupt irgendetwas zu korrigieren gibt. Existieren im Netz des DWD  Stationen, die in UHI-relevanten Bereichen liegen? Oder sind alle Stationen so sorgfältig platziert, dass sie abseits der städtischen Wärmebeeinflussung liegen? Auch diese Frage beantwortete uns der DWD damals bereitwillig:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Der DWD erklärte also, dass die allermeisten Stationen in ländlichen und UHI-unbedenklichen Gegenden liegen würden. Zudem gäbe es keinen Unterschied in der Erwärmungsrate zwischen Stadt und Land. An dieser Stelle der Diskussion ließen wir es Anfang 2015 bewenden. Hier fehlten ganz klar Daten und ein konkreter Ansatz, um die Frage wissenschaftlich zufriedenstellend zu klären. Am 15. April 2017 kam dann plötzlich Bewegung in die Thematik. Im Fachblatt “Science of The Total Environment” erschien an jenem Tag eine Studie von Susanne Benz, Peter Bayer und Philipp Blum vom Karlsruher Institut für Technologie (KIT) und der Technischen Hochschule Ingolstadt. Eine thematische Punktlandung: Wieviel städtischer Wärmeinseleffekt steckt eigentlich in den offiziellen Deutschland-Temperaturen des Deutschen Wetterdienstes? Die Forschergruppe fahndete nach Wärmeinseleffekten in der Luft, am Boden und im Untergrund. Eine wichtige Studie, leider ohne Pressemitteilung des KIT. In den Highlights der Publikation heißt es:

  • Anthropogenic temperature anomalies are quantified in Germany.
  • Temperatures in air, surface and groundwater correlate with nighttime lights.
  • Groundwater temperature anomalies are most extreme.
  • Heat anomalies in air and groundwater are mainly caused by artificial surfaces.
  • Surface urban heat islands are observed in settlements with only 5000 inhabitants.

Kurz übersetzt: Anthropogene Anomalien in Deutschland quantifiziert. Die Temperaturen in der Luft, am Boden und im Grundwasser korrelieren mit dem Grad der nächtlichen Beleuchtung. Besonders starke Anomalien wurden im Grundwasser gefunden. Anomalien in der Luft und im Grundwasser werden vorwiegend durch künstliche Oberflächen (wie z.B. Asphaltflächen) verursacht. Städtische Wärmeinseleffekte wurden sogar in kleinen Orten mit bis zu 5000 Einwohnern gefunden.

Höchst spannend. Das wollten wir genauer wissen. Die Kalte-Sonne-Redaktion besorgte sich also die Publikation und studierte sie, in ganzer Länge. Eine wirklich gut lesbare Abhandlung, wenn man denn mit der englischen Wissenschaftssprache zurechtkommt. Der Aufbau der Arbeit ist gut strukturiert, Quellen werden klar genannt, die Argumentation ist logisch überzeugend. Chapeau!

Insgesamt wertete die Gruppe 464 vom DWD gelistete Stationen aus, die Deutschland flächig abdecken und deren Daten hier vorgehalten werden (siehe auch Karte in Abb. 1a der Publikation). In der Arbeit werden die Landstationen  “Surface air temperature” (SAT) genannt, da sie die Temperatur 2 m über Grund messen. Außerdem werteten die Autoren Satellitentemperaturdaten der NASA für Deutschland aus, die im Paper als “Land surface temperature” (LST) bezeichnet werden. Die Daten entsprechen den level-5 MODIS daily products MOD11A1 and MYD11A1 der NASA-Satelliten TERRA und AQUA und wurden in einer Auflösung von 1 x 1 km bearbeitet. Auch diese Daten sind im Internet offenbar frei verfübar (hier). Susanne Benz und ihr Team fanden dabei, dass die DWD-Daten (SAT) im Mittel 0,26°C kälter als die NASA-Satellitendaten (LST) sind. Was zwei Meter Höhe doch so ausmachen… Außerdem untersuchten die Autoren Grundwassertemperaturen in Baden Württemberg. Auch spannend, soll aber heute nicht unser Thema sein, daher lassen wir diesen Aspekt im Folgenden aus.

Die Gruppe besorgte sich aus den genannten Quellen die jeweiligen Jahresdurchschnittstemperaturen für das Jahr 2015. Besonders warm war es entlang des gesamten Rheinverlaufs sowie entlang des Mains. Nun ging es an das Kernproblem: Welche DWD-Stationen und Gebiete wurden vom UHI beeinflusst und welche blieben weitgehend ungestört? Wie lässt sich der Grad der Beeinflussung quantifizieren? Susanne Benz und ihr Team haben hier einen riesigen Schrit nach vorne gemacht. Sie testen eine Reihe von möglichen Datensätzen, die als Näherung für den Grad der UHI-Beenflussung genutzt werden könnten. Zunächst probierten sie die Bevölkerungsdichte, aufgelöst in 1 x 1 km. Das Ergebnis war ernüchternd: Keine gute Übereinstimmung mit den Satellitendaten (LST), keine Korrelation. Nächster Versuch mit einer Datenbank zur Oberflächenbeschaffenheit Deutschlands, auf english “landcover”. Wieder nichts, keine Korrelation mit den flächendeckenden Satellitendaten.

Schließlich dann noch ein letzter Versuch mit einem vielleicht überraschenden Datensatz, einer Karte der nächtlichen Lichtintensität Deutschlands (englisch: “Nighttime lights”). Die Idee ist gar nicht so abwegig: Wo viel Licht ist, herrscht viel menschliche Aktivität. Diesmal traf der Pfeil ins Schwarze. Der statistische Pearson Korrelationskoeffizient von Satellitentemperaturen und Nachtlicht ergab beachtliche 0.55. Stärkere Nighttime Lights scheinen die Temperatur also zu erhöhen. Wiederum scheinen die Daten für begabte Datentüftler von der NOAA-Webseite frei herunterladbar zu sein. Konkret handelt es sich um (Auszug aus dem Paper):

Nighttime lights were compiled from Version 4 of the DMSP-OLS Nighttime Lights Time Series, Image and Data processing by NOAA’s National Geophysical Data Center, and DMSP data collection by the US Air Force Weather Agency. Data were only available up to January 2014, hence 10-year mean (01/2004–12/2013) nighttime lights were chosen. The results were again exported at a resolution of approximately 1 km× 1 km(Fig. 2a) using Google Earth Engine, 2015.

Die Einheit des Nighttime Light Spektrums reicht von 0 (dunkel) bis 63 (sehr hell) und wird in der Einheit DN gemessen (Abb. 1). Die Autoren ermittelten nun einen geeigneten Schwellwert um “klimatisch” ländliche Gebiete von “klimatisch” städtischen Zonen zu unterscheiden. Sie kamen dabei auf den Wert 15. Gegenden mit einem DN-Wert von 0-15 sind als ländlich einzustufen, Gegenden mit Werten oberhalb von 15 als städtisch. Der Blick auf die Karte in Abb. 1 zeigt schön die hellen Stellen: Hamburg, Berlin, München, Ruhrgebiet, Frankfurt/Main sowie der Südwesten.

Abb. 1: Nächtliche Lichtintensität in Deutschland als Maß für den Grad der Beinflussung durch den städtischen Wärmeinseleffekt. Quelle: Abb. 2a aus Benz et al. 2017.

Basierend auf diesem einfachen und vielleicht sogar genialen Konzept können nun endlich verlässlich Land und Stadt klimatisch unterschieden werden. Daher weiter mit dem nächsten Schritt. Die Gruppe wollte für die einzelnen Wetterstationen und 1 x 1-Satellitenkacheln die Wärmeinsel-Intensität separat berechnen. Dazu schufen sie einen Parameter, die sogenannte “Anthropogenic Heat Intensity” (AHI), die im weitesten Sinne mit dem Grad der UHI-Beinflussung verwandt ist. Die Bestimmung der AHI ist denkbar einfach: Gemessene Temperatur an der Station bzw. der Satellitenkachel minus Temperatur des ländlichen Umlandes. An dieser Stelle ist es früher regelmäßig schiefgelaufen, denn das ländliche Umland ist gar nicht immer so ländlich wie man dachte. Erinnern Sie sich an die Highlights des Papers (siehe oben), in denen Wärmeinseln sogar in Orten mit lediglich 5000 Einwohnern gefunden wurden. Durch die neue Definition über das Nachtlicht gibt es nun eine verlässlichere Definition.

In der Praxis machten es die Autoren so: AHI-Berechnungen wurden nur für jene Wetterstationen durchgeführt, die im Umkreis von 47 km mindestens 5 ländliche Stationen mit Nachtlicht von 0-15 DN hatten. Aus diesen ländlichen Stationen wurde dann der Mittelwert gebildet. Die Temperatur der zu bestimmenden Station minus ländlicher Mittelwert ergibt dann den jeweiligen “Anthropogenic Heat Intensity”. In Fällen von weniger als 5 ländlichen Stationen wurde kein AHI berechnet, wodurch sich einige Löcher in der AHI-Karte in Abbildung 4a des Papers erklären (Abb. 2a). Insbesondere in den Ballungszentren war es schwierig, genug ländlichen Klimahintergrund zu bekommen. Hier blieb die Karte einfach weiß. Das Verfahren funktioniert analog für die Satellitentemperaturen, wobei mindestens ländliche 50 Satellitenkacheln im 47 km-Umkreis gebraucht wurden, um den AHI berechnen zu können. Das scheint kein großes Problem gewesen zu sein, denn die Satelliten-AHI-Karte macht einen ziemlich vollständigen Eindruck, vielleicht mit Ausnahme einiger Abschnite in den Küstenzonen (Abb. 2b).

Abb. 2: Anthropogenic Heat Intensity (AHI) in Deutschland. a) Wetterstationen (“Air”), b) Satellitenmessungen (“Surface”), c) Grundwasser. Quelle: Abb. 4 aus Benz et al. 2017.

Vertiefen wir uns in die AHI-Ergebniskarten in Abbildung 2. Bei den Wetterstationen gibt es drei große AHI-Klopper mit AHI-Werten über 1,1°C: bei München, bei Berlin und im Ruhrgebiet. Dies sind die orangen Punkte in der Karte. Diese Stationen scheinen regelrecht UHI-verseucht zu sein. Wenn man sich die Satellitenkarte in Abb. 2b anschaut, fallen die großen roten Flecken ins Auge, die ebenfalls UHI-bedenkliche Regionen markieren. Hier liegt eine Vielzahl von Stationen, deren Werte zur Berechnung der deutschlandweiten Jahresmitteltemperatur ganz offensichtlich ungeeignet sind. Stationen und Gegenden mit negativen AHI-Werte bzw. blauen Farben scheinen UHI-technisch in Ordnung zu sein. Schon bei den gelben AHI-Werten könnte es Probleme geben. Ein guter Grenzwert könnte z.B. eine AHI von 0,5°C sein, oberhalb dessen UHI-Korekturen durchgeführt werden müssten.

Projektanleitung: Bestimmung der wärmeinselarmen deutschen Jahresmitteltemperatur 

Kommen wir nun zum Knackpunkt der ganzen Sache. Nachdem wir nun also recht genau wissen, welche Gegenden besonders stark vom UHI beeinflusst werden, können wir die hier gelegenen Stationen entsprechend aussortieren. Ziel sollte es sein, bei der Berechnung der Jahresmitteltemperatur nur jene Stationen zu berücksichtigen, die eine AHI von unter 0 besitzen. Auf diese Weise erhielte man eine ziemlich UHI-arme Temperaturkurve, die derzeit noch fehlt. Man darf hochgespannt sein, ob die momentan in den deutschlandweiten DWD-Temperaturkurven enthaltene Erwärmungsrate auch in der UHI-armen Variante in gleicher Höhe enthalten ist.

Vorgeschlagene Vorgehensweise:

1) Zur Bearbeitung der Daten wird eine GIS-Software (Geographisches Informationssystem) benötigt, z.B. ArcGIS, ArcView oder Ähnliches. Vielleicht geht es auch über Google Maps oder Google Earth.

2) Herunterladen der Nighttime Light-Daten von der NOAA-Seiten (siehe oben) und Import in die GIS-Software.

3) Import einer hochauflösenden Version der Satelliten-AHI-Karte aus Abbildung 2b (Abb. 4 aus Benz et al. 2017). Vielleicht können die Autoren sie zur Verfügung stellen?

4) Import aller DWD-Stationen als Punkte ins GIS. Die geographische Breite und Länge der aktuell vom DWD gelisteten Stationen finden Sie hier. Im Datensupplement des Papers gibt es zudem eine Exceldatei mit Koordinaten für die ausgwerteten AHI-Stationen.

5) Überlagern der DWD-Stationen mit der Nighttime Light-Karte: Alle Stationen die in Gebieten mit DN über 15 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst.

6) Überlagern der DWD-Stationen mit der AHI-Satellitenkarte: Alle Stationen die in Gebieten mit AHI über 0 liegen, werden aussortiert. Sie bleiben bei der UHI-armen Deutschlandtemperaturberechnung unberücksichtigt da zu sehr UHI-beeinflusst. Man könnte zum Test auch eine Variante mit AHI über 0,5 ausprobieren.

7) Aus allen übriggebliebenen, UHI-armen Stationen kann nun eine Temperaturkurve gemäß DWD-Richtlinien berechnet werden. Hier müsste man sich informieren, wie topographische Höhenunterschiede und andere Effekte behandelt werden.

Gibt es fachkundige Interessierte, die hier aktiv werden wollen? Mit ein bisschen Daten-Talent sollte sich dies doch relativ leicht bewerkstelligen lassen. Interessierte können sich bei der Kalte-Sonne-Redaktion melden. Wir koordinieren die Crowd-Science-Initiative gerne, so dass Duplikationen im Sinne einer besseren Effektivität vermieden werden können. Wir wollen den Autoren der vorgestellten Studie keine Konkurrenz machen, falls diese sich des Themas annehmen wollen, das ist klar. Anbei noch der vollständige Abstract der Studie:

Erkennung anthropogen verursachter Anomalien der Temperatur in der Luft, am Boden und im Grundwasser in Deutschland

Menschliche Aktivitäten beeinflussen direkt die umgebenden Luft-, Oberflächen- und Grundwasser-Temperaturen. Das bekannteste Phänomen dieser Art ist der städtische Wärmeinsel-Effekt, welcher vor allem in großen und dicht besiedelten Städten untersucht worden ist. Diese Studie erkundet den anthropogenen Einfluss auf das thermische Regime nicht nur in ausgesuchten Stadtgebieten, sondern im landschaftsweiten Maßstab für Datensätze mittlerer jährlicher Temperaturen in Deutschland in drei verschiedenen Bereichen: gemessene Lufttemperatur, gemessene Temperatur des Grundwassers und aus Satellitenbeobachtungen abgeleitete Temperatur der Landoberfläche. Zieht man nächtliche Beleuchtung als Indikator ländlicher Gebiete heran, kommt die anthropogene Wärmeintensität ins Spiel. Diese ist auf jeden Datensatz anwendbar und zeigt die Differenz zwischen gemessenen lokalen Temperaturen und der mittleren ländlichen Hintergrundtemperatur. Dieses Konzept ist analog der etablierten städtischen Wärmeinsel-Intensität und anwendbar auf jeden Messpunkt oder Pixel innerhalb eines großen, sogar globalen Untersuchungsgebietes.

Für alle drei untersuchten Datensätze gilt: die anthropogene Wärmeintensität nimmt mit zunehmender nächtlicher Beleuchtung zu, sie nimmt ab bei zunehmender Vegetation. Die Bevölkerungsdichte hat dagegen nur geringe Auswirkungen. Die oberflächennahe anthropogene Wärmeintensität kann im untersuchten Gebiet (1 km X 1 km) nicht mit bestimmten Landschaftsformen und Klassifizierungsystemen in Verbindung gebracht werden. Aber sowohl Luft als auch Grundwasser zeigen gesteigerte Wärmeintensitäten bei künstlichen Oberflächen. Alles in allem scheint die Temperatur des Grundwassers am stärksten auf menschliche Aktivitäten zu reagieren, obwohl die unterschiedlichen Bereiche teilweise durch nicht in Relation stehende Prozesse beeinflusst werden. Anders als die Temperaturen an der Landoberfläche und der bodennahen Luftschichten ist die Grundwasser-Temperatur in kultivierten Gebieten ebenfalls erhöht. Die höchste anthropogene Wärmeintensität in Deutschland findet sich mit 4,5 K an einem Braunkohle-Tagebau bei Jülich, gefolgt von drei großen Städten (München, Düsseldorf und Nürnberg) mit jährlichen mittleren anthropogenen Wärmeintensitäten >4 K. Alles in allem lassen sich anthropogene Wärmeintensitäten > 0 K und damit städtische Wärmeinseln in Gemeinden bis hinab zu einer Bevölkerungsdichte finden.

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen. Übersetzung des Abstract am Ende Chris Frey EIKE




Klima und CO2: Ich hätte da mal ein paar Fragen…

Nun ist es eine Binsenweisheit, wenn man nicht weiter weiß: wo steht etwas dazu geschrieben, und wen kann man fragen. Geschrieben steht viel, allerdings auf Deutsch außer auf diesem und sehr wenigen anderen Blogs nichts, was einem weiterhilft, im Gegenteil. Darum übersetze ich ja so gerne Texte für das EIKE, denn in der angelsächsischen Blogosphäre steht viel.

Aber leider häufig so fachlich, dass es nicht kurz und schon gar nicht griffig darzustellen ist, Also stelle ich jetzt mal ein paar Fragen:

1. Das Leben auf unserem Planeten beruht auf drei grundlegenden Säulen. Wenn nur eine dieser Säulen wegbricht, wird das Leben auf der Erde sehr schnell verschwinden/vernichtet/aussterben. Sauerstoff gehört nicht dazu, denn bei der Entstehung des Lebens gab es den noch gar nicht.

Die drei Säulen sind: a) Sonnenlicht, b) Wasser und c) Kohlenstoff. Die Säulen Sonnenlicht und Wasser sind sicher über alle Diskussionen erhaben. Anders sieht es mit Kohlenstoff aus, wie man weiß.

Darum lautet meine erste Frage:

Kohlenstoff ist eine der tragenden Säulen des Lebens auf der Erde insgesamt. Er steht dem Leben aber nur in der Luft in gebundener Form als CO2 zur Verfügung. Warum wird dieser Urstoff des Lebens als Giftstoff bezeichnet? Und noch schlimmer: Warum wird dies schon unseren Kindern in der Grundschule eingetrichtert?

2. Das bringt uns natürlich gleich zum Thema Klima, oder genauer Klimawandel. In Politik und Medien taucht sehr oft der Baustein „…in Zeiten des Klimawandels…“ auf. Darum lautet meine zweite Frage:

Seit wann haben wir denn „Zeiten des Klimawandels“? Etwa erst, seitdem der CO2-Gehalt der Atmosphäre nach einem lebensbedrohenden Minimum wieder etwas gestiegen ist? In der Schule haben wir doch alle gelernt, dass der Klimawandel so alt ist wie die Erde selbst.

3. Die Dämonisierung des Kohlenstoffes im Boden erreicht ja immer neue Höhepunkte. „Lasst es im Boden“ ist ein gängiges Schlagwort. Aber da erhebt sich für mich die dritte Frage:

Wie ist dieser Kohlenstoff (in welcher Form auch immer; Kohle, Öl, Gas…) überhaupt in den Boden gekommen? Bei der Entstehung der Erde war er doch in dieser Form noch nicht vorhanden.

Wo war er denn vorher?

4. Ich hätte gedacht, er war zu Beginn des Lebens in gebundener Form als CO2 in der Luft. Daraus folgt, dass der CO2-Gehalt zu Beginn der Entwicklung des Lebens viel höher gewesen sein muss.

Damit hängt meine vierte Frage zusammen:

Warum ist die Erde damals eigentlich nicht übergekocht, sondern hat den Grundstein für die Entwicklung des Lebens gelegt? Und warum soll sie heute bei einem viel geringeren CO2-Gehalt der Luft überkochen?

5. Vor dem Hintergrund der jüngsten Kältewelle in diesem April 2017 ergibt sich dabei eine fünfte Frage:

Es gab verbreitet handfesten Nachtfrost. Obstbauer und Gärtner mussten zu teuren Schutzmaßnahmen greifen, um ihre bereits begonnene Blüte dagegen zu sichern. Aber die Alarmisten aller Couleur verteufeln die Wärme als ultimative Katastrophe. Wo war denn deren Jubelgeschrei darüber, dass es nun endlich mal wieder kalt war?

Dabei möchte ich es erst mal belassen. Wie gesagt, Antworten auf diese Fragen habe ich nicht und erwarte ich nicht. Was ich erwarte, ist wieder sehr viel Wortgeklüngel. Aber anstatt von Antworten wäre das oder auch keine Antwort doch auch schon eine Antwort – oder?

Chris Frey, EIKE-Übersetzer




ENDLAGERUNG ? NEIN, DANKE!

Eine wichtige Rolle bei der Diskussion um Für und Wider Kernenergie spielt die Beantwortung der Frage, wie der nach einer Stilllegung von Kernenergieanlagen oder aber auch nach einem Kernschmelzunfall anfallende radioaktive Atommüll sicher entsorgt werden kann. In Deutschland (und u. a. auch Österreich) wird dabei die Bevölkerung durch Horrormeldungen in Angst und Schrecken versetzt, dass dies nur durch den Bau von Atommüll-Endlagern, die auf hunderte, ja bis auf eine Million von Jahren ausgelegt sein müssen, gewährleistet werden kann. Dies alles im Zusammenhang mit der Andeutung, dass dabei eventuell weite Landstriche über Jahrzehnte hinweg mit ’hochradioaktiven Spaltprodukten verstrahlt’ werden könnten (Ohne Ross und Reiter zu nennen, was man eigentlich unter ’hochradioaktiv’ zu verstehen hat). Es soll hier bewiesen werden, dass basierend auf rein logischen Überlegungen aber auch aus Erfahrungen im Umgang mit den drei einzigen Kernschmelzunfällen in der über 60-jährigen erfolgreichen Geschichte der friedlichen Anwendung der Atomenergie, solche Scenarios strahlenphysikalisch überhaupt nicht denkbar sind. Und daher eher im Reich der Fabeln angesiedelt werden müssen. Folgerungen aus diesen Überlegungen deuten darauf hin, dass Vorsorge eher über Jahre (wenn überhaupt) zu planen ist. Und dass für kostspielige Endlager über Jahrzehnte und mehr somit überhaupt keine Notwendigkeit besteht.

Als Folge einer Kernspaltung entsteht ein ganzes Bündel von Spaltprodukten (Isotopen), von denen ein Grossteil äußerst instabil ist und erst im Rahmen des Nachzerfalls ihren endgültigen stabilen Zustand erreicht. Einige davon benötigen dazu entsprechend ihrer Halbwertzeit bis zu Millionen von Jahren. Viele Politiker, Journalisten, kirchliche Würdenträger und damit auch ein Grossteil der Bevölkerung glauben nun fälschlicherweise, dass auch das letzte und das vorletzte Glied solch einer radioaktiven Zerfallskette für den menschlichen Organismus noch immer gefährlich werden könnte. Also auch noch nach Millionen von Jahren. So dass es nur folgerichtig sei, daher auch jedes einzelne davon für Jahrmillionen end zu lagern. Koste es, was es wolle. Bei der Gefahrenabwägung übersehen sie aber dabei, dass bei solchen Überlegungen auch entsprechende Erkenntnisse über die Einwirkung radioaktiver Substanzen auf einen lebenden Organismus miteinbezogen werden müssen. Erst dann kann nämlich, und dies schon allein durch rein ’logische’ Überlegungen, deutlich gemacht werden, dass im Gegensatz zu der obigen These solch eine strahlende Substanz schon lange vorher einen Schwellenwert erreichen hat, unter dem dann die weitere Strahlung für einen lebenden Organismus keine Rolle mehr spielen kann. Je nach Beantwortung dieser grundlegenden Fragen haben sich somit bei dem Bemühen um Lösung der Probleme der Atommüllentsorgung zwei Lager mit verschiedenen Strategien entwickelt.

Aus rein strahlenphysikalischen Gesetzmäßigkeiten ergibt sich zunähst, dass die nach einer Kernspaltung entstandenen noch äußerst instabilen Isotope während der Dauer ihrer Halbwertszeit (HWZ) auf die Hälfte, nach 10 bzw. 20 Zyklen auf nur noch rd. ein Tausendstel bzw. ein Millionstel ihrer Ausgangsmasse zerfallen sind. Dabei tragen 99 Prozent davon kaum zur Gefahrenbilanz bei, da die entsprechenden Teilchen bereits innerhalb einer Minute ihren stabilen Zustand erreicht haben (Also noch innerhalb des Reaktorkerns zerfallen sind). Für den Anteil an mittelfristigen Strahlern, die mit einer HWZ von Tagen und Monaten zerfallen (wie z. B. Jod-131 mit einer HWZ von 8,3 Tagen), bedeutet dies, dass diese Kategorie während eines halben oder ganzen Jahres praktisch schon nicht mehr vorhanden ist. Somit stellen sie beispielsweise nach einer (üblicherweise mehrjähriger) Lagerung im Abklingbecken eines Reaktors keine Gefahr mehr dar. Als Problemfall verbleibt somit nur die Entsorgung von Langzeitstrahlern, mit ihrem charakteristischen Vertreter Cäsium-137 (HWZ 30.17 Jahre). Aber auch (neben dem im Kühlmittel erzeugten Tritium) die erbrüteten Transurane (wie z. B. Plutonium, Americium usw.) sowie dem (zu einem Großteil) noch nicht aufgebrauchte schwach radioaktiv und langfristig strahlende Urananteil. Da letztere Isotope innerhalb eines abgebrannten Brennelements (im Vergleich zu den anderen Langzeitstrahlern) in viel größeren Mengen vorhanden sind, ist es angebracht, diese eventuel gesondert zu behandeln. Z. B., indem sie in einer Wiederaufbereitungsanlage von der übrigen Masse des Atommülls abgetrennt und entweder in Glaskokillen verschweißt oder als Mischoxid-Brenntoff in neueren Reaktortypen (z. B. der Generation IV) einer weiteren Verwendung zugeführt werden.

Wie bereits erwähnt, wird aber oft nicht berücksichtigt, dass bei all diesen Überlegungen (vor allem in Hinblick auf Langzeitstrahlern) auch noch eine strahlenbiologische Komponente miteinbezogen werden muss. Denn jede Strahlung (genauso wie etwa Sonnen- oder Röntgenstrahlen aber auch Hitze, Frost, Alkohol, verseuchte Nahrung oder ein Messerstich) kann organische Zellen zerstören (und manchmal u. a. auch das Erbgut beeinträchtigen). Die Natur hat aber andererseits Reparaturmechanismen bereitgestellt, die es ermöglichen, dass diese Zellen innerhalb eines gewissen Zeitrahmens immer wieder regeneriert werden. Das funktioniert allerdings nur solang, bis dieser Regenerationsprozess nicht überfordert wird. Es ist daher nur logisch, dass es somit einen ’Schwellenwert’ geben muss, ab dem die geringer werdende Strahlung für den Organismus nicht mehr gefährlich werden kann. Und somit im Meer der ’natürlichen Umgebungsstrahlung’ versinkt, an die sich der Körper schon lange gewöhnt hat. Was notwendig war, da ja der gesamte Planet Erde strahlenverseucht ist. Entweder durch Strahlung, die aus dem Weltall, dem Erdinneren oder aber auch aus der näheren Umgebung kommt (Ein Mensch strahlt in seinem Körper mit einer natürlichen Radioaktivität von rd. 9000 Becquerel). Bei der Beurteilung der Gefährdung durch Strahlung ist daher unstrittig, dass zwischen ’Strahlung’ und einer (für einen Organismus) ’gefährlichen Strahlung’ unterschieden werden muss. So dass, im Gegenteil zur in Deutschland vorherrschenden Meinung, für das letzte oder vorletzte zerfallende Teilchen kein ’Seidenpapier’ bereitgehalten werden muss. Was für die Allgemeinheit auch wesentlich billiger kommt.

Ja, es stellt sich sogar heraus, dass mit niedriger Dosis strahlende Subtanzen z. T. sogar gesundheitsfördernd wirken (Ein Prozess der als ’Hormesis bezeichnet wird, d. h. Erhöhung der Widerstands- und Wachstumsfähigkeit lebendiger Organismen). Schon im frühen 16. Jh. wurde dies (u. a. auch von Paracelsus) erkannt: ’Die Dosis bestimmt, ob etwas ein Gift ist’. Was natürlich auch allgemein gilt (und damit auch für radioaktive Strahlung). Zahlreiche Studien und Erfahrungswerte unterstützen diese These. So wurde mit Verwunderung festgestellt, dass die Sterblichkeitsrate der Überlebenden des Atombombenabwurfs von Nagasaki wesentlich geringer ausfiel als die bei einer jüngeren Kontrollgruppe. Oder auch die Tatsache, dass Strahlentherapien mit niedrigen Dosen zur Behandlung spezieller Erkrankungen zunehmend an Bedeutung gewinnen (Siehe Radon-Kuren in Bad Gastein).

Somit eröffnet sich in Kombination mit den obigen Erkenntnissen nun für den Begriff ’Halbwertszeit’ noch ein zweiter wichtiger Aspekt. Der in der Öffentlichkeit weniger bekannt aber wegen seiner Auswirkungen doch sehr bedeutsam ist. Man kann nämlich daraus auf die Geschwindigkeit schließen, mit der ein radioaktives Isotop zerfällt. Nimmt man dann noch zusätzlich an, dass dabei pro Zerfall in etwa ein einzelner ionisierender Strahl freigesetzt wird, so kann damit einer groben Schätzung die Obergrenze für eine maximal mögliche Anzahl von Strahlen pro Sekunde und Masse erstellt werden, also einer maximal möglichen Dosisleistung. Das heißt, dass Langzeitstrahler (wie beispielsweise Cäsium-137) zwar ihre Masse sehr langsam abbauen, dabei aber auch nur noch mit einer weitaus und wesentlich geringeren (konstanten und begrenzten) Dosisleistung strahlen können. Die ist z. B. im Vergleich zu Jod-131 entsprechend ihrer reziproken Halbwertszeiten in etwa um den (beachtlichen) Faktor 1327 kleiner ist (Solch eine auf Grund der langsamen Zerfallszeit geringe Anfangsdosisleistung ist übrigens auch der Grund, warum man sich unbesorgt auf einen Holzstuhl setzen kann, der aus Kohlenstoffatomen mit HWZ von über Millionen von Jahren besteht). Ausgehend von der niedrigen Dosisleitung hängt somit die Gesamtdosis einer strahlenden Quelle von der Menge dieser Substanz ab. Durch gezielte ’Portionierung’ der zu lagernden Menge an Atommüll kann somit gesteuert werden, ob solch eine Substanz unter- oder oberhalb des entsprechenden Schwellenwertes strahlt. Bei dieser Situation ist es daher sogar von Vorteil, wenn aus einer radioaktiv strahlenden Quelle flüchtige und daher wegen ihrer geringen Menge nun ungefährliche Gase in die Luft entweichen oder verdünnte Flüssigkeiten in die Erde versickern. Das entsprechende Motto zur Lagerung muss somit (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein (geringfügiges oder weitflächiges) Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre. Grob (und etwas flapsig) gesagt: Am besten wäre es, man lässt den Sarkophag in Tschernobyl einige Jahre abkühlen (um die mittelfristigen Strahler loszuwerden) und wirft dann in den verbliebenen Müll einen Sprengsatz. Dere sorgt dann (ähnlich wie bei Atombombentests) dafür, dass nun nur mehr eine stark verdünnte (und daher auch schwachradioaktive) Menge an Langzeitstrahlern über die Landschaft verteilt wird, und daher stark an Gefährlichkeit verliert. Natürlich kann man solch eine Verdünnung auch kontrolliert durchführen.

Zusätzlich wird damit aber auch verständlich, warum die Strahlengefahr auch davon abhängt, in welchen Zeitintervallen man einer Strahlenquelle ausgesetzt ist (Getreu dem Motto: ’Es ist ein Unterschied, ob man eine Flasche Schnaps innerhalb von 10 Minuten oder 10 Monaten trinkt’). Also wie effektiv die Regeneration der Zellen in diesen Zwischenintervallen wirksam werden kann.

Eine weitere Gefahrenminderung solcher Strahlenquellen ergibt sich übrigens auch aus der Tatsache, dass Radioaktivität gut messbar ist und somit eventuell vorhandene und noch immer strahlende Spots schnell lokalisierbar und daher auch leicht umgangen bzw. eliminiert werden können.

Wichtig für den Umgang der Menschen mit Strahlung ist auch die Tatsache, dass es (im Nachzerfallsbereich) einen wesentlichen Unterschied zwischen Gift und einem Langzeitstrahler gibt. Während Gift sofort wirkt, geben Letztere ihr Gefahrenpotential erst im Laufe der Zeit ab (Logischerweise den halben Anteil während der Dauer einer HWZ). Daher sollte auch das Verhalten der Menschen gegenüber Gefahren durch Strahlung vollkommen unterschiedlich sein. Leider ist das viel zu oft nicht der Fall. Vor einer radioaktiven Wolke (falls es so etwas überhaupt geben sollte) muss man nicht (wie vor einer Giftwolke) panikartig fliehen (Ein Sujet, das manchmal als ein Scenario für Katastrophenfilme genommen wird). Solch ein tragisches behördliches Fehlverhalten konnte nach dem Unglück von Fukushima festgestellt werden. Bei der Organisation der Evakuierung wurde ein viel zu überstürzter (aber von einem unzureichenden Strahlenschutzgesetz geforderter) Abtransport von Schwerstkranken aber auch Frischoperierten aus den umliegenden Krankenhäusern angeordnet. Mit der Folge dass es deshalb bei diesem Unglück, wie UNSCEAR bestätigt, paradoxerweise keine ’Strahlen-’, dafür aber (lt. Spiegel) rd. 500 ’Strahlenschutz’-Tote zu verzeichnen gab. Umgekehrt durften nach der Reaktorkatastrophe von Tschernobyl die Bewohner vom benachbarten Pripyat mit ihren Kindern noch bis zu 36 Stunden nach der Wasserstoffexplosion im Reaktorduckbehälter und der rd. 3 km hoch brennende Graphitsäule im stark verstrahlten Park spazieren gehen, bevor begonnen wurde, die Bevölkerung zu evakuieren. Ohne dass nennenswerte Opfer von den Behörden (und daher auch von UNSCEAR) gemeldet wurden. Bei solchen Zwischenfällen reicht es, darauf zu achten, dass strahlende Substanzen nicht all zu lange im oder am Körper verweilen (Z. B. Jod in der Schilddrüse oder Strontium in den Knochen). Man hat oft tagelang Zeit, um einen verstrahlten Bereich zu verlassen. Auch das Essen von z. B. mit Cäsium verseuchtem Wildfleisch oder Pilzen kann somit kaum als gesundheitlich bedenklich angesehen werden. Denn Cäsium ist nur in geringer Menge in solch einer Nahrung vorhanden und diese verbleibt nur mit vergleichsweise kurzer Aufenthaltsdauer im Körper. Beim Rückbau von Reaktoranlagen spielen daher auch angeblich ’stark verstrahlte Bauteile’ (wie z. B. Rohrleitungen mit geringfügigen Resten von radioaktiven Substanzen) keine wesentliche Rolle mehr.

In Deutschland ist es schon seit Jahrzehnten Praxis geworden, eine endgültige Entscheidung über den Standort (und damit den Bau) eines atomaren Endlagers aus rein parteipolitischen Überlegungen auf die lange Bank zu schieben. U. a. auch durch Verkünden von entsprechenden ’Moratorien’ (sprich ’angeblicher jahrzehntelanger Nachdenkphasen’). Und dies trotz mehrerer Erfolg versprechender Lösungsansätze. Wie z. B. das schon drei Jahrzehnte lang verfolgte und daher auch weit fortgeschrittene Projekt ’Salzstock Gorleben’, das mittlerweile schon an die 2 Mrd. EUR an öffentlichen Mitteln verschlungen hat. Wie auch üblich, wurden nach solchen Moratorien alle weiteren Neuansätze von dubiosen (weil nicht fachgerecht besetzten) Kommissionen verworfen, so dass man immer wieder von vorne anfangen musste. Natürlich konnte man sich diesen Luxus der Verschleppung von Entscheidungen nur leisten, da selbst bei fanatischen Kernenergiegegnern Zweifel aufkamen, ob Endlager in diesen Ausmaßen überhaupt nötig sein werden. Angesichts von Tatsachen, die zu erkennen lassen, dass die nach einer Kernspaltung produzierte Menge an hoch radioaktiver Strahlung schon nach wenigen Jahre unter die Grenze der natürlichen Umgebungsstrahlung fallen wird? Und dann aus Sicht des Strahlenschutzes nicht mehr sicherheitstechnisch relevant ist. Das heißt, dass solch ein Lager für hochradioaktiven Atommüll bei geeignetem Vorgehen im Laufe der Jahre zu eine gewöhnliche Mülldeponie übergeht. Wobei aber meistens sowieso nicht geklärt ist, was man unter den in der Öffentlichkeit meist (ungewollt, oft aber auch bewusst) genannten ’hochradioaktiven’ Substanzen, die langfristig entsorgt werden müssen, eigentlich zu verstehen hat.

All diese z. T. noch ungelösten Fragen tragen dazu bei, dass auch weltweit bis jetzt noch kein einziges Endlager errichtet wurde. Auch wenn dazu mittlerweile schon manche konkrete Pläne vorliegen. Wie z. B. in Frankreich, wo Senat und Parlament vor kurzem ihre Absicht bekundet haben, ihre Endlager in Lothringen zu errichten. Grünes Licht soll dazu allerdings erst 2025 gegeben und Abfälle dort nicht vor 2030 gelagert werden. Wobei grüne Abgeordnete, die ja Horrorzahlen lieben, von angeblich rd. 80.000 qm hochradioaktiven (!!) Müll sprechen. Befürworter, wie z. B. AREVA, bezeichnen diese Zahlen als vollkommen unrealistisch. Es kommt dafür nur noch strahlender Restmüll in Frage, der in Frankreich seit dem Zweiten Weltkrieg produziert wurde bzw. in den nächsten 50 Jahren zu erwarten ist. Deren Menge passe bequem in ein olympisches Schwimmbecken.

Trotz all dieser Bedenken wurde im März 2017 vom deutschen Bundestag ein Gesetz zur Suche von geeigneten Atommüllendlagerstätten (mit Einschlusszeiten von bis zu 1 Million von Jahren) beschlossenen (S. z. B. SZ vom 24. 03. 2017). Demnach ist geplant, zunächst einen Standort für die sichere Einlagerung von Atommüll, in der Größenordnung von zig Tausend Tonnen, zu finden. Erst nach einem positiven Ergebnis der Suche sollte dann mit der Realisierung solch eines Baus begonnen werden. Wobei man sich bei der Behauptung, dass auch das letzte und das vorletzte Glied einer radioaktiven Zerfallskette nach einer Kernspaltung für den menschlichen Organismus noch immer gefährlich werden könnten, vor allem auf eine von Hermann Müller schon in den 40-er Jahren des vorigen Jahrhunderts erstellten LNT (’linear-no-threshold’) – Hypothese stützte. Die auf Versuche mit Fruchtfliegen basierte, die einer relativ hohen Bestrahlung von 2,750 mSv und mehr ausgesetzt worden waren. Wofür er im Jahre 1946 dann auch mit einem Nobelpreis geehrt wurde. Die Aussagen für den unteren Strahlungsbereich (nämlich bis auf 100 mSv) extrapolierte er, unzulässigerweise, allerdings erst später. Wie aus obigen rein logischen Überlegungen hergeleitet wurde, folgt aber nun aus der Existenz des Regenerationsprinzips zwingend, dass der Begriff ’no threshold’ in der LNT-Theorie somit prinzipiell (!!) nicht mehr stimmen kann. Und damit für den niederen Strahlenbereich nicht mehr relevant sein kann. Treffender wäre es, sie auf LWT (’linear with threshold’) umzubenennen. Was aber auch bedeutet, dass damit jede theoretische Grundlage für Planungen von Endlagern mit sicheren Einschlusszeiten von über Millionen von Jahren zweifelhaft macht.

Obwohl diese Aussage für niedere Dosisraten mittlerweile auch anderweitig zigfach widerlegt wurde, bleiben die Befürworter dieser These noch immer bei der Forderung nach Endlagern für Millionen von Jahren (Und das nur, falls diese letzten Spaltprodukte überhaupt noch an die Oberfläche gelangen sollten). Und dies auch auf die Gefahr hin, Riesenkosten dafür aufwenden zu müssen. Kosten, die für eine Volkswirtschaft fast nicht tragbar, ja praktisch sogar unbezahlbar wären. Wohlweislich wird aber in dem jetzt beschlossenen Gesetz zur Endlagersuche die Entscheidung für solch einen Ort erst auf das Jahr 2031 gelegt. Also auf den Sankt Nimmerleinstag.

In einem ähnlich gelagerten Fall wurde mittlerweile, um jeden Austritt radioaktiver Teilchen aus dem mittlerweile maroden Sarkophag von Block 4 von Tschernobyl zu verhindern, im Rahmen international Bestrebungen entschieden und auch bereits begonnen, ein neues bewegliches Dach über diesen Sarkophag zu errichten. Genannt ’New Safe Containment (NSC)’. Damit in den nächsten hundert Jahren, wie zitiert, ’kein einziges Partikel’ aus der schmelzenden Kernmasse entweichen kann. Vorläufige geschätzte und sicherlich nicht endgültige Kosten: EUR 2,15 Mrd. (Dreimal mehr als ursprünglich geplant). An denen sich angeblich 40 Nationen beteiligen wollen. Nach 2017 soll die doppelwandige Hightech-Hülle NSC dann für 98 Jahre der (sowieso immer klammen und von Krieg und Wirtschaftskrise geplagten) Ukraine übergeben werden. Auch hier die Frage. Wozu eigentlich? Der verbliebene Rest an Atommüll besteht dann doch nur noch aus schwachradioaktiven und daher strahlungsarmen Nukliden. Besser gesagt aus ’stinknormalem Bauschutt’.

Dabei sollte es doch allen Beteiligten, der Ministerin und den Parlamentariern, klar sein, dass Planungen über technische Vorhaben, die noch nach 100 Jahren funktionieren sollen, einfach lächerlich sind. Was ist aus den Langzeitplänen unsere Vorfahren von vor 100 Jahren geblieben? Noch blamabler wird es dann, wenn man sich fragt, was die künftige Generationen in 1000 Jahren von unserer Fürsorge halten sollen? Und besonders 999 mal später dann von der Tatsache, dass sie selbst von uns vor dem letzten radioaktiven Teilchen, sofern es überhaupt freikommt, beschützt wurden. Und dafür sogar, selbstlos, den Ruin unserer Wirtschaft in Kauf genommen haben.

Man kann somit bei Beachtung von all diesen strahlenphysikalischen und –biologischen Erkenntnissen folgende Schlussfolgerung ziehen:

  • Endlagerung von radioaktivem Atommüll über zig Jahre und mehr war bisher nicht nötig und wird es auch weiterhin nicht sein. Das ergibt sich beispielsweise auch aus der Tatsache, dass es bisher in keinem Land zum Bau eines Endlagers kam. Aber auch aus der Auswertung der Erfahrungen mit den drei bisher einzigen Kernschmelzunfällen in der 60-jährigen Geschichte der friedlichen Nutzung der Atomenergie.
  • Es reicht, wenn der angefallene Atommüll zunächst über mehrere Jahre in Lagerbecken einer Reaktoranlage zur Abkühlung gebracht und danach für weitere Jahre in Zwischenlagern entsorgt wird. Bis dahin hat sich dann die Atommüllhalde in eine gewöhnliche und für die Bevölkerung ungefährliche Deponie verwandelt.
  • Dabei wäre zu empfehlen, die verbleibenden schwach radioaktiven Uran- und Plutoniumanteile bei dieser Philosophie vorher in Wiederaufbereitungsanlagen von dem übrigen Atommüllrest zu trennen. Und diese dann entweder durch Verarbeitung als Mischoxid – Brennelemente oder durch Einglasung von der Bevölkerung fernzuhalten. Ein Prozess, der im Vergleich zur bisherigen Endlagerphilosophie kaum viel Lagervolumen erfordert.
  • Der strahlende Anteil von sich bereits im Abklingbecken befindlichen abgebrannten Brennelementen oder einer Kernschmelze kann sich, je nach Masse, bereits unterhalb des natürlichen Schwellenwertes befinden. Als Motto müsste bei der Entsorgung (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre.
  • Die Kostenvorteile bei dieser Vorgehensweise liegen klar auf der Hand. Sie werden im Bereich von einigen Billionen EUR liegen. Wobei (wegen der vorherrschenden politischen Schwierigkeiten) eine Wiederaufbereitung nicht einmal im eigenen Lande stattfinden müsste.
  • Das gegenwärtige Vorgehen der Regierung in Sachen Kernenergie hat mit einer seriösen Energiewirtschaft nichts zu tun. Schon bei der Bedeutung dieser Fragen müsste es sich für Regierungen doch lohnen, in der breiten Öffentlichkeit die verschiedenen Standpunkte auf das Genaueste zu diskutieren. Es sollte dabei Hauptaufgabe einer dem Volkswohl verpflichteten Regierung sein, sicherzustellen, dass Entscheidungen über so wichtige und vor allem kostenträchtige Projekte von echten (und nicht eingebildeten, da selbsternannten) Spezialisten mit fundierten wissenschaftlichen Analysen getroffen werden. Kernenergie darf nicht Spielwiese von nur ideologisch gesteuerten Gartenbauingenieuren, Kunst- und Soziologiestudenten und ähnlichen Ideologen sein. Die jetzige Situation kommt den Staat und vor allem auch der Demokratie viel zu teuer zu stehen.

Schon diese relativ einfach zu verstehenden logischen Schlussfolgerungen sollten aufzeigen, dass es sehr wichtig sein kann, sich genau zu überlegen, nach welchen Kriterien bei der Frage der Endlagerung von Atommüll vorgegangen werden sollte. Dazu braucht es keine 10- bis 15-jährige Moratorien. Sondern die Beantwortung der Frage, welche radioaktiven Teilchen daher nach all diesen hier vorgestellten Erwägungen im Endlagerkonzept überhaupt noch berücksichtig werden sollten? Um so herauszufinden, welche dieser Zerfallsprodukte auf Jahre oder auch Jahrmillionen von der Menschheit abzuschirmen wären? Und auch zu begründen, woher die oft genannten Horrorzahlen von zig Tausend Tonnen von Atommüll kommen sollen, die dabei angeblich verarbeitet werden müssen?

Eine nachfolgende seriöse Berichterstattung in der Presse ist zur umfassenden Aufklärung der Bevölkerung über diese Problematik unabdinbar. Man sollte meinen, dass an solch leicht verständlichen Überlegungen alle Parteien Interesse haben sollten, um so nicht zum Spielball emotionaler und daher nicht mehr kontrollierbarer Strömungen zu werden. Ist aber nicht der Fall. Hier spielen Parteiinteressen (wie z. B. Ideologie, Wahlchancen, finanzielle Vorteile) oft eine viel wichtigere Rolle. Zum Schaden des Staates.

Abschließend kann festgestellt werden, dass es keinen Grund gibt, den anfallenden Atommüll über zig Jahre aufwendig zu entsorgen. Die Verwendung von Abklingbecken und Zwischenlagern genügt für die ersten Jahre, um die Bevölkerung ausreichend zu schützen.

 

 




Windkraft-Störfälle sind nicht beherrschbar

An der Bundesautobahn BAB A 9 bei Laubersreuth kann man gerade eine ruinierte Windkraftanlage besichtigen. Zwei Rotorblätter mit einem Gewicht von je 10 Tonnen sind zur Erde gestürzt bzw. haben sich um den Rotor gewickelt. Während eines nur mittleren Sturms mit einer Windspitze von 83 km/h wurde die vier Jahre alte Anlage von einer banalen Windböe im Februar geschrottet. Offensichtlich müssen die Lastannahmen für die Berechnung noch einmal erhöht werden und die Bestandsanlagen umgerüstet.

Obwohl Anlagen mit Blitzschutz errichtet werden, kommt es auch durch Blitzschlag deutschlandweit immer wieder zu Störfällen an Windkraftanlagen mit Gefährdung von Personen und Sachen.

2004 hatte die Abgeordnete Sylvia Eisenberg aus Schleswig Holstein nach einem Anlagenbrand eine kleine Anfrage  an die Landesregierung – Minister für Wirtschaft, Arbeit und Verkehr – gestellt. In der Antwort (Drucksache 15/3548) hieß es:

Nach § 19 Abs. 5 Landesbauordnung müssen bauliche Anlagen, bei denen nach Lage, Bauart oder Nutzung Blitzschlag leicht eintreten oder zu schweren Folgen führen kann, mit dauernd wirksamen Blitzschutzanlagen versehen sein. Die abgebrannte Windkraftanlage hatte ein aktives Blitzschutzsystem, das sicherstellt, dass Ströme aus Blitzen über ein Erdungssystem sicher abgeleitet werden können.  Mit derartigen Sicherungssystemen ist aber nicht völlig ausgeschlossen und kann nicht ausgeschlossen werden, dass dennoch ein Blitz einschlagen kann und ein Schadensereignis erzeugt.
(…) Eine gesetzlich vorgeschriebene Versicherungspflicht für Schäden, die Dritte durch den Betrieb einer Windkraftanlage erfahren können, gibt es nicht.
Tatsächlich dürfte aber für fast alle Windkraftanlagen eine Betriebshaftpflichtversicherung abgeschlossen worden sein. Die Träger dieser Versicherung sind die Versicherungsgesellschaften.

Wenn diese Betriebshaftpflicht nicht besteht, ist der Dritte natürlich der Dumme, wenn der Betreiber der WKA gerade Pleite ist. Auch in der Antwort auf eine kleine Anfrage des Abgeordneten Helmut Rüeck an das Ministerium für Ernährung und Ländlichen Raum in Baden-Württemberg im Jahr 2008 wurde auf das Risiko eingegangen:

Prinzipiell wächst die Blitzschlagsgefährdung von Bauwerken etwa quadratisch mit der Bauwerkshöhe. Bei Windkraftanlagen im MW-Bereich mit Turmhöhen von 100 m und Rotordurchmessern um 80 m muss statistisch mit Blitzeinschlägen im zweistelligen Bereich pro Jahr gerechnet werden – wobei die Wahrscheinlichkeit für einen Blitzeinschlag in Mittelgebirgsregionen etwa doppelt so hoch ist wie an der Küste oder im Norddeutschen Tiefland.

Nicht nur der Blitz ist eine Gefahr, sondern auch das Anlagenalter. Windkraftanlagen haben nach den AfA-Tabellen des Bundesministeriums der Finanzen eine betriebsgewöhnliche Nutzungsdauer von 16 Jahren, werden jedoch oft länger genutzt. Stahl ist wesentlich widerstandsfähiger, als die Löffel von Uri Geller, die sich schon beim Angucken verbogen. Problem ist jedoch im Langzeitbetrieb die Materialermüdung, die bei einer statisch unkritischen Belastung unterhalb der Streckgrenze des Stahls zu einer Funktionsuntüchtigkeit durch Ermüdungsrissbildung und zum Ermüdungsbruch führen kann. Zyklisch durch Wind belastete Teile haben prinzipiell eine begrenzte Lebensdauer.

Auch Spannbetonteile ändern daran nichts, denn die darin befindlichen Spannstähle und die schlaffe Bewehrung unterliegen auch den Naturgesetzen. Beton wird nie durch Druck zerstört, sondern durch Querzug. Wenn der Beton in Druckrichtung um einen Millimeter gestaucht wird, so verlängert er sich in Querrichtung um 0,16 mm. Die Rißbildung in Richtung der Druckkraft wird durch Querbewehrung verhindert, bis diese Bewehrung durch Ermüdung bei Wechsellasten versagt. Ein gutes Beispiel war die 1936 bis 1938 gebaute Teufelstalbrücke im Zuge der Bundesautobahn BAB A 4 bei Schleifreisen. Die statische Beratung erfolgte durch den Guru des deutschen Stahlbetonbaus Emil Mörsch, die Nachweise zur Stabilität der Stahlbetonbögen führte Franz Dischinger und Untersuchungen zum Langzeitverhalten des Bauwerks wurden auch geführt. Obwohl alle Kapazitäten der damaligen Fachwelt versammelt waren, war die Querbewehrung der Schwachpunkt und die Brücke mußte trotz Denkmalschutz wegen gewaltigen Rissen 1999 abgetragen werden. Ein Ermüdungsproblem.

Einige Windkraftanlagen sind aus Altersschwäche schon umgefallen. Die Zahl der Zusammenbrüche wird sich erhöhen, wenn die geburtenstarken Jahrgänge der Windmühlen ins Rentenalter kommen.

Kürzlich war wieder eine ältere Anlage vom Wind geköpft worden. Als Ursache wurde angegeben, daß sich der Rotor nicht aus dem Sturm gedreht hätte. Eigentlich hätte dadurch entsprechend den Lastannahmen noch nichts passieren dürfen. Aber wenn eine 20 Jahre alte Anlage morgens aufwacht, und es tut nichts weh, dann ist sie schon umgefallen.

Eine für uns Erdlinge sichere Technik der Energiegewinnung sieht anders aus.

Der Beitrag erschien zuerst auf Prabels Blog