Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 1)

Teil 2 hier und Teil 3 hier

Mein Beitrag über zwei kleine Anfragen der AfD (hier) zur ungelösten Problematik der absoluten globalen Mitteltemperatur in jüngerer historischer Zeit – die Pariser Klimaübereinkunft bezieht sich sogar auf „Werte vorindustrieller Zeit“ ohne diese auch nur ansatzweise zu beziffern- hat eine große, manchmal hitzige, Diskussion ausgelöst. Mit aktuell 127 Kommentaren und über 3000 Aufrufen (Stand 27.4.20 12:00 Uhr) gehört er sicher zur Klasse der Meistgelesenen. Soweit so gut.
Die z.T. hitzigen Kommentare zeigen m.E.n. aber auch, dass viele Leser mit der zugrunde liegenden, manchmal komplizierten, meteorologischen Messtechnik nicht so vertraut sind, wie sie der Artikel vielleicht voraussetzt. Das hat zur Folge, dass sie nicht auf Anhieb verstehen, warum der Artikel Versäumnisse – gar Falschinformationen-  der Bundesregierung – beanstandet.
Sie vertrauen dabei auf ihre eigenen, oft in wissenschaftlicher Arbeit gemachten Erfahrungen aus eigener Anwendung der Messtechnik und ihrer Behandlung von Messdaten. Diese stimmen aber – so meine eigene Erfahrung – wenig bis nicht mit den hier angewendeten Methoden und Verfahren, insbesondere bei der Erstellung und Bewertung von Zeitreihen, überein. Und sind deshalb in ihrer Schlichtheit selten auf diese Messdaten anzuwenden.
Dies voraus geschickt will ich die Leser jetzt ein wenig in die meteorologische Messtechnik von Temperaturdaten und deren Auswertung einführen. Dabei sollen die alten wissenschaftlichen Grundsätze gelten, klassifiziere erst und vergleiche dann, aber vergleiche immer nur Vergleichbares.
Zunächst schauen wir uns an, wie, wo, wann und wie oft die historischen Temperaturdaten gemessen und vorverarbeitet wurden.
Dann werden wir uns die Bildung von Anomalien aus diesen bereits vorverarbeiteten Daten und die sich daraus ergebenden Besonderheiten anschauen und zum Schluss die Bildung von Zeitreihen, und wie diese auf Fehlerkompensation bzw. Nichtkompensation Einfluss nehmen.

Was nicht behandelt wird.

Gänzlich außen vor lassen wir hier den magischen Trick der Klimaforscher, aus bekannten absoluten Unsicherheiten der Messwerte durch Bildung von Anomalien aus vielen Temperaturdaten statistische Wahrscheinlichkeiten werden zu lassen, die sich mit der bekannten Wahrscheinlichkeitsverteilung der Normalverteilung über ein oder zwei Sigma berechnen ließen. Darüber hat Kip Hansen eine sehr eindrückliche Kritik geschrieben. Sie finden Sie hier unter dem Titel„Der „Trick“ anomaler Temperatur-Anomalien
Weil es das Thema viel zu weit ausdehnen würde, lassen wir auch die merkwürdige Behauptung des Stammvaters aller Klimaängste, James Hansen außen vor, der in einem paper zusammen mit seinem Kollegen Lebedeff 1987[2] behauptet, es wäre möglich auch mit einer sehr geringen Zahl von ca. 80 Gitterzellen gleicher Fläche von 2500 x 2500 km  die Temperaturentwicklung der gesamten Erde zu bestimmen. Und dies obwohl in den meisten Zellen nur sehr wenige, in anderen überhaupt keine Messstationen vorhanden waren. Dieser Artikel war die Grundlage und ist es noch heute, für die Behauptung, dass die Anomalienbildung und deren Korrelation über große Flächen hinweg aussagefähig für die Temperaturentwicklung sehr große Flächen seien. Diese Idee, die jeder Korrelations- und Fehlerrechnung widerspricht, wird hier unter dem Titel Von Korrelationen, Trends bei Anomalien! besprochen
Und ebenfalls lassen wir die Erkenntnis von Dresdner Statistikern außen vor, die nachwiesen, dass selbst echt zufällige Fehler, sofern sie sich in Daten finden, die für autokorreliert sind und in entsprechenden Zeitreihen verwendet werden, systematische Komponenten in der Größe von einigen Zehntel Grad entwickelten. Details dazu finden Sie im Artikel mit dem Titel „Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde
Am Schluss der Vorbemerkung erlaube ich mir noch den Hinweis auf die Tatsache, dass mit der Bildung von raum- und zeitüberspannenden Durchschnittswerten, die darin enthaltenen Temperaturwerte ihre physikalische Bedeutung als Temperatur verlieren. Es entsteht stattdessen irgendeine Art von Index. Er ist für statistische Zwecke begrenzt brauchbar, wenn man die Randbedingungen beachtet, aber keine physikalische energetisch relevante Größe mehr. Wer dazu genaueres wissen möchte, der sei auf den schöne Beitrag von C. Essex und R. McKittrick von 2006 verwiesen mit dem schönen Titel „Does A Global Mean Temperature exist“[3]
 

Wie, wo und wann wurden die historischen meteorologischen Messdaten gewonnen?

  1. Thermometer

Am Anfang stand und steht das Thermometer. Dabei ist es zunächst egal, ob es ein mechanisches oder ein elektronisches ist, obwohl jede Art einen erheblichen Einfluss auf die (systematischen) Fehler hat, natürlich auch auf die erzielbare Genauigkeit.

  1. Messumgebung

Doch mindestens ebenso wichtig ist die Messumgebung. Diese wird bestimmt durch das Gehäuse (Messhütte), welches das Thermometer vor verfälschenden Umgebungseinflüssen, wie Strahlung, Wind oder Niederschlag aber auch Beschädigung schützen soll, aber auch in starkem Maße von der unmittelbaren Umgebung. Um vergleichbare Ergebnisse wenigstens annähernd zu erreichen, muss dies bestimmten überall vergleichbaren Standards genügen und sorgfältig gebaut und gepflegt werden.

  1. Messregime

Und auch das Messregime ist von entscheidender Bedeutung, nämlich wann und wie oft, von wem und wie das Thermometer abgelesen wird.

  1. Die geografische und zeitliche Abdeckung

Und da das Wetter- wie das Klimageschehen nicht an nationalen Grenzen haltmacht, muss die geografische Abdeckung mit Messstationen gesichert sein, und das sowohl nach Zahl als auch nach Ort und Zeit. Alle drei Anforderungen werden erst seit dem Aufkommen der Satelliten hinreichend erfüllt. Dabei tauscht man die Vorzüge der Satellitenmessung gegen einen enormen Nachteil ein, denn man musste einen unangenehmen Kompromiss akzeptieren. Es ist die sehr schlechte vertikalen Auflösung. Eine Satellitenmessung ist daher immer der Mittelwert von Temperaturänderung über eine Distanz von ca. 5000 m. (z.B. der lower troposphere)

  1. Was geschieht mit den meteorologischen Messdaten? Die Weiterverarbeitung!

Bis zur „Erfindung“ der Idee von der Notwendigkeit einer weltweiten Mitteltemperatur, gab es nur wenige Meteorologen, die die vorhandenen Messdaten nutzen wollten, um evtl. aus ihnen eine weltweite Mitteltemperatur zu extrahieren. Man begnügte sich damit – nachdem solche großartigen Wissenschaftler der Meteorologie wie Köppen die Definition von Klimazonen etabliert hatten- für diese Klimazonen oder Regionen Mitteltemperaturen und deren Jahresgänge zu berechnen. Normalerweise dienten die meteorologischen Messdaten aber vor allem der örtlichen Wettervorhersage und bez. ihrer Langzeit-Analyse auch dazu ggf. lokale Klimaänderungen im Nachhinein zu erkennen.
Anmerkung: Achten Sie mal auf die örtlichen Wetterberichte, dort wird man ihnen so gut wie nie die erwartetet Durchschnittstemperatur der nächsten Tage nennen, sondern ausschließlich deren Maxima und Minimawerte.
Dazu erstellte man Zeitreihen (hier Temperatur-Ganglinien) entweder aus absoluten Werten oder von Anomalien je nach Bedarf, deren erzielbare Genauigkeit für die gewünschten Zwecke völlig ausreichte.
 

Zu 1. Thermometer


Abbildung 1 zeigt eine klassische, deutsche Wetterhütte (erweiterter Stevenson Screen) und (rechts) ein darin befindliches modernes Thermometerensemble gezeigt,  wie es immer noch in vielfältiger Vewendung ist. Die senkrechten Thermometer sind (links) das Assmansche Aspirationthermometer zur Temperaturmessung, rechts daneben ein befeuchtetes und belüftetes Psychrometer zur Messung der Luftfeuchte. Quer darunter befinden sich zwei liegende Thermometer zur Messung von Max. und Min. Temperaturen. Die runde Plastiktrommel enthält den Federmotor mit Ventilator zur Erzeugung des Luftstromes mit Ø 2,5 m/s vor und während der Messung. Im März 2009 vom Autor im Metereologischen Institut der Freien Universität Berlin aufgenommen
Obwohl schon Galileo erste Versuche unternahm mit einem Thermometer meteorologische Messungen zu machen, und sich danach ein ziemlicher Wildwuchs an solchen Thermometer ausbreitete, weil viele Landesfürsten die aufkommende Meteorologie aus naheliegenden Gründen für äußerst wichtig hielten, kann man erst ab 1892 von einem Standardinstrument für meteorologische Zwecke sprechen. Es handelt sich dabei um das zwangsbelüftete Assmansche (Quecksilber gefüllte) Aspirationsthermometer (linkes, senkrechtes Thermometer). Die zuvor verwendeten tlw. mit Alkohol gefüllten Thermometer mit mehr als ± 1 Kelvin Gesamt-Unsicherheit wurden nach und nach weltweit ersetzt. In den angelsächsisch orientierten tlw. auch regierten Ländern setzte sich hingegen oft zusätzlich das Max-Min-Thermometer durch.
Doch allein die Wahl des Thermometers, sein jeweiliger Zustand, seine Montage, sein Betrieb und seine Ablesung sorgen für eine ganze Reihe von zufälligen wie systematischen Fehlern. Diese wurden vielfach sorgfältig untersucht, aber nur in geringer Anzahl auch quantitativ bestimmt und damit überhaupt erst theoretisch korrigierbar.
 

Zu 2. Messumgebung

Für die Messumgebung war von Anfang an klar, dass dieses zuallerst eine Art Schutzhütte sein sollte, von denen besonders im 19 Jahrhundert eine ganze Reihe von Konstruktionen erprobt wurden, wobei sich letztendlich die erweiterte englische Hütte als Standard durchsetzte. Doch bis dahin waren die (wenigen) Messergebnisse praktisch unvergleichbar, weil die Hütte auf ihre eigene Art die Messergebnisse beeinflusste.

Abbildung 2 Darstellung der zum Ende des 19. Jahrhunderts und bis heute verwendeten Hüttentypen bzw. Screens von links: französische Hütte, daneben (kaum erkennbar)  Mitarbeiter zum Größenvergleich, daneben (Original) Stevenson Hütte, dann Wildsche Hütte, dann mehrere erweiterte Stevenson Hütten und moderne runde kleine Screens. (Quellen. Linkes Bild [Sprung, 1890] rechtes Bild: KNMI Messfeld von van der Meulen  für die Zeit von  1989-1995)
Praktisch unkorrigiert, obwohl seit langem bekannt, ist der systematische Fehler, der allein durch die Wärmeträgheit der Hütte entsteht, und der ca + 1 bis 2 Kelvin zu jedem Ergebnis der eigentlich gesuchten Außentemperatur hinzuaddiert. Praktischerweise definieren jedoch die Meteorologen die Temperatur in der Hütte[4], als die gesuchte Außentemperatur. Woraus geschlossen werden muss, dass jede durch diese Messungen gewonnene absolute Temperatur im Mittel im 1 bis 1,5 Kelvin gegenüber der wahren Außentemperatur zu hoch sein muss.

Abbildung 3(links): Englische Hütte und moderne Messstation am Messort Detroit Lakes USA, kurz vorher aufgenommen und ins Netz gestellt am 25.07.07 von A. Watts; (rechts) Temperaturverlauf aus der GISS Datenbank zur Messstelle Detroit Lakes USA
Beispiel für den Zustand und Umgebung einer meteorologische US Messstation sowie deren Zeitreihe ihrer Jahresmittelwerte, die vom Projektteam untersucht wurde. Man beachte den Sprung ab etwa dem Jahr 2000 und die Entlüftungen der Klimaanlagen in unmittelbarer Nähe.
Nicht weniger Einfluss hat die unmittelbare Umgebung in der die Messhütte.
Zur Klärung dieses Sachverhaltes hat sich der Meteorologe und Betreiber des inzwischen weltweit erfolgreichsten Klimarealisten- Blogs Wattsupwiththat Antony Watts große Meriten erworben. Er rief 2007 das SurfaceStationorg. Netzwerk ins Leben, das 2009 erfolgreich mit einer Veröffentlichung [5]abgeschlossen wurde. Freiwillige im ganzen Land untersuchten über 850 der 1200 meteorologischen Messstationen, die von der US-Wetter- und Ozeanbehörde NOAA betrieben wurden.

Abbildung 4 Untersuchung von bisher (Ende Februar 2009) 854 von 1221 offiziell verwendeten Messstationen der unterschiedlichsten Art. Man beachte, dass nur 3 % aller Stationen dem Standard voll entsprechen,  weitere 8 % können evtl. noch als dem Standard genügend zugeordnet werden. Die restlichen 89 % zeigen jedoch potentielle Abweichungen nach den Vorgaben der CRN von mindestens 1 °C (20 %) über 2 °C ( 58% ) bis 5 °C (11%).
Auswertung der Überprüfung von 807 US Messstationen in Bezug auf die offizielle Einstufung ihrer Qualität und Umgebung (CRN).
Das Ergebnis war erschreckend. Der Zustand der Messstationen und damit die Messergebnisse waren miserabel. 89 % von ihnen lagen oberhalb der Fehlerklasse 2, was bedeutet, dass sie > 2 ° C bis > 5 °C fehlerhafte Ergebnisse zeigten. Nur 3 % lagen gleich oder unterhalb von 1 °C. Und noch schlimmer war, dass diese Stationen für die gesamte Welt sozusagen als Goldstandard in Punkto Qualität galten. D.h. die vom IPCC und ihren Zuarbeitern immer wieder herangezogenen Daten aus den anderen Kontinenten waren mit hoher Wahrscheinlichkeit noch schlechter.
Es würde hier zu weit gehen, die vielfältigen Fehlerquellen allein der landbasierten Messstationen aufzulisten, daher beschränke ich mich auf zwei kurze Ergänzungen.

  1. Selbst bei identischer Konstruktion von Hütte und Messinstrument, ergeben sich große Unterschiede allein durch das Material und seinen Anstrich, bzw. dessen Veränderung über der Zeit, z.B. durch Alterung
  2. Sind die landbasierten Messungen schon oft mit mehr (systematischen) Fehlern behaftet als ein Hund Flöhe hat, so ist das bei den seegestützten Messungen noch weit schlimmer. Und weil das Land nur 29 % der Erdoberfläche bedeckt, aber 71 % der Erde Ozeane sind, ist dieser Umstand eigentlich noch schlimmer. Denn dort sind die Messungen wirklich nur punktuell, d.h. äußerst selten sowohl in räumlicher als auch in zeitlicher Hinsicht. Ein wenig wird dieser Mangel gelindert durch die Tatsache, dass statt der eigentlich gesuchten Lufttemperatur, stattdessen, als Proxy, die Temperatur der Seewasser Oberfläche (SST Sea Water Surface Temperature) verwendet wird. Wegen der großen Wärmeträgheit und guten -Leitfähigkeit des Wassers deckt ein Messpunkt im Vergleich zum Land viel größere Gebiete ab.

Wer Interesse daran hat, diese Fehler etwas genauer behandelt zu sehen, der sei auf das Video „Wie glaubwürdig sind die Zeitreihen historischer Klimadaten“ (hier) verwiesen, dass einige der wichtigsten Aspekte zu diesen Fehlern aufzeigt.
Ende Teil 1
[1] https://www.wsj.com/articles/SB10001424052970204422404576594872796327348#printMode
[2] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.
[3] Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics
[4] Weischet [Weischet, 1995] S115 – S 109 ff
[5]  Is the U.S. Surface Temperature Record Reliable?  By Antony Watts SurfaceStations.org ISBN 13: 978-1-934791-29-5
Für alle, die diese Information am Stück lesen wollen hier das Ganze als pdf Die schwierige nimmer endende Fehlerdiskussion




Ein sicheres Endlager in Afrika

von Hans Hofmann-Reinecke

Gabon“ – mit einem „o“ wenn Sie es französisch aussprechen wollen, auf Englisch „Gaboon“- liegt an der Westküste Afrikas auf Höhe des Äquators. Das Land ist etwa so groß wie England, hat aber in der Weltgeschichte deutlich weniger von sich reden gemacht. Nur Albert Schweitzers Hospital in Lambarene genießt gewisse Aufmerksamkeit; es wurde vor hundert Jahren geschaffen, als es die GIZ noch nicht gab.
Falls ich Sie jetzt neugierig gemacht haben sollte, noch zwei Tipps für die Reise: nehmen Sie sich vor der „Gaboon-Viper“ in Acht. Sie gilt zwar als jovial, hat aber von allen Schlangen den schnellsten Biß. Und schon ein Tausendstel des Gifts in ihren Zähnen kann für den Menschen tödlich sein.
Der zweite Tipp: wenn Sie schon mal da sind, dann besuchen Sie auf jeden Fall Oklo. Warum? Das verrate ich Ihnen gerne, nach dieser kurzen technischen Einführung.

Reaktor ABC
Ein Atomreaktor ist im Grunde genommen nichts als ein Haufen Uran, das im Wasser liegt. Dabei entstehen Hitze und Dampf, mit dem man Turbinen antreiben und Strom erzeugen kann. Und schließlich bleibt ein Cocktail aus radioaktiver Asche übrig, der für die nächsten Äonen vor sich hin strahlt.
Das Uran im Wasserbad ist an sich kein so komplizierter Aufbau, als dass er nicht in der Natur vorkommen könnte. Schließlich wird Uran auch im Tagebau geschürft, ähnlich wie Kupfer oder Silber, es liegt also nicht tief im Inneren der Erde, sondern nahe genug an der Oberfläche, um bei Regen nass zu werden.
Der japanische Wissenschaftler Paul Kazuo Kuroda war schon 1956, also lange vor uns, auf diese Idee gekommen und hat untersucht, unter welchen geologischen Bedingungen so ein natürlicher Reaktor entstehen könnte. Der französische Physiker Francis Perrin entdeckte dann 1972 genau das, was sich der Japaner ausgemalt hatte, und zwar in Gaboon, in der Region Oklo.

Hundert Kilowatt – thermisch
Wieso kommt ein Franzose auf die Idee am Äquator nach einem Atomreaktor zu suchen? Der Mann arbeitete für die französische Kernenergie-Kommission (später AREVA/ORANO), die in den fünfziger Jahren in Oklo auf Uran gestoßen war und mit dem Abbau begonnen hatte. Gaboon war damals französische Kolonie, der Abbau ging aber in großem Stil weiter, auch nachdem das Land 1960 unabhängig geworden war.
Das gewonnene Erz wurde routinemäßig in Labors sehr genau unter die Lupe genommen, sowohl chemisch als auch physikalisch, und dabei stieß man nun auf bestimmte Substanzen, bestimmte Isotope, die in dieser Konzentration nur in einem Reaktor entstehen können. Man war auf die eindeutigen Fingerabdrücke einer Kernspaltung gestoßen.
Durch systematische Analyse der Indizien rekonstruierte man nun den Ablauf der Ereignisse, die zu diesen nuklearen Überbleibseln geführt haben mussten.
Vor etwa 1,7 Milliarden Jahren fand hier spontane Kernspaltung in industriellem Maßstab statt! Das vom Regenwasser durchtränkte Uranerz bot die richtige Konfiguration für eine nukleare Kettenreaktion, die 100 kW thermische Leistung freisetzte. Solch ein „Reaktor“ – es gab mehrere dieser Art an der Lagestätte – lief kontinuierlich für 30 Minuten, dann hatte die Hitze das Wasser verdampft. Der für die Kernspaltung notwendige Moderator, das Wasser, war jetzt verschwunden.
Nach zweieinhalb Stunden aber war alles abgekühlt und die Reaktion ging wieder von vorne los. So lief das eine ganze Weile – einige hunderttausend Jahre.

Wie soll das gehen?
Als sachkundiger Leser werden Sie nun protestieren. Natürliches Uran und natürliches Wasser, wie soll das funktionieren? Daraus kann man keinen Reaktor bauen. Man braucht angereichertes Uran, oder aber natürliches Uran mit „schwerem Wasser“ als Moderator. Aber in Oklo hatte man weder das eine noch das andere.
Nun haben wir ja schon erlebt, dass manche Dinge, die früher funktionierten heute nicht mehr möglich sind. Wenn wir zwei Milliarden Jahre zurück gehen, da war einiges anders, auch in Sachen Kernspaltung. „Heutiges“ Uran besteht zu 0,7% aus dem spaltbaren Isotop U235, der Rest ist U238. Das war früher anders. Da gab es zwar auch die beiden Isotope, aber in anderem Verhältnis. Die spaltbare Komponente machte damals 3% aus; das ist auch etwa die Konzentration, wie wir sie heute im künstlich angereicherten Uran in den Brennstäben unserer Atomkraftwerke einsetzen.
Warum war das früher anders? Die Antwort ist einfach: Uran zerfällt im Laufe der Zeit – allerdings sehr langsam. Die Halbwertszeit der leichteren Komponente U235 beträgt 700 Millionen Jahre, die der anderen vier Milliarden; letzteres ist in etwa auch das Alter der Erde. Uran ist also fast eine „normale“, stabile Substanz, deren Halbwertszeit praktisch unendlich ist. Der Unterschied in den extrem langen Halbwertszeiten der beiden Komponenten hat dennoch zur Folge, dass sich die relative Konzentration über die Zeit ändert.

Zu spät auf der Party
Stellen Sie sich vor, sie wären auf einer Party und vor dem Dinner geht man herum, macht Small Talk, trinkt Champagner und nimmt sich ab und zu eines der Kanapees von dem großen silbernen Tablett. Die einen sind mit Leberpastete und einer Kaper oben drauf belegt, die anderen mit undefinierbarem Käse. Sie nehmen sich eines mit Leberpastete, die Mehrzahl der anderen Gäste übrigens auch. Die Halbwertszeit der Kanapees auf dem Tablett, also die Zeit, in der die Hälfte verschwindet, ist beim Typ Leberpastete kürzer als beim Typ Käse.
Ein Gast der später auf die Party kommt, nicht gerade zwei Milliarden Jahre, sondern eine viertel Stunde, wird nur noch ganz wenige Exemplare der leckeren Sorte vorfinden, nur noch 0,7% vielleicht. Und er wird sich deswegen bei der Gastgeberin beschweren.
Ja, so ist das auch mit dem Uran235. Wären wir früher auf der Party erschienen, dann hätten wir auch den vollen Segen abbekommen und hätten unsere Reaktoren mit natürlichem Uran und natürlichem Wasser betreiben können. Heute finden wir nur noch 0,7% davon vor. Wollen wir uns darüber beim Gastgeber beschweren? Er würde uns antworten: „Wer zu spät kommt, den bestraft das Leben.“

Sicheres Endlager
Der Fund in Oklo ist mehr als eine wissenschaftliche Kuriosität. Wir können hier viel für die Endlagerung des radioaktiven Abfalls unserer Atomkraftwerke lernen.
In Oklo fand man die gefährlichen Spaltprodukte nämlich noch genau dort, wo sie einst entstanden waren – vor zwei Milliarden Jahren. Sie hatten sich währen der halben Lebenszeit der Erde keinen Meter vom Ort ihrer Entstehung entfernt. Sie hatten sich nicht, wie ein bösartiges Virus, über unseren Planeten ausgebreitet um Trinkwasser zu vergiften und Babynahrung zu verstrahlen; nein, die gefährlichen Spaltprodukte waren, harmlos wie ein Eimer voll Sand, für alle Ewigkeit am Ort ihrer Entstehung geblieben.
Das ist für Ingenieure und politische Entscheidungsträger eine wichtige Beobachtung. Seit über einem halben Jahrhundert ist man ja in Deutschland auf der Suche danach, wie und wo der radioaktive Müll aus den Kraftwerken für immer vergraben werden soll. Man ist auf der Suche nach dem Standort für ein sicheres Endlager.

Das Grab des Tutanchamun
Diese Suche gestaltet sich schwierig, denn da ist in Teilen der Bevölkerung die Befürchtung, das Zeug hätte ein bösartiges Eigenleben, es würde den Planeten „verstrahlen“ und für Mensch und Tier auf immer und ewig unbewohnbar machen. Die Namen potentieller Standorte wie „Die Asse“ oder „Gorleben“ sind zu Schlachtrufen einer ganzen Generation grüner Aktivisten geworden.
Oklo aber hat uns demonstriert, dass diese Sorgen unbegründet sind. Wenn man den Müll gut verpackt in einen Salzstollen versenkt, dann wird er genau da bleiben, und zwar für alle Ewigkeit.
Vielleicht werden irgendwann in ferner Zukunft neugierige Forscher nach mühseliger Arbeit solch ein Endlager entdecken. Dann würden sie alles genau so antreffen wie es damals, im frühen 21. Jahrhundert, dort vergraben wurde. Sie würden sich vorkommen, wie Howard Carter, der Entdecker von Tutanchamuns Grab, der jede Kleinigkeit so vorfand, wie man sie bei Tuts Beerdigung vor mehr als drei Jahrtausenden hinterlassen hatte.
Vermutlich werden unsere Entdecker im Salzstollen dann auf zahlreiche verstaubte gelbe Täfelchen mit drei Strahlen und einem schwarzen Punkt in der Mitte stoßen. Eines davon wird dann in einem historischen Museum ausgestellt, als „Geheimnisvolles Kultobjekt, etwa aus der Zeitwende zweites / drittes Jahrtausend n.Chr. Sollte vermutlich die abergläubische Bevölkerung vor bösen Geistern schützen.“

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/




Erneuerbare Energie: Windiges Problem für den deutschen Wald*

Wegen der kaum noch vorhandenen Akzeptanz von weiteren Windparks in der Bevölkerung und aus Mangel an sogenannten Vorrangflächen für den Bau neuer Windkraftanlagen drängen die Energiekonzerne verstärkt auf den Bau von Windparks in Wäldern. Laut dem Bundesverband Windenergie (BWE) hat der starke Rückgang der Genehmigungszahlen in den vergangenen drei Jahren zu einem „enormen Nachholbedarf“ geführt.
Zwar haben Bürger theoretisch auch bei Windkraftprojekten in Wäldern ein Mitspracherecht, jedoch liegen die Hürden für ein „berechtigtes Interesse“ sehr hoch, was sich zuletzt am Beispiel des hessischen Reinhardswalds gezeigt hat. Als „Anwälte“ der Wälder gegenüber der mächtigen Windlobby bleiben de facto nur die Naturschutzverbände, von denen aber bisher nur der Naturschutzverband Deutschland (Nabu) gelegentlich als Kläger gegen Windparkprojekte auftrat.
Generell sind BUND und Nabu aber mit der Preisgabe von Waldgebieten für den Bau von Windanlagen einverstanden, was selbst Funktionsträger dieser Organisationen schon veranlasst hat, ihre Mitgliedschaft zu kündigen.
Derartige Vorhaben sind in mehreren Bundesländern verboten, so in Schleswig-Holstein, Mecklenburg-Vorpommern und Sachsen-Anhalt. In Thüringen besteht ein solches Verbot nicht, aber es drehen sich nur zwei Windräder in den Wäldern des Freistaats. Ein Antrag von CDU und FDP, den Bau von Windrädern in Thüringens Wäldern grundsätzlich zu verbieten, stieß Anfang Januar im Erfurter Landtag bei SPD, Grünen und Linken auf Ablehnung, während die AfD den Antrag unterstützt.
In Niedersachsen, wo Ende 2019 bereits 6.311 Windkraftanlagen mit einer Gesamtleistung von 11.205 Megawatt installiert waren, wurde Anfang des Jahres das Windpark-Verbot für Wälder auf Antrag der CDU gelockert. Aus der SPD kam der Vorschlag, Windturbinen auf ausgewiesenen kahlen Flächen nach Sturmschäden und Insektenbefall zu errichten.
Damit entfiele die Vorgabe, dass Kahlflächen in Nutzwäldern aufzuforsten sind. Im Harz, wo schwerwiegende Dürreschäden infolge der anhaltenden Trockenheit verzeichnet werden, könnten somit möglicherweise bald Windräder der neuen Größenklasse mit einer Gesamthöhe von 238 Metern und einem Drehradius der Turbinen von 160 Metern aufragen und das Landschaftsbild prägen.
Die schwarz-grüne Regierungskoalition in Wiesbaden hat sich für einen radikalen Weg entschieden. Ende 2019 drehten sich 1.161 Windräder im Bundesland Hessen. Jedoch lässt sich in Hessen kinetische Energie (Wind), wenn überhaupt, nur über den meist bewaldeten Höhenlagen lohnenswert abgreifen. Neue Anlagen können kaum noch ohne Gerichtsverfahren gebaut werden.
Propeller für Grimms Märchenwald
Mit diesem Argument hat die Landesregierung im vergangenen Jahr weitere Vorrangflächen in Waldgebieten ausgewiesen, sodass man sich in Hessen jetzt mit 1,85 Prozent ausgewiesener Fläche beruhigt dem im Landesentwicklungsplan vorgegebenen Ziel nähert, wonach zwei Prozent der Landesfläche als Windvorranggebiete auszuweisen sind.
Ungeachtet massiver Proteste aus der Region und ganz Deutschland hält Wirtschaftsminister Tarek Al-Wazir (Grüne) am Vorhaben fest, den 1000 Jahre alten Reinhardswald, auch bekannt als „Grimms Märchenwald“ und „Schatzhaus der europäischen Wälder“, in einen Standort für insgesamt 50 riesige Windanlagen umzuwandeln.
Die Grünen im Schulterschluss mit der Industrie – das empört viele Einwohner und Naturfreunde.
Die Dürre hat Folgen, auch im Reinhardswald. Den Windparkbefürwortern dienen die Waldschäden als Rechtfertigung für die Ausweisung von 2000 Hektar (20 Millionen Quadratmeter) für den Bau von 50 riesigen Windrädern. Dass diese ihre Umgebung zusätzlich austrocknen, will auf offizieller Seite niemand wahrhaben. Das Genehmigungsverfahren für die ersten 20 Anlagen hat begonnen. Doch die Projektgegner sind hochmotiviert und wollen nicht aufgeben. „Die Natur Aller fällt der Profitgier Einzelner zum Opfer“, liest man auf der Internetseite der Bürgerinitiative „Rettet den Reinhardswald“.
In Nordrhein-Westfalen ist die Errichtung von Windkraftanlagen in Wäldern durch einen Erlass vom 23. Mai 2018 vom Grundsatz her erschwert worden: „Die Landesregierung will die Akzeptanz für die Nutzung der Windenergie erhalten, weil sie ein wesentlicher Bestandteil für das Gelingen der Energiewende ist.“
Der Energiekonzern BayWa (Bayerische Warenvermittlung) plant jedoch weiterhin den Bau von sieben Windrädern mit einer Nennleistung von je 4,5  Megawatt im Balver Wald westlich der Stadt Balve und südlich der Stadt Hemer.
Der Balver Wald ist die höchste Erhebung der Iserlohner Höhe wie des gesamten Märkischen Oberlandes und ein beliebtes Wander- und Erholungsgebiet. Bis Februar wurden 200.000 Euro von Kleinanlegern eingesammelt, ein nur symbolischer Kostenbeitrag für den Bau der Windturbinen. Indessen fühlen sich die Stadtverwaltungen der beiden genannten Orte bei den Planungen übergangen.

=================================================================

)*  Anmerkung der EIKE-Redaktion :
Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  24. April 2020, S.7; EIKE dankt der PAZ-Redaktion sowie der Autorin  Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Hackschnitzel! Ich sage nur: Hackschnitzel werden die Welt retten. Das ist die Quintessenz der Rede von Mr. Bill McKibben. Der ist Umweltaktivist und Buchautor, schreibt Bücher über die globale Erwärmung, »End of Nature« und andere Katastrophen, ist also so etwas wie der amerikanische Franz Alt, nur noch viel lauter. Während Franz Alt einst Chinagras als Rettung der Welt propagierte und daran verdienen wollte, predigt McKibben bei der Einweihung eines holzbefeuerten Kraftwerks am Middlebury College in Vermont eben Hackschnitzel.
»Es ist unglaublich schön, sich den Hackschnitzelbunker anzusehen. Alles, was brennt, können wir dort hineinwerfen! Das zeigt, dass dies überall passieren könnte, überall passieren sollte und überall passieren muss!«
Zu sehen sind diese Szenen in dem neuesten Werk »Planet of the Humans« des amerikanischen Dokumentarfilmers Michael Moore, welches er gerade zum »Tag der Erde« auf Youtube gestellt hat.

Die Ikone der amerikanischen Grünen und Lefties schaut sich die Hinterlassenschaften der Green Energy Industrie an. Die erschrecken ihn – erstaunlicherweise.

Beispiel Daggett, California: Hier sieht er kilometerweit nur Schrott und Müll. Die Reste des einstigen Traums von ach so umweltfreundlichen Solarkraftwerken. Mit »SEGS« begann es, mit«Solar Electric Generating Systems«, neun thermischen Sonnenwärmekraftwerken. Wo? Natürlich im grünen Kalifornien.
Heute steht unter anderem in der Mojave-Wüste das Solarkraftwerk Ivanpah. Tausende von Spiegeln konzentrieren Sonnenlicht in einen Turm und erhitzen dort eine Salzlösung, die die Wärme zu einem Kraftwerk weiterleitet. Die Sprüche und Ankündigungen zu solchen »grünen« Projekten und weltbeglückenden Visionen sind immer lautstark. »Das wird die größte Solarfarm in der Welt«, zitiert Moore den damaligen Gouverneur von Kalifornien, Arnold Schwarzenegger. Normale Menschen würden in dieser Wüste nur eine tote Landschaft sehen, er aber sehe eine Goldgrube.
500 Jahre alte Yukka-Palmen mussten für die »Goldgrube« geschreddert werden. Hunderte alter Wüstenschildkröten kostete der Bau der Solarfarm das Leben. Denn Wüsten sind nicht tot.
Der Film zeigt sehr trocken die Lügen der angeblich so grünen und erneuerbaren Energie. Man sieht die Gaszuleitung zu dem Solarkraftwerk. Ohne Gas würde die gewaltige Industrieanlage nicht funktionieren. Für das Anfahren des Solarkraftwerkes muss viel Gas verbrannt werden, um die Salzlösung, die die Wärme transportieren soll, aufzuheizen.
Erstaunlicherweise hat das Kraftwerk in seiner Betriebsgenehmigung die Erlaubnis, Stickoxide auszustoßen. Dabei ist es doch scheinbar umweltfreundlich. Das Kraftwerk bezahlt sogar für sogenannte CO2 Zertifikate. Dabei wurde dies als geniale Energiequelle weltweit gepriesen, auch in Spanien, in den Pyrenäen und in Marokko entstanden mit vielen Steuermillionen geförderte Solarkraftwerke, die mit enormem technischen Aufwand das Sonnenlicht zu bündeln versuchten, um wenigstens einigermaßen brauchbare Temperaturen zu erreichen und daraus Strom zu fabrizieren. Zumindest während einiger Stunden am Tag, wenn die Sonne scheint und keine Wolken den Himmel verdecken.
»Ich musste lernen, dass auch Solarpanels nicht ewig halten«, sagt im Film ein Experte auf einer Messe für Energien. Die halten teilweise nur zehn Jahre. Das sei keine magische Energie. »Ich weiß also nicht, ob das die Lösung ist,« lacht er, »und hier helfe ich, die Materialien für Fotovoltaikanlagen zu verkaufen.«
Moore schaut hinter die Batterie-Gigafactory von Tesla inmitten der Wüste von Nevada. Gründer Elon Musk wird nicht müde zu betonen, dass die benötigte Energie ausschließlich von Wind und Sonne kommt. Hinter den Gebäuden allerdings sieht man das Umspannwerk und den Anschluss an das allgemeine Stromnetz.
Er entlarvt die Umweltpropaganda des Computergiganten Apple. »Wir hören nie auf, darüber nachzudenken, was das Beste für den Planeten ist – in allen unseren Fabriken weltweit.« Das ruft laut auf einer der legendären Apple-Konferenzen ausgerechnet Lisa Jackson in die begeistert applaudierende Menge. Jackson war übrigens die ehemalige Leiterin der amerikanischen Umweltbehörde EPA. Apple heuerte sie an.
Moore schneidet die Aussage eines Energieversorgers dagegen, der erzählt, wie Apple immer noch Strom aus ihrem Netz bezieht. Einen solchen Konzerngiganten kann man eben nicht mit Wind- und Sonnenstrom versorgen.
Moore zeigt auch die Profiteure der »Erneuerbaren«, im Fall des Solarkraftwerkes die Koch Brothers, die in ihrem Industrieimperium Guardian Glass Industry die Unmengen an Spiegel hergestellt haben sowie mit den Baustoffen Zement und Stahl kräftig verdient haben.
Man sieht den gewaltigen Materialverbrauch und die gigantischen Flächen, die für die Sonnen- und Windindustrieanlagen benötigt werden. 16 mal mehr Materialien wie Zement, Glas, Beton und Stahl verbrauchen solche Sonnenkollektoranlagen als Kernkraftwerke und erzeugen 300 mal mehr Abfall. Diese Materialien müssen abgebaut und mit hohem Energieaufwand geschmolzen und verarbeitet werden.
Im O-Ton hören wir: »Es wäre besser gewesen, fossile Brennstoffe einfach nur zu verbrennen, anstatt nur so zu tun, als ob. Wir werden im Grunde nur mit einer Lüge gefüttert«.
Moore vergisst jedoch zu sagen, dass dies prinzipbedingt ist. Die Leistungsdichten von Wind und Sonne sind zu gering, um damit nennenswerte Energien für ein Industrieland zu erzeugen. Das hat die Natur passend eingerichtet; würde die Sonne deutlich stärker auf uns herunterbrennen, könnten wir uns nicht mehr auf die Wiese legen, und schon bei einem starken Orkan hält es uns kaum noch auf den Füßen.
Eine weitere Folge des gigantischen Flächenverbrauches der »Erneuerbaren«: Brasilien muss exorbitant große Flächen zerstören und dort Zuckerrohr anbauen, um den sogenannten Biokraftstoff herzustellen. Ethanol aus Zuckerrohr benötigt ungefähr 400 mal mehr Fläche, um die gleiche Energiemenge wie Erdöl zu erzeugen.
McKibben preist im Film Deutschland, dass 80 Prozent seines Stroms aus Sonnenenergie erzeuge. Doch fehlt wieder der zweite Teil der Information, dass damit nur ein Drittel des Stromes erzeugt werde – und das nur dann, wenn der Wind weht und die Sonne scheint. Ohne Kohle und Kernkraftwerke und ohne zusätzliche Hilfslieferungen an Strom aus den Nachbarländern wäre bald Schicht im Schacht. Im Film wird sogar deutlich gesagt: Ohne Speichermöglichkeit kann man nicht auf Strom aus Wind und Sonne zählen. Die gibt es nicht – zumindest in absehbarer Zeit nicht.
Der Filmautor kommt folgerichtig auf die Frage, warum »wir« mit grüner Energie die Umwelt schädigen. Über das »Warum« sinniert und sinniert sehr langatmig: Was treibe Menschen, die sagen, die Umwelt retten zu wollen, sie zu zerstören? Das funktioniere also nicht. Kryptisch deutelt Moore, ob der Wunsch nach Nachhaltigkeit nicht in Wirklichkeit eine Art Wunsch nach Unsterblichkeit sei.
Die malthusianische Antwort, wir seien zu viele auf der Erde, ist zu kurz gesprungen. In der Erde stecken noch schier unerschöpfliche Mengen an Energie. Das Ende des Erdöls jeweils in 25 Jahren wird alle 25 Jahre aufs Neue wiederholt.
Entscheidend sind eher ganz handfeste Fragen, wie man sie in vor-ökologischen Zeiten gestellt hätte. Wie hoch ist die Leistungsdichte der jeweiligen Energie? Nicht umsonst löste Kohle einst die Holzverbrennung ab und rettete damit übrigens die Wälder. Öl und Gas verfügen über noch mehr Energie. In wichtigen Ländern wird die Kernkraft als die Energie mit der größten Leistungsdichte genutzt, nur in Deutschland nicht mehr.
Hierzulande gäbe es ebenfalls genügend Stoff für eine solche Dokumentation: 30.000 Windräder verunstalten Landschaften, die ersten zehntausend sind bereits schrottreif, doch keiner weiß, wohin mit den kritischen Rotorblättern. Auf Millionen von Dächern und auf den Äckern liegen hektarweise Fotozellen, die später als Sondermüll entsorgt werden müssen.
Das nächste Desaster deutet sich schon an. Der Euro 5 Diesel wurde einst steuerlich gefördert, schließlich emittierte er doch weniger CO2 als seine Vorgänger. Grund: Mit glänzend weiterentwickelter Technik nutzt er den Energiegehalt des Treibstoffes besser aus. Doch der wird gerade von den Umweltindustrietrupps unter einem ihrer Hauptakteure, dem derzeitigen Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, zerstört.
Seit einiger Zeit werden Pelletheizungen propagiert und erheblich gefördert. Doch die belasten die Luft mit NO2 in immer stärkerem Masse, sind bereits jetzt – wie das unfreiwillige Corona-Experiment in den Städten gerade zeigt – für die NO2 Werte in den Städten verantwortlich. Wenn die NO2-Grenzwerte weiter abgesenkt werden soll, müssen als Nächstes Pelletheizungen verboten werden.
Da sage noch einer Hackschnitzel.
Der Beitrag erschien zuerst bei TE hier




Klimaalarmisten wollen Coronakrise als Blaupause für Transformation ohne Widerstand nutzen

Die politischen Umfragewerte für die Regierung steigen; nicht untypisch in Krisenzeiten; gleich, ob die Krise real oder nur medial ist. Ein junger Student neulich hinter in der Schlange am Fenster des Imbisses kommentierte mein „Hoffentlich ist der Wahn bald vorbei“ mit einem „hoffentlich nicht!“. Was soll man dazu sagen? Hat er Angst (so wirkte er nicht), oder ist er für „Vernunft“ und „Wissenschaft“?
Man sieht, wenn die Elite die Plebs ängstigt oder ihre Version von „Vernunft“ via medialer Dauerbeschallung in der Öffentlichkeit durchdrückt, sind die Plebejer erstaunlich schnell bereit, erstaunlich viel zu erdulden. Wir haben Glück, daß sich neben der „Virologen-Gretel“ Drosten (Zitat Carolin Matthié) und anderen Regierungs-Leibärzten à la Lauterbach eine große Gruppe von Ärzten um Wodarg, Bhakdi, Püschel, Streeck und Schiffmann schnell zu Wort meldete und wegen des unkontrollierbaren Internets auch nicht zu ignorieren ist. Verschwörungstheoretiker-Vorwürfe, anfangs noch gegen Wodarg geäußert, ziehen einfach nicht mehr, wenn altgediente Praktiker und renommierte Fachleute in Kompaniestärke auflaufen.
Aber wird die sprichwörtliche Fügsamkeit der Schweigenden Masse in Deutschland und Österreich (die Schweiz ist deutlich demokratischer) dadurch überwunden? Die Profiteure der Klimarettungsindustrie jedenfalls scharren schon mit den Hufen, wie ein Blick auf Klimareporter zeigt:

Die Coronakrise hat innerhalb weniger Tage alles verändert. Das zeigt: Rasche politische Maßnahmen sind sehr wohl möglich, wenn es notwendig ist. Muss das nicht auch in der Klimakrise gelten, die ein noch viel größeres Risiko darstellt?

So sagt eine der Architekten der Pariser Klimaziele, Ex-UN-Klimachefin Christiana Figueres,

Die Pfade, die wir zur Bewältigung der Krisen [Corona, Klima, Ölpreis] beschreiten, können und sollten sich auch treffen. Das müssen wir bedenken, wenn wir finanzpolitische Maßnahmen ergreifen.

Heißt: Lasse keine Krise ungenutzt; mehrere lassen sich wunderbar als Mehrfach-Argument für die Umverteilung und den Demokratieabbau nutzen.
Ein Historiker verpackt die aktuelle Umbauplanung in positive geschichtliche Entwicklungen:

„Krisen waren oft Taktgeber für Innovation“

Stimmt; so entwickelte das antike Attika seine Demokratie in der Regierungskrise. Und die Beulenpest im 14. Jahrhundert soll ein wichtiger Impuls für die Entwicklung der Renaissance gewesen sein. Allerdings war der Schwarze Tod eine Superseuche, die rund ein Drittel der Europäer tötete. SARS2 hingegen ist bekanntlich eine Infektionskrankheit, die weniger tödlich ist als die jährliche Grippewelle, um die sich niemand schert.
Interessanterweise konstruieren die Klimareporter auch einen Zusammenhang zwischen örtlicher Umweltverschmutzung und SARS2:

Studien zufolge gibt es einen Zusammenhang zwischen der Luftverschmutzung, so durch Kohlekraftwerke und Verbrennungsmotoren, und der Ausbreitung des Coronavirus. Wenn es wirklich um die Gesundheit der Menschen geht, müssen diese gesundheitsgefährdenden Quellen abgeschaltet werden.

Man sieht, den Bürgern soll nicht nur mit dem Weltuntergang, sondern auch mit dem individuellen Tod Angst gemacht werden, wie es die Anti-Atom-Bewegung in den 1980ern schon tat. Zwar ist die angegriffene Lunge eines Rauchers oder Industriegebietbewohners tatsächlich empfindlicher gegenüber Infektionen (etwas anderes ist auch nicht zu erwarten); aber wie würden sich Energiearmut und damit wirtschaftliche Armut auf die Gesundheit auf die Bürger auswirken?
Ein Interview bei den Klimareportern macht aber Mut: Ein Sozial-verbalwissenschaftler, ausgerechnet, meint:

Einige der erzwungenen Veränderungen werden überleben, doch ein breiter gesellschaftlicher Lerneffekt wird wohl ausbleiben.

Hoffen wir, daß der Mann recht behält.