Zwei erklärte Atomkraft­gegner: …

Vollständiger Text des Podcast (Link)
Sprecher (3): Es ist die bislang teuerste Investitionsruine Deutschlands, der Schnelle Brüter in Kalkar am Niederrhein. Sieben Milliarden D-Mark, nach heutigem Wert sechs Milliarden EUR wurden investiert, bis 1991 kurz vor der Fertigstellung die Entscheidung fiel, dass die Brütertechnologie schlichtweg zu gefährlich ist.
Michael Sailer (1): „In Deutschland wurde nach ner langen Debatte in ner Bundestagskommission entschieden: Wir wissen nicht, wie schlimm der größtmögliche Unfall beim Brüter sein kann und deswegen wollen wir das Ganze nicht“.
Sprecher (3): Erinnert sich Michael Seiler, Nuklearexperte beim Ökoinstitut und langjähriges Mitglied der Reaktorsicherheitskommission. Ähnliche Projekte in Frankreich, den USA und Japan sind ebenfalls gescheitert.
Doch allen technischen und finanziellen Problemen zum Trotz, wird weiter am Brüter geforscht. Auch in Deutschland. Im Russischen Jekaterinburg treffen sich zurzeit auf Einladung der internationalen Atomenergiebehörde IAEA rund 700 Ingenieure, Wissenschaftler und Politiker aus 30 Ländern (2).
Es geht um die Zukunft der Atomkraft, die Reaktoren der vierten Generation, wie sie genannt werden, speziell den Schnellen Brüter. Unter den Teilnehmern auch zahlreiche deutsche Wissenschaftler unter anderem vom Forschungszentrum Jülich, dem Karlsruher Institut für Technologie KIT und dem Helmholzzentrum Dresden. Michael Sailer überrascht das nicht.
Michael Sailer (1): „Weil einige Kollegen immer noch davon träumen, irgendwann nochmal Reaktoren zu bauen. Aber in der Praxis ist das natürlich ein Anachronismus“.
Sprecher (3): Die Bundesregierung erklärte auf Anfrage: Man sei an dieser Tagung weder finanziell, noch personell beteiligt. Allerdings werden einige der dort anwesenden deutschen Wissenschaftler und ihre Forschungen durchaus auch mit Bundesmitteln gefördert.
So räumt das Wirtschaftsministerium gegenüber dem WDR ein, derzeit insgesamt fünf Vorhaben auf dem Gebiet der Generation 4 Reaktorkonzepte zu finanzieren. Das vom Bund mitfinanzierte KIT ist laut Auskunft des Forschungsministeriums an sechs solchen Programmen beteiligt. Hinzu kommt die indirekte deutsche Förderung über die EU, die IAEA und Euratom, und das alles, obwohl der deutsche Atomausstieg längst beschlossene Sache ist.
Michael Sailer (1): „Die Kollegen, die solche Forschungen machen, mögen den Ausstiegsbeschluss sowieso nicht. Ist aber unter dem Stichwort Wissenschaftsfreiheit natürlich zugelassen. Auf der anderen Seite ist es schon ne Frage, wieweit aus den Forschungsgeldern der Bundesrepublik solche Illusionen weiter finanziert werden sollen“.
Sprecher (3): Wirtschafts- und Forschungsministerium legen Wert auf die Feststellung, dass die deutschen Wissenschaftler nicht an der Entwicklung, sondern an der Erforschung der Sicherheit künftiger Atomreaktoren arbeiteten; eine Unterscheidung, die in der Praxis wohl kaum durchzuhalten und erst recht nicht zu kontrollieren sein dürfte.

(2) Symposium
Jun 26 Jun 29: Yekaterinburg: International Conference on Fast Reactors and Related Fuel Cycles: Next Generation Nuclear Systems for Sustainable Development

(3)Jürgen Döschner, WDR-Energieexperte
WIKIPEDIA: Studium Journalistik und Geschichte
Döschner hat sich vor allem als Berichterstatter und kritischer Kommentator zu Fragen der Energiewirtschaft einen Namen gemacht. Er ist dabei ein erklärter Gegner von „Risikotechnologien“ wie Atomkraft oder Fracking. Döschner unterstützt die Energiewende hin zu einer klimaschonenden Energiewirtschaft auf der Basis erneuerbarer Energien.
Wiederholt kritisierte Döschner öffentlich die Öl- und Gas-Konzerne und die großen Stromversorger für deren Preispolitik und für ihr Verhalten in der Energiewende.
Kontroverse
Im August 2015 befürwortete Döschner in einem Kommentar eine Protestaktion von Anti-Kohle-Aktivisten im Braunkohletagebau Garzweiler. Darin schrieb er u.a.: „Die Proteste […] mögen nicht immer legal gewesen sein, aber sie sind angesichts der Ignoranz von Geld und Macht und angesichts der Bedrohung, die es abzuwehren gilt, völlig legitim.“ Dieser Kommentar löste heftige Proteste von RWE und anderen Braunkohle-Befürwortern aus, was Döschner veranlasste, zu den Vorwürfen in einem offenen Brief Stellung zu beziehen.

(1) Michael Sailer
WIKIPEDIA: Michael Sailer … ist ein deutscher Diplom-Ingenieur für Technische Chemie, anerkannter Nuklearexperte und Sprecher der Geschäftsführung des Öko-Instituts e.V. sowie unter anderem Mitglied des Scientific & Technical Committee von EURATOM (STC) (2005–2013) und der deutschen Reaktorsicherheitskommission (1999–2014), deren Leitung er 2002 bis 2006 innehatte. Er gilt zugleich als einer der profiliertesten Kritiker der Kernenergie.
WIKIPEDIA: Das Öko-Institut e. V. (Institut für angewandte Ökologie) ist ein privates Umweltforschungsinstitut mit Hauptsitz in Freiburg im Breisgau
Es ist 1977 aus der Anti-Atomkraft-Bewegung hervorgegangen und umfasst heute rund 165 Mitarbeiter an den Standorten Freiburg, Darmstadt und Berlin. Das Institut ist als Verein organisiert und verfolgt die Ziele Förderung des Umweltschutzes und der nachhaltigen Entwicklung, was unter anderem durch wissenschaftliche Forschung, Beratung und Aufklärung der Öffentlichkeit erfolgen soll.
Geschäftsführung
Die Geschäftsführung besteht aus Michael Sailer als Sprecher sowie Susanne Fröschl und Rainer Grießhammer




Aufstieg und Fall des Ozonlochs

Von Alex Reichmuth

(Red. WELTWOCHE Zürich)*

=======================================================================

        

«Eine Erfolgsstory.» (??)

Man spricht wieder über das Ozonloch. Jahrelang war das einst hochgehandelte Umweltproblem fast in Vergessenheit geraten. Neu ist allerdings das Etikett, unter dem das Ozonloch durch öffentliche Debatten segelt. Einst zuckte man schuldbewusst zusammen, wenn es genannt wurde. Heute aber steht es für 
Er­lösung. Das Ozonloch – genauer dessen ­Bekämpfung – gilt als Sinnbild dafür, wie ­einer globalen Bedrohung dank entschlos­senem Handeln der Staaten beigekommen werden kann.

Bei einer anderen Gefahr für die Erde müsse man international genau gleich vor­gehen, tönt es mahnend: beim Klimawandel.

Stellvertretend für diese Überzeugung sei Thomas Stocker angeführt, Klimaforscher an der Universität Bern. Er wurde einst fast zum Präsidenten des Weltklimarats gewählt. Als wichtigster Klimawissenschaftler der Schweiz gilt er auf jeden Fall. Stocker muss also wissen, was am Himmel abgeht. «Das Ozonloch ist 
eine Erfolgsstory», sagte er in einem Interview. Es zeige, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf ­reagieren, indem sie gewisse Produkte verbieten». Verboten wurden sogenannte Fluorchlor­kohlenwasserstoffe (FCKW), die als Haupt­treiber der Ozonschicht-Ausdünnung gelten. Dank der Einigung von Montreal 1987 konnte der Ausstoss an FCKW, die in Sprühdosen, Kühlschränken und Feuerlöschern enthalten sind, stark reduziert werden. An anderer Stelle sagte Thomas Stocker, die Massnahmen hätten dazu geführt, «dass sich die Ozonkonzentration in der Luft wieder erholen konnte».

Diese letzte Aussage ist allerdings schlicht falsch. Denn das Ozonloch gibt es noch immer. Und wie!

2015 erreichte es über der Südhalbkugel die zweitgrösste je gemessene Aus­dehnung. Laut der Uno-Weltorganisation für ­Meteorologie (WMO) gibt es auch keine Belege dafür, dass sich die Ozonkonzentrationen ­erholen. Man habe zwar «erste Hinweise auf eine Wende» gefunden, schrieb die WMO 2015, «aber diese sind statistisch noch nicht signifikant.»

Viel mehr als die Hoffnung, dass sich das Ozonloch irgendwann schliesst, gibt es nicht. Und das dreissig Jahre nach Montreal.

«Anomalie des Südens»

Es ist seit fast hundert Jahren bekannt, dass es 25 Kilometer über der Erdoberfläche eine Luftschicht gibt, die besonders viel Ozon enthält. Anders als in Bodennähe, wo Ozon als Reizgas wirkt und darum unerwünscht ist, hat dieses in der Höhe eine wichtige Funktion: Es schirmt die Erde vor schädlicher UV-Strahlung ab. Schon 1927 erkannten Forscher jedoch, dass die Ozonkonzentration stark schwanken kann. 1957 wurde über der Antarktis erstmals eine saisonal bedingte Ausdünnung der Ozonschicht nachgewiesen. Der britische Atmosphärenphysiker Gordon Dobson bezeichnete sie als «Anomalie des Südens». Es vergingen allerdings nochmals siebzehn Jahre, bis die ersten Warnungen auftauchten: 1974 gemahnten der Amerikaner Frank Sherwood Rowland und der Mexikaner Mario Molina im Wissenschafts­magazin ­Nature, dass der Ausstoss an FCKW die Ozonschicht bedrohe und damit das Leben auf der Erde (wofür sie später zusammen mit dem Niederländer Paul Crutzen den Nobelpreis für Chemie erhielten). Dann ging es Schlag auf Schlag: 1982 registrierten Forscher in der Antarktis eine deutliche Ausdünnung der Ozonschicht, glaubten aber zuerst, falsch gemessen zu haben. 1985 bestätigten die Briten Joe Farman, Brian Gardiner und Jonathan Shanklin in einem Nature-Artikel den starken Ozonverlust auf der Südhalbkugel. Das Ozonloch sorgte ­daraufhin weltweit für Untergangsstimmung. Das US-amerikanische Worldwatch Institute sagte «Millionen von zusätzlichen Toten» wegen Hautkrebs voraus. Die Umweltorganisa­tion Greenpeace sprach vom «letzten Akt für das Leben auf dem Planeten». Immer neue Horrormeldungen trafen ein:

«In Chile erblinden Schafe. Fische verlieren ihr Augenlicht. Bäume treiben seltsame Knospen.»

Mythos Weltrettung

Da erschien 1987 das Abkommen von Mont­real – ruckzuck zwei Jahre nach der Ent­deckung des Ozonlochs verabschiedet – als rettender Anker. Dank sukzessiv verschärften Verboten wurde der Ausstoss an FCKW in der Folge rasch zurückgefahren – was für die ­Industrie allerdings keinen allzu grossen Kraftakt bedeutete, standen doch valable ­Ersatzstoffe zur Verfügung. Der frühere ­Uno-Chef Kofi Annan bezeichnete das Abkommen von Montreal dennoch als «vielleicht erfolgreichsten internationalen Vertrag überhaupt».

Der Mythos der Weltrettung war geboren.

Ungeduldig wartete man in der Folge auf Anzeichen dafür, dass sich die Ozonschicht erhole. «Ozonloch über der Antarktis deutlich kleiner», meldete etwa die Frankfurter Allge­meine Zeitung (FAZ) 2004. Doch 2006 kam die Ernüchterung: Das Ozonloch über der Südhalbkugel erreichte eine noch nie gekannte Ausdehnung. 2010 meinte man erneut, es sei nun so weit: Das Protokoll von Montreal zeige messbare Effekte auf die Ozonschicht, schrieb Atmosphärenforscher Jörg Mäder von der ETH Zürich in einem Fachartikel. Doch das Ozonloch über der Antarktis verschwand nicht, stattdessen kam im hohen Norden noch eines dazu: 2011 erreichte die Ozonausdünnung über der Arktis ein Rekordausmass.

2014 glaubten die Wissenschaftler wieder, die Heilung der Ozonschicht nachgewiesen zu haben. «Das von Menschen gemachte FCKW-Pro­blem ist gelöst, diese Gefahr ist definitiv gebannt», so der deutsche Geophysiker Martin Dameris gegenüber der FAZ. «Wenn die Menschheit wirklich will, kann sie globale Probleme ­lösen», frohlockte der deutsche Spiegel. Doch 2015 verzeichnete das Ozonloch über der Ant­arktis, wie erwähnt, erneut riesige Ausmasse.

Tatsache ist: Die einschlägigen Messreihen auf der Südhalbkugel lassen bis heute auf keinen Trend schliessen, gemäss dem der Ozongehalt wieder steigt (Grafik 1, farbige Linien): Erkennbar in der Darstellung der WMO von 2015 ist zwar, dass die Werte zwischen 1980 
und 2000 gesunken sind, von einer Erholung seither ist aber keine Spur – auch wenn 
die ­Modellrechnungen der Wissenschaftler ­(grauer ­Bereich) eine solche in Aussicht stellen. Aufschlussreich ist auch die Ozonmessreihe der Schweizer Messstation Arosa, die bis 1926 ­zurückreicht (Grafik 2).

Sie zeigt zwar auf, dass die Werte zwischen etwa 1975 und 1995 ­tendenziell gesunken sind – wenn auch nicht so stark wie auf der Südhalbkugel. Von ­einem Trend nach oben in den letzten zwanzig Jahren ist aber nichts zu sehen.

«Geht doch!»

Ungeachtet dessen wurde 2016 erneut die Erholung der Ozonschicht verkündet. «Ozonloch über der Antarktis schliesst sich», mel­dete die Neue Zürcher Zeitung. «Geht doch!», schrieb die deutsche Zeit. Anlass für neue ­Zuversicht bot die Arbeit eines amerikanischen Forscherteams, die in der Fachzeitschrift Science erschienen war. Das Team hatte nicht wie üblich die Oktoberwerte für eine Beurteilung herangezogen, wenn das Ozonloch über der Südhalbkugel jeweils die grösste Ausdehnung erreicht, sondern diejenigen vom September: wenn die Polarsonne über der Ant­arktis gerade aufgeht und das Absacken der Ozonwerte erst einsetzt. Die Forscher kamen zum Schluss, dass sich anhand der Septemberwerte über die letzten Jahre eine leichte 
Verlangsamung des Ozonabbaus nachweisen lasse. Man habe sich bisher wohl zu sehr auf den Oktober konzentriert, verkündete Leit­autorin Susan Solomon. Dabei sei der September die entscheidende Zeit. «Wir können jetzt sicher sein, dass die Entscheidungen, die wir getroffen haben, den Planeten auf den Weg der Heilung gebracht haben», so Solomon.

Erst jetzt sei nachweisbar, dass das FCKW-­Verbot greife, attestierte ihr Fachkollege Thomas Peter von der ETH Zürich. «Wir sind sehr froh darüber, dass wir das nun deutlich ­sehen», sagte er gegenüber SRF. Auch für das gewaltige Ozonloch 2015 hatten die Forscher nun eine Erklärung bereit: Es sei ein Ausreisser. Der Ausbruch des chilenischen Vulkans Calbuco sei schuld daran gewesen.

Zwar kann heute kein Mensch sagen, ob das Verbot von FCKW je die Wirkung haben wird, die man sich von ihm erhofft. «Die Physik der Atmosphäre ist komplex, und viele Prozesse sind nicht vollständig oder ausreichend verstanden», musste etwa der deutsche Geophysiker Michael Bittner gegenüber der Zeit einräumen. Namentlich grösstenteils unbekannt ist, wie Sonnenaktivität, Winde oder Vulkanausbrüche auf die Ozonschicht wirken. Nicht undenkbar ist, dass das 1985 nachgewiesene Ozonloch ein weit­gehend natürliches Phänomen ist. Unverdrossen hält die Uno an ihrer Prognose fest, laut der sich die Ozonwerte bis etwa 2050 ­erholen werden – dank dem Verbot von FCKW.

Und sind die Messwerte nicht so, wie man sie gerne hätte, muss man offenbar nur anders messen. Denn so schnell lässt man sich eine Erfolgsgeschichte wie die Bekämpfung des Ozonlochs nicht nehmen.

==========================================================================

)* Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Aufstieg und Fall des Ozonlochs | Die Weltwoche, Nr. 26/2017 | 29. Juni 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

==========================================================================

 




K. G. Eckardt versucht sich auf dem GRÜNEN Parteitag mit „Klimawandel“ und zeigt dabei:…

Katrin Göring-Eckardt erzählt die ältesten, aufgewärmten Klimawandel-Kamellen und lässt sogar wieder den deutschen Hopfen sterben

Bei den Grünen wird jemandem, der auf der Rede-Kanzel steht, nicht widersprochen, sonst bekommt er „was auf die Fresse“:
Ruhrkultour:
Grünes Milljöh – “Einfach mal die Fresse halten” Wer nicht pariert, wird niedergemacht,
wie es auf dem Parteitag sogar der GRÜNE Tübinger OC, Boris Palmer erfahren musste.

Das muss die durch den Abbruch ihres Theologiestudiums für Kanzelpredigten prädestinierte K. G. Eckardt motiviert haben, auch eine Kanzelpredigt zu halten. Diese wäre im Nirwana der Geschichte verschwunden, wenn Frau Eckardt nicht noch der Meinung gewesen wäre, auch über den Klimawandel etwas sagen zu müssen.

Bundesparteitag B90/Grüne: Rede von Katrin Göring-Eckardt am 17.06.2017 YouTube Video eingebettet. Falls der Aufruf nicht klappt, der Link: https://www.youtube.com/watch?v=rZSeO261B6Y

 

Liebe Frau Katrin Göring-Eckardt. Wenn das Ihre Belege sind, dann haben Sie belegt, dass es keinen Klimawandel gibt

Video ab 13:28: Katrin Göring-EckardtDass entlang von Rhein und Ruhr und Elbe die Unwettergefahr steigt und Köln und Dresden immer wieder überflutet werden, oder dass selbst der deutsche Hopfen krank wird, weil es zu warm wird – ich meine, das Bier ist sogar in Gefahr – das ist relevant, liebe Freundinnen und Freunde …

Dass von diesen „Belegen“ nichts übrig bleibt, wenn man nur ein wenig nachsieht und nicht nur blind von irgendjemandem nachplappert, sei anbei gezeigt.

… entlang von Rhein und Ruhr und Elbe (steigt) die Unwettergefahr …

Unwettergefahren

Es ist schwierig, den Status von Unwettergefahren und seine Veränderung zu analysieren. Grund ist, dass die „amtlichen“ Informationsberichte, zum Beispiel des Umweltbundesamtes, zwar „Unwetter“ kennen, aber keine Daten dazu angeben. Der Grund ist einfach: Die Daten geben keinen Anstieg her, und da verzichten die amtlichen „Studien“ lieber auf „nicht klimawandelgerechte“ Darstellungen.

Im UBA Bericht mit 621 Seiten Umfang: [2] 24/2015 CLIMATE CHANGE Vulnerabilität Deutschlands gegenüber dem Klimawandel steht zum Beispiel Folgendes:
Nennung Unwetter: Zwei Mal, jedoch ohne Datenbezug
Nennung Unwettergefahr: Kein Eintrag

Angaben zu Extremereignissen sind nur in Möglichkeitsform gelistet und es wird zugegeben, dass auch diese nur auf unsichere Simulationen hin getroffen wurden: … Generell sind Aussagen zur zukünftigen Entwicklung von Extremereignissen mit hohen Unsicherheiten behaftet. Neben einer Zunahme von Temperaturextremen wird im Falle eines starken Wandels auch mit einer Zunahme von Starkregenereignissen und Hochwasserereignissen gerechnet. Für Hagel und Starkwind können dagegen keine belastbaren Aussagen getroffen werden. … Da jedoch zukünftige Klimawirkungen und das Auftreten von Extremereignissen aufgrund unsicherer Klimaprojektionen nur schwer abzuschätzen sind …
Das Wort „könnte“ steht im Bericht 533 Mal,
das Wort „unsicher“ 137 Mal.

Die nächste, umfangreiche, öffentliche Studie des Umweltbundesamtes: [3] 2015 Monitoringbericht Klimawandel, gibt gleich zu, dass es nichts (negatives) darüber sagen kann. Deshalb bringt es gar keine Daten dazu, sondern eine Statistik der Versicherungswirtschaft und ansonsten die „üblichen“ Vermutungen, dass es schlimm werden könnte, weil Simulationen es zeigen.

UBA 2015: [3] Der Zusammenhang zwischen Klimawandel und steigenden Schäden durch Unwetter gilt noch nicht als gesichert, allerdings sprechen viele Indizien dafür. So wird für die Zukunft von häufigeren und extremeren Starkniederschlagsereignissen ausgegangen, die Überschwemmungen zur Folge haben können. Für die Entwicklung der Häufigkeit und Intensität von Stürmen lässt sich derzeit in Deutschland allerdings noch kein klarer Trend erkennen. Auch Projektionen in die Zukunft sind im Gegensatz zu Temperaturvorhersagen schwierig

Bild 1 Schadensquoten Deutschland 1976 – 2012. Quelle: UBA [3]

Auch in der Datenbank des weltgrößten Rückversicherers findet sich keine negative Hinterlegung,

Bild 2 Anzahl Winterstürme in Deutschland seit 1980 (leider gibt es keine Daten zu Sommerstürmen). Quelle: MuRe NatCat-Viewer

und andere, amtliche Daten weisen auch nichts aus, was die Aussagen von Frau Eckardt bestätigen könnte.

Bild 3 Mittlere Windspitzen in FfM und Kassel seit 1970. Quelle: [5] Hessisches Landesamt für Umwelt und Geologie (Wiesbaden, 2012)

Bild 4 Monatliche Extremtemperaturen FfM seit 1950 (horizontale Linien vom Autor ergänzt). Quelle: [5] Hessisches Landesamt für Umwelt und Geologie (Wiesbaden, 2012)

Fazit
Amtliche Dokumente zeigen für Deutschland keinen Anstieg von „Unwettern“ an.

Niederschlag

Ein Bestandteil von „Unwetter“ ist häufig extremer Niederschlag. Deshalb die Nachschau, ob dieser negative Anzeichen eines Klimawandels zeigt.

Der vom DWD veröffentlichte Klimaatlas Deutschland zeigt nichts Negatives. Weder aktuell, noch in der Projektion für die Zukunft. Im Jahr 2016 wies der Niederschlag genau den Stand zu Beginn der Messreihe (1881) aus.

Bild 5 Niederschlagsverlauf Deutschland 1881 – 2016 Monatsauflösung mit Projektionen bis 2100. Quelle: DWD Klimaatlas Deutschland

Aufgelöst auf Nordrhein-Westfahlen, wozu das speziell genannte Köln und das Ruhrgebiet gehören, findet der DWD-Klimaatlas ebenfalls nichts Ungewöhnliches. Ausgerechnet in diesem – laut Frau Eckardt besonders betroffenem Bundesland – ist die Zukunftsprojektion zum Jahr 2100 noch langweiliger geradlinig, als für das gesamte Deutschland.

Bild 6 Niederschlagsverlauf Nordrhein-Westfalen von 1991 – 2016. Quelle: DWD Klimaatlas Deutschland

Der DWD geht in seinem „Nationaler Klimareport Deutschland 2016“ direkt auf Tage mit hohen Niederschlägen ein und berichtet auch dazu nichts Negatives, weder für Deutschland, noch für die ganze Welt:
Report: … Wird die Anzahl der Tage von mindestens 10 mm Niederschlag ausgezählt, so werden bei gleichzeitig großen jährlichen Schwankungen im Mittel über ganz Deutschland 21 Tage beobachtet. Diese Zahl hat sich in den letzten 135 Jahren kaum verändert.
Für Niederschlagsmengen von
mehr als 20 mm pro Tag ist keine Änderung der Anzahl seit den 1950erJahren festzustellen.
Dem niederschlagsärmsten Winter mit 69 mm im Jahr 1890/91 steht der niederschlagsreichste Winter mit 304 mm im Jahr 1947/48 gegenüber. Normal sind 181 mm (Mittel 1961–1990).
Analysen der höchsten Tagesniederschläge je Jahr zeigen weltweit an vielen Stationen
minimale Anstiege der extremen Niederschlagssummen. Bei nur wenigen Stationen (< 10 %) sind diese Trends signifikant.

Eine Detailrecherche des CLI zu Extremniederschlägen fand auch nichts davon:
Climate Service Center, Daniela Jacob at al.: Ergebnisse und Auswertungen der Recherche zur Entwicklung von Extremwetterereignissen in Deutschland

Bild 7 Anzahl der Tage mit mindestens 30 mm Niederschlag pro Jahr: Es gibt keinen langfristigen Trend; die Anzahl der Tage bleibt konstant.

Und wieder weist auch die so gerne angezogene Datenbank der Münchner Rückversicherung keinen negativen Klimawandeleinfluss aus.
Es gibt starke Schwankungen, aber keine erkennbare Zunahme solcher Ereignisse. Im Datenbank-Viewer der MuRe kann man die Daten nur noch bis 1980 zurück anzeigen. Zufällig hatte der Autor noch eine Kopie vor dieser Umstellung ab 1970. Damit ergänzt, verschwindet jeglicher, auch nur denkbare – negative – Klimawandeleinfluss mindestens für den Zeitraum ab 1970 völlig.

Bild 8 Daten der Münchner Rückversicherungsgesellschaft zu hydrologischen und meteorologischen Ereignissen in Deutschland seit 1970. Vom Autor aus zwei Zeitspannen des NatCat-Viewer zusammengesetzt.

Bild 9 Daten der Münchner Rückversicherungsgesellschaft zu Wetter-bedingten Ereignissen in Europa seit 1980

Fazit

Diese nochmals ganz aktuell recherchierten Daten zeigen, dass in Deutschland beim Niederschlag und Unwettern ein AGW-Klimawandel-bedingter, negativer Trend anhand der Messdaten in keinem Fall belegbar, eher sogar ausgeschlossen ist und man dies sogar für ganz Europa annehmen kann.

Es bestätigen sich damit wieder die schon oft durchgeführten Analysen:
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?
IKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

Einzig Computersimulationen und darauf basierende Vermutungen behaupten anderes – und denen wird geglaubt.

... und Köln und Dresden immer wieder überflutet werden

Köln und Dresden werden immer wieder überflutet. Das geschieht seit Beginn menschlicher Aufzeichnungen im Mittelalter. Von daher ist die Aussage der Frau Eckard immer richtig.
Frau Eckardt sagte es aber so, dass als würden sich diese regelmäßigen Überflutungen durch einen AGW-Klimawandel verstärken – und das ist eindeutig falsch!

Dresden und die Elbe

Ein Jeder wird sich an die Meldungen der letzten großen Überschwemmung von Dresen im Jahr 2002 erinnern. Kaum jemand aber daran, dass diese zwar ein selteneres, aber bei Weitem nicht einmaliges Ereignis war. So etwas kommt dort alle 50 … 100 Jahre vor.
Es kann also passieren, dass eine „Zwischengeneration“ davon verschont blieb und die inzwischen anstelle von Datenrecherchen übliche Befragung von Einheimischen [6] ergibt, dass so etwas (wie ein aktuelles Hochwasser) „noch nie in der Geschichte gewesen ist“.

Bild 10 Hochwassermarken der Elbe bei Meißen (27 km unterhalb von Dresden), Stadtmuseum. Quelle: [1]

Bild 11 Hochwassermarken der Elbe bei Pilnitz (ca. 14 km oberhalb von Dresden). Quelle: [1]

Dass Elbe-Hochwasser zyklisch sind und mit einem ominösen Klimawandel nicht zunehmen – sondern abnehmen – , zeigen neben den historischen Pegelmessungen auch Studien.

Bild 12 Hochwasserereignisdaten Elbe seit dem Jahr 1000.

Originaltext zu Bild 12: Figure 7. Occurrence of Elbe floods during winter (W; November–April) and summer (S; May–October), for all flood magnitudes (classes 1–3) and heavy floods only (classes 2–3). Kernel estimation (section 3.2.2.2) using a bandwidth of 35 years is applied to the flood dates (shown as bar charts), obtained from measurements and C. Weikinn’s documentary data (section 2.1) to calculate time-dependent flood risks,b l(t) (solid lines) with bootstrap 90% confidence band (shaded). Records before 1500 are likely not homogeneous (no confidence bands shown). Occurrence rates using documentary entries from database CLIMDAT for 1500–1799 are shown as dashed lines. Also shown are time periods of sunspot minima (SM, Spo¨rer Minimum; MM, Maunder Minimum; DM, Dalton Minimum) taken from Kurths et al. [1997] and the time period of major regulations of the river Elbe.
Quelle: M. Mudelsee Department of Earth Sciences, Boston University, Boston, Massachusetts, USA: Extreme floods in central Europe over the past 500 years: Role of cyclone pathway ‘‘Zugstrasse Vb’’

Bild 12 (Magnitude Elbe, S) und Bild 13 (Bild 13 mit vom Autor zugefügten Wassermenge von 2002) zeigen die extremen Schwankungen hydrologischer Ereignisse, vor allem jedoch eine stetige Abnahme seit dem Temperaturanstieg aus der kleinen Zwischeneiszeit (welche bereits um ca. 1600 begann) und einen Beleg, dass die in den Klimasimulationen programmierte Aussage: Mehr Wärme = mehr Überschwemmungsereignisse, falsch ist.

Bild 13 Elbe, Fließmengen. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Dazu noch die überschwemmten Flächen damals und heute:


Bild 14 Überschwemmte Flächen durch Hochwasser bei Dresden. Quelle: Leibniz-Institut für ökologische Raumentwicklung e.V. Dresden

Köln und Rhein

Der Autor hatte bereits vor Längerem die Hochwasser-Pegeldaten einer Langzeit-Messstelle von Köln in eine Grafik umgesetzt. Kann daran irgend jemand (außer einer GRÜNEN Vorzeige-Politikerin) eine Zunahme durch den ominösen AGW-Klimawandel erkennen? Entweder sind die historischen und auch aktuellen Daten falsch, oder Frau Eckardt ….

Bild 15 Hochwasserpegel Köln 1784 – 2013 lt. Daten der Stadtentwässerungsbetriebe Köln AöR (Grafik aus den Tabellendaten vom Autor erstellt). Y-Achse: Rheinpegel (m).

Man stelle sich vor, die Kölner könnten noch einmal mit Booten „über ihre Stadtmauer fahren“, wie es 1342 möglich war. Der sofortige Weltuntergang würde ausgerufen werden.

Hochwasser Deutschland allgemein

DWD Klimastatusbericht 2003. Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland: Historische Hochwasser
“… Die Flut von 1501 kam, wie die von 2002, im August und wütete ebenfalls im Erzgebirge und in der Elb-Region. Für derartige Sommerfluten ist häufig dieselbe Wetterlage verantwortlich: Ein Atlantiktief lädt sich über dem Mittelmeer mit Wasserdampf auf, driftet dann nach Norden, wo es die Wassermassen über Mitteleuropa
ausklinkt.
Dieser Wetterprozess bewirkte nach Meinung des verstorbenen Meteorologen Rainer Roth von der Universität Hannover auch die „Sintflut“ von 1342, Magdalenen-Hochwasser“ genannt, da die Katastrophe am Sankt-Magdalenen-Tag, dem 21. Juli, auftrat. Das Zentrum der Niederschläge lag damals im Einzugsgebiet des Mains, also weiter westlich als beim Elbe-Hochwasser 2002. Würzburg, Frankfurt und Köln verzeichneten
Rekordmarken, die seitdem nicht wieder erreicht wurden. In Würzburg riss das Wasser alle Brücken fort. Die Kölner konnten mit Booten über die Stadtmauer fahren. Wenn man also überhaupt von einer Jahrtausendflut sprechen will, dann war es die von 1342. Dieser Meinung ist auch der Hydrologe und Buchautor Martin Schmidt. In seiner Analyse der historischen Hochwasser im deutschen Rheingebiet kommt er zu dem überraschenden Schluss: „Die verfügbaren Informationen und Daten lassen das 20. Jahrhundert als eines erscheinen, das nicht einmal ein Jahrhunderthochwasser gehabt hat.“…”11

Daraus noch Hochwassermarken des Mains. Man muss weit nach unten suchen, um ein jüngeres Datum (das jüngste ist 1970) zu finden.

Bild 16 Hochwassermarken in Eibelstadt am Main. Quelle: DWD Klimastatusbericht 2003 Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland

Der Klimamonitoringbericht 2015 des UBA beschreibt die Hochwasserlage und Tendenz für Deutschland:
UBA: … Obwohl es im Betrachtungszeitraum mehrfach großflächige Hochwasserereignisse gegeben hat, ist kein signifikanter Trend abzulesen.

Bild 17 [3] UBA Klimainformation Bild 26

Wieder Daten der MunichRe, die angeblich den schlimmen Klimawandel belegen (sollen). Wieder zeigen diese auch dazu keinenn Beleg.

Bild 18 Anzahl der Flutereignisse Deutschland seit 1980. Quelle MuRE NatCat-Viewer

Bild 19 Anzahl relevanter klimatischer Ereignisse in Europa seit 1980. Quelle MuRE NatCat-Viewer

Als Ergebnis lässt sich nur feststellen, dass auch Hochwasserereignisse an den genannten Orten nicht entfernt durch einen AGW-Klimawandel zugenommen haben, oder dabei wären, es zu tun.

Fazit

Sehr geehrte Frau K. G. Eckardt. Sofern Sie, oder einer ihrer Mitarbeiter*innen dies lesen sollten. Fällt Ihnen auf, dass die Überschwemmungen in Deutschland zur Kaltzeit wesentlich schlimmer waren und die (geringfügige) Erwärmung auch hierzu ihren Segen mit einer mindestens niedrigeren Wiederholrate, meist jedoch auch zusätzlich niedrigeren Pegeln brachte?
Sofern Sie meinen, das wären (noch) zu wenig Belege, dann sehen Sie in den weiteren Recherchen dazu nach. Andere, als die zwei von Ihnen genannten Flüsse in Deutschland bestätigen es teils noch deutlicher:
EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen
EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis
EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

Wie oft muss der Hopfen noch den (simulierten) Klimawandeltod sterben?

Es gibt wohl nichts, was eine*n GRÜNEN Vordenker*in dazu veranlassen könnte, sich an der Wirklichkeit zu orientieren.
Ein „Untergangsguru“, der zum Klimaalarmisten mutierte Professor H. Lesch, interpretierte eine Studie über Hopfen falsch:
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
-und schon ist diese – einfach nur falsche – „Erkenntnis“ bei den Grünen nicht mehr auszurotten.

Bei EIKE einfach einmal nachzusehen, was dort darüber recherchiert und zusammengetragen wurde, ist für GRÜNE (Ver)Führungskräfte wohl nicht zumutbar, da dann ihr so schön gezimmertes Trugbild zusammenfallen müsste.
EIKE 22.08.2015: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel
EIKE 31.08.2016: Schlechte Erntejahre kommen ganz offenbar immer häufiger

In der freien Natur ging es dem Hopfen noch nie besser als heute

Mit dem Klimawandel ist der Ertrag nach Aussage des zuständigen Verbandes geradezu explodiert, während man um 1920 überlegte, den Anbau mangels Ertrag in Deutschland ganz einzustellen. Das jedenfalls zeigen die Ertragsgrafiken und sagte man auf einer Verbandstagung.

Bild 20 Hopfenertrag Deutschland (schwarz) mit 10-Jahres Mittelwert (rot) lt. Daten der LfL Jahresberichte Sonderkultur Hopfen (nur die von 2016 sind aus der Zeitung), ergänzt um die Differenz zum 10-Jahres-Mittelwert (gelb), rechte Achse (%)

Vortrag von Michael Doetsch, Paulaner Brauerei GmbH & Co. KG: [4] Verbesserung des Hopfenanbaus seit 1975
-Steigerung der Produktivität pro ha um das 8fache
-infolge des in Hüll entwickelten Prognosemodells zusammen mit den in Hüll gezüchteten Sorten (Magnum und Taurus als Beispiel) heute pro kg Alpha nur noch 4 % der Spritzmenge ausgebracht werden muss im Vergleich zu 1975. Bei Herkules sogar nur 3 %
-Infolge der Erhöhung des ha-Ertrages und der damit einhergehenden Reduzierung des Arbeitseinsatzes – dieser hat sich in dem Zeitraum von 1975 bis heute von 650 h/ha/Jahr auf rd. 200 h/ha/Jahr, d. h. rund 70 % reduziert! – war es möglich, in dem Wettbewerb mit den Billiglohnländern auf der einen Seite und dem fast schon industrialisierten Hopfenanbau in den USA auf der anderen zu bestehen, ja sogar die Nase vorn zu behalten.

Dass dies nicht nur für den Hopfen zutrifft, zeigt noch das folgende Bild.

Bild 21 Weizenertragsverlauf Deutschland seit 1961. Quelle: FAOSTAT

Doch gibt es einen möglichen Grund für in Zukunft sinkende Erträge: Der Übergang zu Niedrig-Gerüstsystemen [4]. Da man dafür andere Hopfensorten verwenden muss, sinkt dann zwar der Ertrag, aber noch deutlicher die Kosten, so dass es sich in Summe lohnen soll.
Nicht vergessen darf man, dass es der Hopfen im Sommer auch feucht liebt, ein Grund weshalb er in feuchteren, aber auch für Hagel anfällige Gegenden angebaut wird. Das Feuchte gefällt jedoch auch den Schadpilzen und Ungeziefer. Pestizide werden aber zunehmend verboten. Auch ein Problem, welches der Mensch, aber nicht der Klimawandel verursacht.
Wenn es so weit kommt, wird an der Ertragsminderung bestimmt der Klimawandel schuld sein.

Es könnte natürlich auch einmal sein, dass die Kälte wie um 1975 wieder kommt, als die „Wissenschaftler“ sich sicher waren, dass die nächste Eiszeit begonnen hat. Dann könnte der Hopfen wieder auf ein Achtel des aktuellen Ertrages zurück-geschrumpft sein. Die Hopfenbauern werden sich dann freuen, weil damit der von den GRÜNEN herbeigesehnte „natürliche Idealzustand“ erreicht ist.

… das ist relevant, liebe Freundinnen und Freunde

Dass (auch) die GRÜNE Führungsriege ihre Wähler nach Strich und Faden belügt, ist mit dem Video auf YouTube: „Ihr habt keine Ahnung, Kretschmann“ [7], in dem ein Tischgespräch von Herrn Kretschmann mit seinem Nachbarn auf dem Parteitag unbemerkt aufgenommen wurde, demonstrativ gezeigt (Özdemir erklärt in die Kamera, wie einig man sich Im Führungskreis auch mit Kretschmann gewesen sei. Im aufgenommenen Tischgespräch erzählte Herr Kretschmann seinem Tischnachbarn darüber jedoch genau das Gegenteil).

Das kann passieren (dass so etwas durch einen blöden Zufall bekannt wird), weil es bei allen Parteien so sein wird.

Nur, weil der neue SPD-Messias aus Würselen, verkündete:
DIE WELT – Freitag, 26. Mai 2017: M. Schulz: … „Keine politische Kraft darf zu keiner Zeit falsche Nachrichten verbreiten“
wird sich die Politik bestimmt nicht ändern. Falls sich Herr Schulz selbst in Zukunft daran halten würde, könnte sich die Anzahl solcher Politiker in Berlin aber wenigstens deutlich erhöhen.

… denn ohne Untergangsandrohungen hätte unsere Partei keine Inhalte und keine Berechtigung mehr

Die Rede von Frau Eckardt zeigt aber erneut, wie arrogant von der obersten politischen Kaste die Parteimitglieder und das Wahlvolk zum Narren gehalten werden. Frau Eckardt hat diese Rede mit Sicherheit gut vorbereitet, um ihre Pointe mit dem Bier setzen zu können. Bei Interesse an Fakten wäre sie dabei ganz schnell auf die Wirklichkeit gestoßen – und hätte darauf verzichten müssen.

So etwas macht man bei den Grünen jedoch nicht. Denn diese halten auf Parteitagen sogar mit den Fakten noch schlimmer umgehende Vorträge von Prof. H. Lesch aus:
EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann,
-zudem hat es die GRÜNE, Barbara Höhn ja auch schon so gemacht:
EIKE 22.08.2015: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel.

Wenn es zur „Belegführung“ der Ideologie erforderlich ist, beauftragt man bei willigen Nicht-Fachpersonen Studien, die das Unwahre in Wahrheit verwandeln:
EIKE 28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen,
wenn zur Untermauerung der Ideologie die dilettantisch und oberflächlich durchgeführten „Analysen“ der politischen „Wahrheitsfabrik“ nicht ausreichen:
EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2 (und Teil1)

Quellen

[1] WEB-Seite: Historische Hochwassermarken

[2] Umweltbundesamt: 24/2015 CLIMATE CHANGE Vulnerabilität Deutschlands gegenüber dem Klimawandel

[3] Umweltbundesamt: 2015 Monitoringbericht zur Deutschen Anpassungsstrategie an den Klimawandel

[4] Internationales Symposium: Hopfenanbau 2020 Wolnzach (5./6.5.2008; st)

[5] Hessisches Landesamt für Umwelt und Geologie (Wiesbaden, 2012), C. M. Weder: Erstellung einer Statistik über Extremereignisse und Klimaveränderungen in Hessen

[6] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[7] EIKE, 26.06.2017: Ein GRÜNER Spitzenpolitiker denkt heimlich – entlarvt den Unsinn der Elektroautos und nebenbei noch Lügen der Parteispitze




Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?

Uli Weber

Die Fragen in meinem Artikel auf EIKE, „Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt“, wurden zwar nicht beantwortet, aber dafür wurde der Artikel wieder einmal sehr kontrovers diskutiert. Ich nehme den dankenswerten Vorschlag eines Kommentators daher diesmal gerne auf, um ihn einmal über die tatsächlichen physikalischen Grundlagen aufzuklären. Denn eine solche Darstellung grundlegender physikalischer Zusammenhänge könnte schließlich auch noch weiteren Kommentatoren aufs Pferd helfen.

Also schaunmerdiesmal bitte ganz konzentriert hin:

Das Stefan-Boltzmann-Gesetz ist keine simple Rechenanleitung, sondern ein physikalisches Gesetz. Und das dort enthaltene Gleichheitszeichen ist kein mathematisches Gleichheitszeichen, sondern eine zwingende physikalische Bedingung.
Man kann dieses Gesetz also nicht einfach als mathematische Formel missbrauchen, um beliebige Durchschnittstemperaturen in irgendeine Strahlungsleistung umzurechnen oder umgekehrt. Vielmehr ist nach diesem Gesetz eine ganz konkrete Temperatur ganz ausschließlich einem bestimmten Strahlungswert zugeordnet. Und das Gleichheitszeichen zwischen Strahlung und Temperatur steht als zwingende Bedingung dieses Gesetzes für ein gemeinsames thermisches Gleichgewicht genau zwischen diesen beiden physikalischen Größen.

Das bedeutet, das Gleichheitszeichen im Stefan-Boltzmann-Gesetz bezieht sich auf einen gleichzeitigen Zusammenhang zwischen Strahlung und Temperatur, nämlich Temperatur erzeugt Strahlung oder Strahlung erzeugt Temperatur, und zwar jetzt, hier, in diesem Augenblick – und nicht erst später auf der Nachtseite der Erde. Und genau deshalb heißt dieser physikalische Zusammenhang ja auch Stefan-Boltzmann-Gesetz und nicht etwa Stefan-Boltzmann-Gleichung.

Die geometrischen Verhältnisse für die Sonneneinstrahlung auf unserer Erde sind eigentlich ganz einfach zu verstehen (beide nachfolgenden Abbildungen aus meinem neuen Buch „Klima-Mord“):

Das Sonnenlicht trifft praktisch als ebene Wellenfront auf die Atmosphäre unserer Erde. Daraus ergeben sich dann die nachfolgend dargestellten geometrischen Verhältnisse:

  • Die Strahlung der Sonne trifft mit einer Kreisfläche von (pR²) auf die Erde,
  • Diese Strahlung verteilt sich auf der Tagseite der Erde, also auf einer Halbkugel mit (2pR²)
  • Die Gesamtfläche der Erde ist eine Kugeloberfläche mit (4pR²)

Die beteiligen Flächen haben also das Verhältnis von 1 : 2 : 4.

Wie wir in der Erklärung des Stefan-Boltzmann-Gesetzes gesehen haben, kann man nach diesem Gesetz nur diejenigen Größen ins Verhältnis setzen, die direkt in einem gleichzeitigen thermischen Verhältnis miteinander stehen. Gleichzeitig beteiligt an der Temperaturgenese auf unserer Erde sind aber ausschließlich die einfallende Sonnenstrahlung mit (pR²) und die Tagseite der Erde mit (2pR²). Für die ursprüngliche Sonneneinstrahlung von 1.367 [W/m²] ergibt sich daher der Divisor 2 für den Strahlungsdurchschnitt auf der Tagseite der Erde.

Hier auf der Tagseite der Erde, und nur hier, gilt das Stefan-Boltzmann-Gesetz. Die Nachtseite der Erde hat mit der S-B Gleichgewichtstemperatur auf der Tagseite überhaupt nichts zu tun, weil sie ja keine temperaturgenerierende Sonnenstrahlung erhält.

Und jetzt widmen wir uns einmal dem Mond, der ja argumentativ immer wieder gerne als ein Beispiel für einen idealen atmosphärelosen Schwarzkörper herangezogen wird und, im Vergleich zur Erde, auch als Beweis für den „natürlichen“ atmosphärischen Treibhauseffekt herhalten muss. Ich zitiere einen Kommentar zu meinem Artikel auf EIKE:

Die Apollo 15 Landestelle hat eine ungefähre Durchschnittstemperatur von 252 K, Tmassah, das auf ähnlicher Breite, aber auf der Erde (Sahara) liegt, hat 295 K Durchschnittstemperatur.

Macht einen „Atmosphäreneffekt“ vom 43K. Oder liege ich mit meinem Ansatz falsch?

Meine Antwort: Ja, Sie machen da etwas grundsätzlich falsch, denn Sie stellen hier einen unzulässigen Vergleich an. Die von Ihnen genannten Durchschnittstemperaturen beziehen nämlich die Nachtseiten von Mond und Erde mit ein. Und die Nachtseite des Mondes hat nun einmal ein ganz anderes Temperaturverhalten als die Nachtseite der Erde. Nach den oben beschriebenen Randbedingungen des Stefan-Boltzmann-Gesetzes kann man nämlich nur die entsprechenden Tagestemperaturen miteinander vergleichen.

Aberschaunmereinfachmalgenauernach: In einem älteren Artikel auf EIKE wurden die am Landeplatz von Apollo 15 gemessenen Mondtemperaturen in einer Grafiküber drei Mond-Tage (= 3 x 29,5 Erdtage) dargestellt:

 

Abbildung: Oberflächentemperatur auf dem Mond am Landeplatz von Apollo 15 (lila/blau)
Aus einem Artikel auf EIKE, Primärquelle WUWT

Nach dieser Abbildung schwanken die Temperaturen über den Mond-Tag (=29,5 Erdtage) an der Landestelle von Apollo 15 zwischen etwa +90 °C und – 190 °C.

Wenn man jetzt für die Landeposition von Apollo 15 einmal die Stefan-Boltzmann Gleichgewichtstemperatur berechnet, dann erhält man einen ziemlich ähnlichen Temperaturverlauf wie die oben dargestellten Messwerte (Abbildung vom Autor):

Eckwerte dieser Berechnung:

Landepunkt von Apollo 15:                                            Mond @ 26° 7′ 55.99″ N 3° 38′ 1.9″ E

Solarkonstante:                                                                                      1.367 [W/m²]

Albedo des Mondes:                                                          0,11

Temperaturwirksame Solarstrahlung:                                   1.217 [W/m²]

dito bei 26,125° geogr. Breite:                    1.092 [W/m²]

Effektive Solarstrahlung Seff für α = [0° – 360°]:                   IF SIN α >0 THEN Seff = SIN α* 1.092 [W/m²]

IF SIN α <0 THEN Seff = 0 [W/m²]

Und wenn man diese beiden Abbildungen dann übereinander projiziert, ergibt sich eine ganz erstaunliche Übereinstimmung:

 

Kombination der beiden vorherigen Abbildungen WUWT/Weber:

Die gemessene und die mit S-B berechnete Temperatur am Landepunkt von Apollo 15 stimmen bei Tage hervorragend überein, während die minimalen (Nacht-) Temperaturen um etwa 70 bis 90 Grad differieren. Diese Differenz ist aber eher ein Problem zwischen Theorie und Praxis, denn in der S-B Berechnung wird für die Nachtseite des Mondes streng mit 0 [W/m²] gerechnet, während die Nachtseite in der Realität gestreute Sonneneinstrahlung von der Erde erhält, deren Albedo immerhin 30% betragt.
Abschätzung: Eine Temperatur von -196 °C entspricht nach Stefan-Boltzmann einer Strahlung von 2 {W/m²], dafür dürfte die Rückstrahlung der Erde von etwa 418 [W/m²] allemal ausreichen.

Warum schwankt aber nun die Temperatur auf der Erde so viel weniger als auf dem Mond?

Erde und Mond unterscheiden sich zunächst einmal durch ihre Tageslängen von 24 Stunden und 29,5 Erdtagen. Die Erde unterscheidet sich vom Mond weiterhin durch die thermische Speicherfähigkeit ihrer globalen Zirkulationen (Atmosphäre und Ozeane). Die kurze Tageslänge der Erde und ihre Wärmespeicher sorgen also für eine geringe Nachtabkühlung, während die durchschnittliche Nachttemperatur auf dem Mond schnell in den 3-stelligen Minusbereich absinkt.

Der Mond ist daher ein stark vereinfachtes Modell der Erde ohne Atmosphäre und Ozeane.

Was herkömmlich als „natürlicher“ atmosphärischer Treibhauseffekt bezeichnet wird, ist also lediglich der Wärmeinhalt der globalen Zirkulationen auf der Erde. Allein diese Wärmespeicher verhindern eine nächtliche Auskühlung unserer Erde in derselben Größenordnung, wie wir sie beim Mond beobachten können. Während nun aber der Mond ohne Atmosphäre und Ozeane auf seiner Tagseite die S-B Gleichgewichtstemperatur annähernd erreicht, wird auf unserer Erde ein Teil dieser Energie für die thermische Aufladung der globalen Zirkulationen „abgezweigt“. Und wegen dieser Wärmespeicher sinkt die Minimaltemperatur der Erde über Nacht dann wiederum höchstens um einige Dekagrad ab. Wenn man also auf der Erde überhaupt von einem Atmosphäreneffekt sprechen will, dann besteht dieser in einer Dämpfung der örtlichen Temperatur gegen maximale Schwankungen der solar verursachten Temperaturgenese, wie wir sie auf dem Mond beobachten können. Für eine Ortslage in mittlerer geographischer Breite auf der Erde (Potsdam) werden in der nachstehenden Abbildung die im Zeitraum zwischen 1890 und 2013 gemessenen maximalen Monatstemperaturen und die S-B Gleichgewichtstemperatur im Strahlungszenit der Sonne dargestellt:

Abbildung: Temperaturvergleich in °C für Potsdam über ein Jahr

Blau: Rechnerische S-B Temperatur im solaren Zenit @Potsdam

Rot: Gemessenes Monatsmaximum in Potsdam im Zeitraum
1890-2013

Anmerkung: Die S-B Gleichgewichtstemperatur im solaren Zenit wurde unter Berücksichtigung der durchschnittlichen globalen Albedo mit netto 780 W/m jahreszeitabhängig berechnet

Daten von: https://www.pik-potsdam.de/services/klima-wetter-potsdam/wetterextreme

Wie diese Abbildung zeigt, bleibt die örtlich gemessene Maximaltemperatur auf der Erde im jeweiligen Sommerhalbjahr deutlich unter der berechneten S-B Gleichgewichtstemperatur. In den Wintermonaten ist in mittleren und höheren Breiten dann der Wärmetransport der globalen Zirkulationen gegenüber der S-B Gleichgewichtstemperatur deutlich zu erkennen, hier noch verstärkt durch die vom Golfstrom verursachte Nordverschiebung der geographischen Klimazonen. Auf der Erde erhöht sich also treibhausmäßig gar nichts, sondern unsere Atmosphäre und die Ozeane wirken vielmehr wie ein natürlicher Pufferspeicher gegen sehr hohe und sehr niedrige Gleichgewichtstemperaturen aus der direkten solaren Einstrahlung.

So, damit ist jetzt hoffentlich endgültig geklärt, dass es gar keinen „natürlichen“ atmosphärischen Treibhauseffekt auf unserer Erde geben kann. Vielmehr lassen sich die gemessenen Temperaturen auf der Erde und auf dem Mond ganz allein aus der natürlichen Sonneneinstrahlung herleiten.

Am Ende habe ich es also meinen schärfsten Kritikern zu danken, dass ich hier, ausgehend von den Temperaturen am Landeplatz von Apollo 15, die Richtigkeit meines hemisphärischen Stefan-Boltzmann Ansatzes mit dem Mond als Kronzeugen nochmals überzeugend nachweisen konnte.

Anmerkung der EIKE Redaktion

EIKE versteht sich auch als Diskussionsforum für Sonder-Hypothesen. Dies bedeutet nicht, dass EIKE mit dem Inhalt solcher Beiträge einverstanden ist. Wir überlassen die Diskussion dem Kommentar-Bereich.




Deutschland brütet ein Windei aus

von Manfred Haferburg

Eigentlich sollte es jedes Kind aus dem Physikunterricht wissen: Energie lässt sich nicht wenden. Aber der Physikunterricht ist wohl auch nicht mehr das, was er mal war. Meinungsumfragen zur Energiewende vermeidet die Politik ungefähr mit der gleichen Ängstlichkeit, wie solche zur Massenimmigration. Nur so lässt sich der Eindruck aufrechterhalten, dass die Mehrheit der Deutschen der Energiewende positiv aufgeschlossen gegenübersteht. Ob das wirklich so ist, weiß keiner. Fakt ist aber, dass die Bürger per Gesetz gezwungen werden, die von der Regierung gewollte Energiewende zu bezahlen. Bis zum Jahr 2025 müssen geschätzt rund 520 Milliarden Euro aufgewendet werden. Eine vierköpfige Familie zahlt somit direkt und indirekt über 25.000 Euro für die Energiewende.

Die „Energiewende“ ist in Wahrheit eine „Stromwende“, denn die Politik hat noch gar nicht richtig damit angefangen, auch die Transportenergie (Elektromobilität) und Heizungsenergie (Wärmedämmung) zu wenden. Das Ziel der Regierung bei der Stromwende ist derweil die Steigerung des Anteils erneuerbarer Energien am Bruttostromverbrauch auf 35 Prozent bis 2020, auf 50 Prozent bis 2030, auf 65 Prozent bis 2040 und auf 80 Prozent bis 2050. Dieses Ziel kann allerdings mit der gegenwärtigen Physik und Meteorologie nicht erreicht werden.

Beim Ausbau der Windenergie wird geklotzt und nicht gekleckert. Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In den 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Die Ingenieure Thomas Linnemann und Guido S. Vallana vom VGB-Powertech haben jetzt eine Studie erstellt und dafür fünf Millionen Datensätze über die europaweite Windstromproduktion der letzten Jahre ausgewertet: Thomas Linnemann, Guido S. Vallana: Windenergie in Deutschland und Europa Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität Teil 1: Entwicklungen in Deutschland seit 2010

Die ganze Studie inklusive der detaillierten Präsentationsfolien finden Sie hier:

Das Ergebnis dieser Studie ist ernüchternd und zeigt, dass eine der wesentlichsten Grundannahmen von der die Energiewender beim Ausbau der Windenergie ausgehen, schlicht falsch ist.

Grundannahme: Irgendwo ist immer Wind und daher wird die Leistung bei weiterem Ausbau immer stabiler, so dass am Ende keine Energiespeicher gebraucht werden. Man muss nur genügend Windräder aufstellen.

Richtig ist: der Wind weht nicht überall zur gleichen Zeit gleich stark. Das heißt, das das hundert Kilometer weite lokale Wetter darüber entscheidet, wieviel Strom die in diesem Bereich aufgestellten Windräder produzieren. Allerdings ist Europa viel grösser und demzufolge schwankt auch die Windstromproduktion nahezu chaotisch mit dem regionalen Wind – mal viel zu viel, mal eben fast nichts. Und es gibt so etwas wie „Großwetterlagen“.

Das Argument: „Irgendwo weht der Wind immer“ und die daraus abgeleitete Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, ist allerdings an Hand der realen Daten niemals eingetreten. Das gilt auch für die vielgepriesenen Offshore Windräder. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern für ganz Europa. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert der Windstromproduktion von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Man bedenke: bei Windstille werden europaweit gerade mal 6.500 Megawatt von installierten 150.000 Megawatt Wind erzeugt. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der insgesamt installierten Nennleistung. Oder anders gesagt: von den 150 „Wind-Großkraftwerken von je 1000MW“ produzieren europaweit gerad mal noch sechs. Der Rest steht nur so rum und wartet auf Wind.

Die schlechte Nachricht ist: Windenergie trägt praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare konventionelle Backup-Kraftwerke.

Das heißt zu gut deutsch: wir werden auch bei noch viel umfangreicherem Windausbau den kompletten alten Kraftwerkspark brauchen und bezahlen müssen, da sonst die Lichter bei „Dunkelflaute“ ausgehen. Von der Dunkelflaute sind nämlich oft große Teile Europas gleichzeitig betroffen.

Für eine der nicht seltenen zweiwöchigen Dunkelflauten würde man zur Stromversorgung Deutschlands 21 Terawatt Stunden Speicherkapazität benötigen. Es existieren aber nur Speicherkapazitäten (Pumpspeicherwerke, alle anderen Speicher tragen gar nicht messbar bei) in einer Größe von 0,04 Terawatt Stunden. Um also diese zweiwöchige Dunkelflaute zu beherrschen benötigt man zusätzlich 17.500 Pumpspeicherwerke von je 200 MW, oder aber den kompletten konventionellen Kraftwerkspark von Kohle und Gas.

Und sollte wieder das Argument kommen: dann speichern wir eben überschüssige Windenergie als Gas, das dann die Versorgung bei Flaute übernimmt. Die Studie hat auch darauf eine Antwort. Die Kilowattstunde kostet bei diesem Verfahren auf Grund des grottenschlechten Wirkungsgrades mindestens 45 Eurocent, ohne Kosten wie Gewinn des Bertreibers, Netzentgelt und Steuern gerechnet, die locker diesen Preis nochmal verdoppeln. Wir reden also von einem Euro pro Kilowattstunde „Windstrom zu Gas“. Liebe deutsche Steuerzahler und Stromkunden – das gibt eine gigantische Eiskugelparty!

Link zum Fachtext der Studie: https://www.vgb.org/studie_windenergie_deutschland_europa_teil1.html?dfid=84459

Link zu den Präsentationsfolien (alle Fakten in grafischer Form) der Studie:

https://www.vgb.org/studie_windenergie_deutschland_europa_teil1.html?dfid=84458

Manfred Haferburg ist Autor des Romans „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.Anmerkung der Redaktion:

Auf diesen unleugbaren Umstand hat EIKE schon vielfach hingewiesen z.B. hier, hier oder hier

 

 

 

 

 

Manfred Haferburg ist Autor des Romans „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.