Rundbrief der GWPF vom 23. November 2017

Hurra! UK-Regierung sperrt weitere grüne Energie

Die Entwickler von Projekten erneuerbarer Energie haben einen massiven Schlag hinnehmen müssen, hat doch die Regierung verkündet, dass es bis zum Jahr 2025 keine neuen Subventionen geben wird.


Das Budget für Unterstützer-Programme wie Contracts for Difference (CfD) wurde bislang durch das Levy Control Framework (LCF) [etwa: Rahmen zur Kontrolle von Abgaben] gesteuert. Seit der Ankündigung im Frühjahrs-Budget, LCF zu beenden, hat die Regierung ihre neue Control for Low Carbon Levies entwickelt. [levy = Abgabe, finanzielle Belastung]. Damit sollen die grünen Steuern oder Abgaben begrenzt werden, welche auf die Stromrechnungen der Verbraucher aufgeschlagen werden.

Ein zusammen mit dem Budget vom Schatzministerium veröffentlichtes Dokument zeigt, dass die Regierung die Energiekosten „so niedrig wie möglich“ halten will. Daher werde es keine neuen Low-Carbon-Stromabgaben geben, bis „die Belastung durch diese Kosten zurückgeht“.

Weiter heißt es darin: „Bis die Gesamt-Belastung dieser Kosten Vorhersagen zufolge real und nachhaltig sinkt, wird Control keine neuen Low-Carbon-Stromabgaben zulassen. Auf der Grundlage derzeitiger Vorhersagen werden damit neue Abgaben bis zum Jahr 2025 ausgeschlossen“.

Full story

———————————————-

Grüne Abgaben ,werden Stromrechnungen um 200 Pfund steigen lassen‘

 

British Gas behauptet, dass die Kosten zur Finanzierung einer Hinwendung zu grüner Energie und die Unterstützung armer Familien die Stromrechnungen von Jedermann im nächsten Jahr um 200 Pfund werden steigen lassen. Dem Unternehmen zufolge wäre es fairer, die Kosten nicht auf die Stromrechnungen aufzuschlagen, sondern auf die Einkommenssteuer oder andere Steuerarten.

Die Vorschläge wurden von Ian Conn umrissen, dem Chef des Mutterkonzerns Centrica, der fundamentale Änderungen hinsichtlich der Rechnungen fordert.

Die Kosten der Regierungsprogramme, um die Abkehr von fossilen Treibstoffen zu stützen und die Energieeffizienz der Haushalte deutlich zu erhöhen, sind hoch umstritten. Da gibt es die Kosten der Subventionen zur Errichtung neuer Windparks und Solarinstallationen, wobei für den davon erzeugten Strom hohe Preise garantiert werden.

Gleichzeitig müssen Energiefirmen einen Mindest-Preis bezahlen für Energie erzeugt durch Kohle und Gas, selbst wenn die Marktpreise niedriger sind…

Mr. Conn verlangte, die Kosten der Hinwendung zu erneuerbarer Energie durch allgemeine Besteuerung aufzubringen und durch Aufschläge auf die Stromrechnungen, was seinen Worten zufolge die Armen am härtesten treffen würde.

Anfang dieses Jahres zeigte Centrica, dass der Preis für dieses Jahr 145 Pfund war. Und jetzt behauptet Mr. Conn, dass es im nächsten Jahr 200 Pfund pro Rechnung für jeden Haushalt sein werden. Centrica führt an, dass diese Kosten nicht den Rechnungen, sondern den allgemeinen Steuern hinzugefügt werden sollten. Steuern berücksichtigen die unterschiedliche Zahlungsfähigkeit der Menschen.

Full Story

Übersetzt von Chris Frey EIKE
Und hier der oben angekündigte Beitrag von Benny Peiser. Er schreibt in einem Kommentar aus der Sicht von Großbritannien:

Deutschlands Klimakirche ohne Dach

Benny Peiser
Deutschland steht vor einer politischen Krise, nachdem am späten Sonntagabend die Vier-Parteien-Sondierungsgespräche zur Bildung einer so genannten Jamaika-Koalition gescheitert sind. Zum ersten Mal seit der Weimarer Republik (1919-1933) sind deutsche Parteien mit Parlamentsmehrheit nicht bereit, eine Regierung zu bilden. Niemand weiß, was als nächstes passiert oder wie diese sich vertiefende Krise in absehbarer Zeit gelöst werden kann.

Die Unfähigkeit, sich auf strittige klima- und energiepolitische Fragen zu einigen, sowie die Meinungsverschiedenheiten über Migration haben das Ende der Verhandlungen bewirkt. Bemerkenswert: Die gescheiterte und zunehmend unpopuläre deutsche Klimapolitik steht im Mittelpunkt der Krise. Sie signalisiert auch den Zusammenbruch des jahrzehntealten deutschen Klimakonsenses.
Während die Grünen die sofortige Abschaltung von 10 bis 20 der 180 deutschen Kohlekraftwerke forderten, hielt die FDP an ihrem Versprechen fest, die Energiewende radikal zu reformieren und die Subventionen für erneuerbare Energien abzuschaffen.
Experten des Bundeswirtschaftsministeriums hatten die Teilnehmer der Sondierungsgespräche gewarnt, Deutschland werde seine rechtsverbindlichen Klimaziele für 2020 meilenweit verfehlen und das Erreichen seiner Ziele für 2030 den wirtschaftlichen Wohlstand des Landes gefährden. Das Ministerium warnte auch davor, dass jeder Versuch, eine radikale Reduktion der CO2-Emissionen zu erzwingen, „bis 2020 nur durch eine partielle Deindustrialisierung Deutschlands möglich wäre“.
Klimageschäft wie gewohnt ist für die Liberalen keine Option mehr. Die Partei befürchtet, dass ein schneller Ausstieg aus der Kohleverstromung, wie von den Grünen gefordert, gravierende soziale, wirtschaftliche und politische Problemen verursacht. Eine Fortsetzung der radikalen Klimapolitik würde die großen deutschen Kohleregionen treffen, nicht zuletzt in Ostdeutschland, wo die rechtsgerichtete Protestpartei Alternative für Deutschland (AfD) bei den Bundestagswahlen im September deutliche Unterstützung erhalten hatte.

Klimareligion und die grüne Zentralplanung

Die AfD gewann bei der Bundestagswahl im September knapp 13 Prozent der Stimmen und bildet mit über 90 Abgeordneten die drittgrößte Fraktion im Bundestag. Der Erfolg der Partei hat die politische Landschaft in Deutschland verändert und das Ende des grünen Konsenses zwischen den Mainstream-Parteien eingeläutet. Um die Energiekosten niedrig zu halten, setzt sich die AfD für die weitere Nutzung von Kern- und Kohlekraftwerken ein. Sie stellt sich gegen die Energiewende: „Energie muss bezahlbar bleiben und darf kein Luxusgut sein“, und versprach in ihrem Manifest die Abschaffung des Erneuerbare-Energien-Gesetzes (EEG) und aller Ökostrom-Subventionen, da Subventionen für erneuerbare Energien nur wohlhabenden Familien und grünen Unternehmen zugute kommen.
Ein kürzlich erschienener Leitartikel des „Wall Street Journal“ kommt zu dem Schluss: „Kein Wunder, dass die Wähler in Aufruhr sind. Die rechtsgerichtete Alternative für Deutschland (AfD) gewann überraschend 13 Prozent Stimmenanteil zum Teil aufgrund des Versprechens, die Energiewende sofort zu beenden. Eine neue Studie des RWI Leibniz-Instituts für Wirtschaftsforschung kommt zu dem Ergebnis, dass 61 Prozent der Deutschen nicht einmal einen Eurocent mehr pro Kilowattstunde Strom für die Finanzierung von mehr erneuerbaren Energien ausgeben wollen“.
Der dramatische Erfolg der AfD führt dazu, dass erstmals eine Partei im Bundestag vertreten ist, die sich den Plänen Deutschlands zur Reduzierung der CO2-Emissionen durch den Umstieg auf erneuerbare Energien widersetzt. Die Skepsis gegenüber Klima- und Ökostrom-Fragen hat in der deutschen Politik Schockwellen ausgelöst. Die etablierten Parteien befürchten, dass sie es sich nicht mehr leisten können, Forderungen der Grünen zu erfüllen, ohne weitere Unterstützung ihrer traditionellen Wähler zu verlieren.
Ohne die Entwicklung einer neuen, pragmatischen Politik und die konsequente Verteidigung einer billigen Energiestrategie angesichts einer rasch verblassenden (und alternden) grünen Bewegung wird sich Deutschland wohl kaum von den grünen Fesseln befreien, die den technologischen und wirtschaftlichen Fortschritt behindern. Ein großer Teil des grünen Ballastes, der Deutschland zurückhält, muss über Bord geworfen werden, wenn das Land politische Stabilität und wirtschaftlichen Pragmatismus zurückgewinnen will.
So wie die sozialistische Zentralplanung Ostdeutschlands kläglich scheiterte, bevor sie gestürzt und durch eine offene Gesellschaft auf der Grundlage von Freiheit und freien Märkten ersetzt wurde, müssen die Klimareligion und die grüne Zentralplanung Deutschlands verworfen werden, damit das Land zu Energierealismus und ökonomischer Vernunft zurückkehren kann.
Achse-Autor Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik. 
Sein Kommentar erschien zuerst in englischer Sprache.
Übersetzung von achgut.com




Nicht immer passt wirklich alles zusammen

Auf dem bekannten Klimablog WUWT (Whats Up With That) macht sich Willis Eschenbach unter dem Titel “Can A Cold Object Warm A Hot Object?“ Gedanken darüber, ob ein kalter Körper einen warmen Körper erwärmen kann. Ziel des Artikels ist es offenbar, das Modell einer sogenannten atmosphärischen Gegenstrahlung zu stützen.
Zunächst kommt Eschenbach anhand des in Abbildung 1 dargestellten Beispiels mit Geldflüssen auf den durchaus nachvollziehbaren Ansatz, die Nettoströme zu betrachten. Seiner dort dargestellten Logik zufolge sagt der zweite Hauptsatz der Thermodynamik nichts über die Einzelflüsse aus, sondern nur über den resultierenden Nettofluss. Im übertragenen Sinne verliert nach dem Modell von Eschenbach der Körper mit der höheren Temperatur also immer mehr Energie, als er im gleichen Zeitraum von einem kälteren Körper zugeliefert bekommt.

Bild: Willis Eschenbach


Abbildung 1: Das Beispiel von Eschenbach @ WUWT
Der warme Körper kann also durch das Zuliefern von Energie durch einen kälteren Körper nicht wärmer werden, als er schon ist, er kühlt nur weniger langsam ab. Das kann man sich anhand von 2 Tassen heißen Kaffee deutlich machen, eine Tasse lassen wir in der Küche stehen und die andere stellen wir auf die winterliche Terrasse. Im Ergebnis wird die Tasse in der Küche länger warm bleiben, als die auf der Terrasse. Beides ist über die Umgebungstemperatur leicht erklärbar.
Soweit, so gut – und auch noch nachvollziehbar, und damit wäre bisher der 2. Hauptsatz der Thermodynamik erfüllt.
Dann aber wird es ziemlich unübersichtlich, denn plötzlich kommt Eschenbach mit der Idee, ein kalter Körper konnte einen noch kälteren Körper hinter sich verbergen, also dafür sorgen, dass ein warmer Körper nicht in dem Maße abkühlt, wie er es eigentlich müsste. Um seine Argumentation zu stützen, stellt Eschenbach eine Energiebilanz unserer Erde nach Kiehl & Trenberth vor. Entgegen dem Original von K&T sei das von ihm vorgestellte Modell in Abbildung 2 aber für alle atmosphärischen Schichten und die Erdoberfläche energetisch ausbalanciert, Zitat:
“…this one is balanced, with the same amount of energy entering and leaving the surface and each of the atmospheric layers.

 
Abbildung 2:      Globales Energiebudget nach Kiehl&Trenberth aus Eschenbach @ WUWT
(die roten Zahlen wurden vom Autor zusätzlich eingefügt)
Die Zahlenangaben auf der linken Seite des Diagramms sind verständlich und nachvollziehbar, während die rechte Seite trotz der vom Autor in rot ergänzten Zahlenwerte auch weiterhin kryptisch bleibt. An dieser Stelle sei darauf hingewiesen, dass die übliche globale Energiebilanz nach Kiehl & Trenberth nichts mit der tatsächlichen Temperaturgenese unserer Erde zu tun hat, auch wenn sie im konventionellen S-B Ansatz zur Ermittlung einer theoretischen Durchschnittstemperatur immer wieder gerne verwendet wird, wie Abbildung 3 verdeutlicht.

Abbildung 3: Die praktische Anwendung des Stefan-Boltzmann-Gesetzes
In Abbildung 3A sieht man das klassische Stefan-Boltzmann-Experiment. Mit dessen Umkehrung kann man beispielsweise unmittelbar die Temperatur der Sonne bestimmen, wie Abbildung 3B zeigt. Das S-B Gesetz beschreibt also das Verhältnis zwischen der Temperatur eines erhitzten Körpers und seiner originären Strahlung im thermischen Gleichgewicht, das im S-B Gesetz durch das Gleichheitszeichen dargestellt wird. Und in Abbildung 3C sehen wir dann einen kalten Körper, der passiv von der Sonne bestrahlt wird. Egal wie man sich auch dreht und wendet, bei einem T4-Gesetz kann man der Sonneneinstrahlung nicht willkürlich eine beliebige bestrahlte Fläche auf der Erde zuschreiben, für die dann „freihändig“ eine Gleichgewichtstemperatur mit dem S-B Gesetz berechnet wird, sondern muss sich auf die direkt bestrahlte Hemisphäre beschränken. Und daher kann man aus einer durchschnittlichen Energiebilanz für die ganze Erde auch keine durchschnittliche Globaltemperatur ableiten, denn damit würde man das Stefan-Boltzmann-Gesetz als profane Rechenanweisung missbrauchen. Für unsere Erde als passiv beleuchteten Körper hat das Stefan-Boltzmann-Gesetz also nur eine recht begrenzte Aussagefähigkeit, nämlich:

Wenn die Erde eine Temperatur von -19 Grad Celsius hätte, würde sie nach dem Stefan-Boltzmann-Gesetz über ihre gesamte Oberfläche mit 235 W/m² abstrahlen.

Diese Aussage beweist aber nicht, dass die Erde tatsächlich eine solche Temperatur besitzt. Schon gar nicht kann man aber die solare Einstrahlung vierteln und damit über die gesamte Erdoberfläche verteilen, wie das auch Eschenbach in seinem Artikel macht. Diese Kritik führt uns dann direkt zu meinem hemisphärischen Stefan-Boltzmann Ansatz, nach dem die gemessene Durchschnittstemperatur unserer Erde von 14,8 °C durch den Wärmeinhalt der globalen Zirkulationen bestimmt wird. Dazu gerne ein anderes Mal mehr und jetzt zurück zu Eschenbach. Die zentrale Aussage seines Artikels ist, eine kalte Atmosphäre könne die Erde vor etwas noch kälterem schützen, nämlich vor dem Weltall, Zitat:

BUT a cold atmosphere can leave the earth warmer than it would be without the atmosphere because it is hiding something even colder from view, the cosmic microwave background radiation that is only a paltry 3 W/m2. And as a result, with the cold atmosphere shielding us from the nearly infinite heat sink of outer space, the earth ends up much warmer than it would be without the cold atmosphere.”

Diese Sichtweise von Eschenbach hat aber keinerlei physikalische Relevanz. Kälte ist nämlich nicht etwa als „negative Strahlung“ eine eigenständige physikalische Größe, sondern beschreibt umgangssprachlich lediglich die Abwesenheit von gefühlter Wärme. Die Physik bezeichnet dagegen jede Temperatur über dem absoluten Nullpunkt von 0 °K als „Wärme“. Eine solche Argumentation wie die von Eschenbachs geht also völlig an der physikalischen Realität vorbei und damit fällt auch der Ansatz, man könne einen warmen Körper aktiv vor einer auf ihn eindringenden Kälte schützen.
Vielmehr gibt es genau für diesen Fall die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes, die in Abbildung 4 dargestellt ist.

Abbildung 4:      Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes
Rot gestrichelt: Die T4-Beziehung des S-B Gesetzes zwischen Strahlung und Temperatur
Blaue Treppenfunktion: Das unterschiedliche Temperaturäquivalent für jeweils 235 W/m²
Nach der S-B Umgebungsgleichung ergibt sich bei einem beliebigen Abstrahlungswert in [W/m²] keine eindeutige Lösung für den betreffenden Temperaturbereich, in dem diese Abstrahlung stattfindet. Für eine solche eindeutige Lösung ist vielmehr die Kenntnis der S-B Umgebungstemperatur T0 zwingend erforderlich.
Der Knackpunkt von Eschenbachs Modell ist also die S-B Umgebungstemperatur T0, die eben nicht von der Temperatur des Weltraums oder einer ominösen atmosphärischen Gegenstrahlung vorgegeben wird, sondern allein vom Wärmeinhalt der globalen Zirkulationen.




Winter 2017/18 – lässt er Milde walten?

1. Die Bauernregeln und die „Milde Oktober- kalte Winterregel“
„Elisabeth (19.11., diesmal normal temperiert, windig und wechselhaft) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal fast temperaturnormal und verregnet), so wird es auch im Januar sein.“ Solche Regeln treffen keinesfalls immer zu. Insgesamt deutet die Mehrzahl der Bauernregeln auf einen sehr milden bis höchstens normalen Winter hin.
2. La Nina- was bedeutet das?
3. Nachlassende Sonnenaktivität- Menetekel der Abkühlung
Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2017 nahm die Fleckenzahl tendenziell weiter ab; oftmals war die Sonne schon fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte.
Dem noch intensiven 23. folgte der schwache 24. SCHWABE-Zyklus. Dieser ist mit maximal nur gut 100 Flecken einer der schwächsten Sonnenfleckenzyklen seit 200 Jahren:


In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionallagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst weit nach 2015 deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 20 Jahren kaum noch Erwärmung in Deutschland; in Zentralengland kühlte es sich gar leicht ab:

Bei globaler Betrachtungsweise (die „Erdmitteltemperatur“ ist strenggenommen ein wertloses Kunstgebilde) fehlt, trotz des starken El Ninos 2015/16, nun schon seit gut 20 Jahren eine signifikante „globale“ Erwärmung. Insgesamt lässt die geringe Sonnenaktivität 2017 einen eher normalen bis zu kalten Winter erwarten.
4. Die Zirkulationsverhältnisse
Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Wegen der sich aktuell vermutlich verstärkenden Ostwind-Phase der QBO (Erklärung siehe Punkt 7) liegt eine verstärkte Meridionalisierung mit Kälte im Laufe des Hochwinters aber noch im Bereich des Möglichen. Einhergehend mit der lebhaften Zonalzirkulation gab es schwere Herbststürme („XAVIER“ Anfang und „HERWART“ Ende Oktober). Die Zirkulationsverhältnisse weisen überwiegend auf einen eher milden Winter hin.
5. Die mittelfristigen Modelle
Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble- Modelle, bei denen man die Ergebnisse mehrerer Modell- Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen des Temperaturniveaus für etwa eine Woche im Voraus und vage für bis zu 15 Tagen.
Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.11. für den 10.12.2017 zeigt ein Tief über Skandinavien, flankiert von hohem Luftdruck über dem Atlantik und Osteuropa (Quelle NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es zumindest im Bergland oberhalb 600 bis 800 Meter winterlich; im Tiefland wäre nasser Schnee oder Regen bei leichten Plusgraden möglich:

Es deutet sich, auch nach den hier nicht gezeigten Einzel- Modell- Läufen, für die erste Dezemberdekade normal temperiertes, nasskaltes Wetter an; im Bergland oberhalb etwa 600 bis 800m könnte gar Dauerfrost mit guten Wintersportbedingungen herrschen; im Tiefland zumindest zeit- und gebietsweise nasser Schnee liegen; zumindest gelegentliche Nachtfröste mit Glättegefahr sind hier zu erwarten; tagsüber aber meist mehr oder weniger deutliche Plusgrade; vielleicht kurzzeitig im Nordosten auch mal schwacher Dauerfrost.
6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland
Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14 und 2015/16 und kontinuierlich steigender CO2- Konzentration (obere, grüne Linie) fiel das Wintermittel seit 30 Jahren, wenngleich nicht signifikant, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Doch die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine langsam beginnende Abkühlung hin.
7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel
http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/nao.mrf.obs.gif ):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet gegenwärtig ihre Warmphase. Ein kompletter AMO- Zyklus dauerte seit Beginn regelmäßiger Messungen immer etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase wahrscheinlich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/ . Die folgende Abbildung beginnt mit dem 10-jährigen Gleitmittel ab 1880/81 unter Einbeziehung der Werte ab 1871/72. Die AMO (grün) verhält sich fast spiegelbildlich zu NAO (obere schwarze Kurve), der Westwetterlagenhäufigkeit (unterste, violette Kurve) und den Wintertemperaturen in Deutschland. Die Gleitmittel wurden dann nochmals 15- jährig geglättet (fette Linien).

AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) verhält sich momentan ungewöhnlich uneinheitlich (Westwindphase in der unteren Stratosphäre und Ostwindphase in der oberen Stratosphäre). Nur wenn die Westwind- Phase in der unteren Stratosphäre enden sollte, könnte das Meridionale Lagen und damit einen Kaltwinter begünstigen. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 10. Dezember wird ein Polarwirbel vorhergesagt, der merklich gestört und über Grönland/Island am kältesten ist, was alle Möglichkeiten für milde oder kalte Witterungsabschnitte noch offen lässt:

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten auf einen eher normalen bis milden Winter hin.
8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 4,8 Millionen Km² gab es im Septembermittel 2017 eine etwas größere Eisfläche, als in den beiden Vorjahren, und deutlich mehr zum bisherigen Negativ- Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von mehr als 35 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:


Auch bei Betrachtung anderer Bezugszeiträume besteht keine Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php . Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html . Im Herbst 2017 war ein stärkeres Eiswachstum als in den Vorjahren zu beobachten, was den Polarwirbel stärken und milde Westlagen begünstigen könnte. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2017)
Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch so wie auch 2017 oder waren nur ganz kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2017 (September etwas zu kalt, Oktober zu feucht und viel zu mild) ähnelte, freilich nur sehr grob, dem der Jahre 1923, 66 und 2013, wonach der Winter 1923/24 zu kalt und die beiden letzten zu mild waren. Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckabweichung vom Langjährigen Mittel über Europa (Quelle: langfristwetter.com) sieht für die kommenden Wintermonate so aus:



http://www.langfristwetter.com/langfristprognose-europa.html . Zu warmen Sommern (auch der Sommer 2017 war trotz seiner sehr wechselhaften, nassen Witterung deutlich zu warm!) folgen meist milde statt kalten Wintern (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung freilich auch viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang. 10. Die Hurrikan- Aktivität (Nordatlantik) und Zyklonen- Aktivität (nördlicher Indik)
In diesem Jahr gab es bislang 10 Hurrikane und damit deutlich zu viele, was eher für einen kalten Winter spricht. Im Indischen Ozean blieb die Zyklonen- Aktivität 2017 jedoch unterdurchschnittlich, was auf einen eher milden Winter hindeutet. Die Wirbelsturm- Aktivität liefert diesmal also keine eindeutigen Hinweise auf den Charakter des Winters in Deutschland.
11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:
UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate zu mild.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

 


Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet einen eher zu milden Winter an.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.
Aktualisierung voraussichtlich Ende Dezember.
Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.11. 2017




Liebesgrüße aus Moskau – Vom Ausland unterstützte Umweltgruppen fallen unter Spionageverdacht

Fast 30 Umwelt-Nichtregierungsorganisationen (NGOs) sind damit gezwungen, der Regierung Berichte [über ihre Tätigkeiten, finanzielle und sonstige Unterstützungen und Kontakte] zu übermitteln. Bei  Nichteinhaltung sind Bußgelder fällig, stellte HRW fest. Von 29 Gruppen sind nun nur vier davon noch aktiv, während die übrigen nicht erreichbar sind oder nicht antworten wollen.
Einige der angegriffenen Gruppen argumentieren, dass die Verhängung von Geldstrafen und Genehmigungen es unmöglich macht, im Land präsent zu bleiben.

[[ de.wikipedia

Die Bellona-Stiftung ist eine internationale Umweltschutzorganisation mit Hauptsitz in Oslo. Sie hat Büros in Brüssel, bei der EU und in Washington, D.C. In Sankt Petersburg gibt es eine eigenständige Organisation.

Hauptziele sind nach der Satzung, für eine Förderung des ökologischen Verständnisses zu arbeiten sowie für den Schutz von Natur, Umwelt und Gesundheit aktiv einzutreten. Schwerpunkte sind die Gefährdungen durch die Atomenergie, Erdöl und Erdgas, der Klimawandel, die Ressourcen von erneuerbaren Energien und Energieeffizienz.

Bellona Murmansk als russische NGO aufgelöst

… hat der Leiter von Bellona Murmansk Andrey Zolotkov bestätigt, dass die Gruppe aufhören wird, als NGO zu operieren. Der Prozess der Kündigung begann bereits im April, als die Gruppe zu 50.000 Rubel Geldstrafe verurteilt wurde, weil sie sich nach dem russischen Gesetz über NGOs von 2012 nicht als ausländischer Agent registrieren ließ.  …]]

Berichte, dass Russland die öffentlichen Kampagnen von verschiedenen Umweltgruppen einschränkt, kamen hoch, obwohl das Land Präsident Donald Trump ständig kritisiert, weil dieser das Klimaabkommen von Paris verlassen hat.
Der Sprecher des Kremls, Dmitri Peskow, sagte Reportern während einer Telefonkonferenz am Anfang dieses Jahres, dass das Abkommen zahnlos sei, wenn die USA ihren Anteil des Abkommens nicht aufrechterhalten würden.
Gefunden auf The Daily Caller vom 22.11.2017
Übersetzt durch Andreas Demmig
http://dailycaller.com/2017/11/22/report-russia-uses-anti-spying-legislation-to-shut-down-subversive-enviro-groups/
 




Reduktion langlebiger Spaltprodukte

Das Problem

Irgendwann ist jedes Brennelement erschöpft und muß erneuert werden. Die “abgebrannten” Brennelemente werden von “Atomkraftgegnern” gern als “Atommüll” verunglimpft, obwohl sie recycelt werden können. Sie bestehen noch zu rund 96% aus Uran und Plutonium, die erneut als Brennstoff genutzt werden könnten. Sicherheitstechnisch betrachtet, stellt ihre ionisierende Strahlung ein – durchaus unterschiedliches – Problem dar. Es sind daher dauerhafte Abschirmungen in der Form von Wasserbädern, Sicherheitsbehältern etc. notwendig. (Hier der Artikel in nature)

Der Faktor Zeit

Je länger die Halbwertszeit ist, um so länger dauert es, bis dieser Stoff verschwunden ist. Wenn man von einer Gefahr durch ionisierende Strahlung ausgeht, ist damit der Zeitraum bestimmt, in dem man den Stoff von der Biosphäre fern halten sollte:

  • Es gibt unterschiedliche Arten ionisierender Strahlung, die auch biologisch unterschiedlich wirken. Strahlung, die z. B. von Uran und Plutonium ausgeht, ist nur dann bedrohlich, wenn sie innerhalb des Körpers frei wird. Nimmt man sie nicht in den Körper auf (Nahrung, Atemluft), sind sie genauso harmlos, wie jedweder anderer Stoff auch.
  • “Die Dosis macht’s”. Insofern ist die Konzentration eines radioaktiven Stoffes (z. B. im Trinkwasser) entscheidend.
  • Freigesetzte Stoffe können sich (z. B. über die Nahrungskette) anreichern. Dies gilt naturgemäß besonders für langlebige Stoffe. Insofern sollten sie möglichst gar nicht erst freigesetzt werden.

Der Endlager-Standpunkt

Überzeichnet man die Gefahr, die von radioaktiven Stoffen ausgeht, kommt man zu dem Schluß, man müßte sie quasi “für ewig” sicher einschließen. Der Begriff des “Endlagers” ist erschaffen. Ein hervorragender politischer Kampfbegriff, weil wie ein Gummiband dehnbar. Man muß nur die Gefährlichkeit – was auch immer darunter zu verstehen sei – ausdehnen und kommt schnell zu Zeiträumen, die nicht mehr als beherrschbar erklärt werden können. Gipfel dieser Gespensterdebatte ist die Erforschung irgendwelcher Piktogramme, die Außerirdischen oder sonst wie verblödeten Erdbewohnern die Lage eines “Endlagers” in Millionen von Jahren näher bringen sollen. Interessant ist dabei nur, wie locker man beispielsweise den Fallout aus unzähligen Kernwaffenversuchen nicht gekennzeichnet hat. Wären die Stoffe auch nur annähernd so gefährlich, wie sich Ökoaktivisten gern an den Lagerfeuern im Wendland erzählen, müßte die gesamte Menschheit bereits ausgestorben sein. Aber es geht dabei ja auch weniger um Fakten, als um Gesellschaftsveränderung.
Gleichwohl sollte man mit radioaktiven Abfällen verantwortungsvoll umgehen. Es ist das Verdienst der Kerntechnik, der erste Industriezweig zu sein, der sich von Anfang an um seinen Abfall Gedanken gemacht hat: Wiederaufbereitung und geologische Tiefenlager waren erfunden. Letztere aus einem ethischen Anspruch heraus, den Abfall nicht den folgenden Generationen als Problem und Kosten zu hinterlassen. Immer noch revolutionär, wenn man es mit dem sonst voll akzeptierten Umgang mit Abfällen und Deponien vergleicht.

Die Art der Beseitigung

Wenn man gebrauchte Brennelemente aufarbeitet, können sie weiterhin zur Energiegewinnung verwendet werden: In konventionellen Reaktoren als Mischoxid und in schwerwassermoderierten Reaktoren sogar in ihrer ursprünglichen Zusammensetzung. Bedingung ist die Trennung von Uran und Plutonium von den Spaltprodukten.
Verwendet man diesen aufbereiteten Brennstoff in Reaktoren mit schnellem Neutronenspektrum (meist mit Natrium oder Blei als Kühlmittel), kann man damit sogar die minoren Aktinoide “verbrennen”. Sie bilden sich aus Uran- und Plutoniumkernen, die trotz Neutroneneinfang nicht gespalten worden sind. Sie sind besonders langlebig und müssen zusammen mit Plutonium als Argument für eine “sichere Endlagerung über Millionen von Jahren” her halten.
Bleiben die Spaltprodukte übrig. Sie sind zumeist recht kurzlebig und strahlen deshalb sehr stark. So stark, daß sie sich aufheizen, deshalb gekühlt und sicher abgeschirmt werden müssen. Ein Problem, das sich nach einigen Jahrhunderten von selbst erledigt hat. Es wäre mit der Lagerung in simplen Bunkern technisch leicht beherrschbar, wenn es nicht einige wenige sehr langlebige Spaltprodukte geben würde. Hier setzt wieder die Ethik ein: Ist es zulässig, solche Stoffe unseren Nachfahren zu vererben? Es handelt sich um recht harmlose Stoffe (lange Halbwertszeiten bedeuten wenige Zerfälle pro Sekunde und damit grundsätzlich geringe Dosisleistungen) in sehr kleinen Mengen. Es geht hier um Halbwertszeiten von einigen Hunderttausend (Se79, Tc99) bis zu einigen Millionen (Zr93, Pd107, I129, Cs135) Jahren.
Man kann Atomkerne nur durch Neutronen in ein anderes Element umformen. Man benötigt also eine (möglichst starke) Neutronenquelle. Dieser Vorgang wird Transmutation genannt. Ein Favorit hierfür sind Spallationsquellen, bei denen Atomkerne beschossen werden und förmlich verdampfen. Sie sind sehr aufwendig, produzieren aber dafür auch große Mengen Neutronen. Grundsätzlich bleibt aber ein Problem: Die Stoffe existieren meist in einem Isotopengemisch. Man will aber eigentlich nur ein bestimmtes (besonders langlebiges) Isotop umwandeln. Alle anderen Kernreaktionen sind parasitär und kosten nur die teueren Neutronen. Ein Schlüssel hierfür, sind die energieabhängigen Einfangquerschnitte.

Beseitigung in schnellen Reaktoren

Reaktoren mit schnellen Neutronen sind hervorragend zur “Verbrennung” von Plutonium und minoren Aktinoiden geeignet. Darüberhinaus benötigen sie nicht einmal Natururan, sondern geben sich sogar mit abgereichertem Uran als Brennstoff zufrieden. Allerdings sind sie nur schlecht zur Beseitigung der langlebigen Spaltprodukte geeignet. Diese besitzen nur sehr kleine Einfangquerschnitte für schnelle Neutronen. Es gibt aber einige Energiebereiche, in denen sie solche Neutronen begierig aufnehmen. Verzichtet man auf einige bei der Spaltung freigewordenen Neutronen – im statistischen Mittel auf 0,3 Neutronen pro Kernspaltung – kann man sie zur Umwandlung abzweigen. Man muß sie allerdings noch auf die ideale Geschwindigkeit abbremsen.
Damit ergibt sich folgendes Reaktorkonzept:

  • Man baut einen zentralen Kern, in dem die eigentliche Energieproduktion aus Uran und Plutonium durch Spaltung mit schnellen Neutronen stattfindet.
  • In einem “schnellen Brüter” ist diese Zone von einer Schicht aus abgereichertem Uran umgeben. Die Neutronen, die aus dem Kern rausfliegen und nicht zur Aufrechterhaltung einer Kettenreaktion benötigt wurden, reagieren hier mit dem Uran und bilden zusätzliches Plutonium. Bei einem “Brüter” ist hier die Produktion von Plutonium größer als gleichzeitig davon im Kern verbraucht wird.
  • Verzichtet man nun auf einen Teil der “Brutrate”, hat man Neutronen für eine Umwandlung von Spaltprodukten zur Verfügung. Man muß diese nur noch – möglichst an Ort und Stelle – auf die “richtige” Geschwindigkeit abbremsen. Man kann in den “Brutmantel” eine gewisse Anzahl von Brennstäben einfügen, die mit einem Gemisch aus den zu beseitigenden Spaltprodukten und einem geeigneten Moderator gefüllt sind. Ein solcher Moderator könnte z. B. Yttrium Deuterid (YD2) sein. Er erfüllt die Bedingungen, selbst kaum mit Neutronen zu reagieren und die richtige Masse für die notwendige Abbremsung zu besitzen.

Die notwendige Verfahrenstechnik

Die Wiederaufbereitung wird erheblich komplizierter. Bei dem klassischen PUREX-Verfahren – wie es z. B. in Frankreich angewendet wird – gewinnt man möglichst reines Uran und Plutonium. Alles andere ist Abfall, der verglast und später in einem geologischen Tiefenlager “endgelagert” wird. Um diesen Abfall weiter zu entschärfen, müßte man in weiteren Schritten die Aktinoide und die langlebigen Spaltprodukte abtrennen. Beides ist sehr aufwendig und man sollte darüber nicht vergessen, daß es sich dabei nur um rund 4% des ursprünglichen Brennstoffs eines Leichtwasserreaktors handelt. Die zusätzliche Volumenverkleinerung ist somit äußerst gering.
Die langlebigen Spaltprodukte müssen nun noch in möglichst reiner Form gewonnen werden, um parasitäre Effekte zu vermeiden. Darüberhinaus muß ein eigener Wiederaufbereitungskreislauf eingerichtet werden, da nicht alle Spaltprodukte in einem Schritt beseitigt werden können. Ein gewaltiger Aufwand für so geringe Mengen. Darüberhinaus macht die ganze Sache nur wirklich Sinn, wenn mehr langlebige Spaltprodukte umgeformt werden, wie bei dem Betrieb dieses Reaktors wieder neu entstehen.

Schlußbemerkung

Der Aufwand für eine Transmutation ist sehr hoch. Gleichwohl erscheint der Erfolg durchaus verlockend. Wie Simulationen für den japanischen Monju-Reaktor zeigen, kann über einen Betrieb von 20 Jahren eine Reduktion der effektiven Halbwertszeit langlebiger Spaltprodukte von über 100.000 Jahren auf rund 100 Jahre erzielt werden.
Trotzdem darf die Frage erlaubt sein, ob der gewaltige (wirtschaftliche) Aufwand den (vermeintlichen) Sicherheitsgewinn aufwiegt. Andererseits wird Menschen mit Strahlenphobie auch dieser Aufwand nicht genügen. Es steht zu befürchten, daß das bekannte Rennen zwischen Hase und Igel der “Atomkraftgegner” lediglich fortgesetzt wird.