Tschernobyl – 30 Jahre danach

Was macht Tschernobyl so besonders?

Diese Katastrophe – Unfall wäre diesem Ereignis nicht angemessen – brach auch über die Fachwelt wie ein Tsunami herein. Man kann es nur verstehen, wenn man sich die Begriffe “Sowjetunion” (damals offiziell als das “Reich des Bösen” betitelt) – und “eiserner Vorhang” wieder vor Augen führt. Es gab kaum Informationen über Kernkraftwerke im “Ostblock”. Wenn überhaupt, wurden sie privat mit äußerster Zurückhaltung auf internationalen Kongressen etc. ausgetauscht. Für mich gibt es bis heute zwei Schlüsselerlebnisse für den damaligen Zustand: Das – auch im Westen sehr beliebte – Standardlehrbuch der DDR über Kernenergie (Tereza Khristoforovna Margulova, zahlreiche Bücher und über 300 Fachaufsätze), enthielt nur Zeichnungen und Bilder von westlichen Reaktoren. Es war also mehr ein “Wunschbuch” als ein Lehrbuch. Noch viel bewegender war für mich der offene Streit zwischen Edward Teller und der Reagan-Administration über die Geheimhaltungspolitik der USA: Edward Teller trat vehement für die Freigabe aller vorhandenen Informationen über die Sowjetunion ein, weil er der Meinung war, dies würde den Menschen die Augen öffnen über dieses System und zum unmittelbaren Zusammenbruch dieser “Weltmacht” führen.

In diese Stimmungslage platzte die Nachricht von Tschernobyl. Nicht etwa aus der Sowjetunion selbst, sondern aus Skandinavien und Frankreich. Man hat in beiden Ländern die radioaktiven Wolken mit den Überwachungssystemen der Kernkraftwerke erfaßt. Die Nachricht war nicht mehr geheim zu halten. Jedem Fachmann war klar, da mußte etwas unvorstellbares in der Ukraine passiert sein. Besonders kafkaesk mutete die Lage in der DDR an. Das “Westfernsehen” berichtete stündlich, die “Aktuelle Kamera ” machte noch tagelang weiter, als sei nichts geschehen. Ähnlichkeiten zu heutigem Regierungsverhalten sind keinesfalls zufällig, sondern eher von Kindheit an anerzogen. Was nicht in das eigene Weltbild zu passen scheint, wird lieber ignoriert und das eigene Nichthandeln läßt man regierungsamtlich als Besonnenheit verklären.

Die Reaktion in “West-Deutschland”

Die Wahrheit ist, das Land war überhaupt nicht vorbereitet. Kernkraftwerke sind sicher. Punkt. Nach dem Störfall von Harrisburg (TMI) galt das um so mehr: Reaktor Totalschaden, aber keine Verletzten und (praktisch) keine Freisetzung von Radioaktivität in die Umgebung – also alles richtig gemacht. Wer sich mit “schweren Unglücken” und Gegenmaßnahmen beschäftigte, arbeitete angeblich nur den “AKW-Gegnern” in die Hände. Ein schwerer Irrtum. Schon damals war Deutschland keine Insel der Glückseligen, umgeben von einem Meer ohne Kernenergie. Noch heute hält man eisern an dieser Ideologie fest. Man verklagt lieber Länder auf die Stilllegung ihrer Kraftwerke, als das man sich mit der Realität auseinandersetzt.

Durch die mangelnde Vorbereitung haben auch die Kernenergiebefürworter eine Chance verpasst. Man hätte die Ausbreitung, Kontaminierung von Boden und Lebensmitteln viel genauer dokumentieren können. Ein unschätzbarer Schatz gegen Kollektivdosen, LNT etc. Stattdessen waren die Messkampagnen höchst selten und unvollständig. Meist unorganisiertes Ergebnis privater Initiative.

Gleichwohl packte die “Angstindustrie” die Gelegenheit beim Schopfe. Tschernobyl sollte Greenpeace und Co. Millionen an Spendengelder einbringen. Allerdings kann man auch das nur im geschichtlichen Zusammenhang sehen. In der zweiten Hälfte der Siebzigerjahre begann der rapide Niedergang der sog. K-Gruppen an deutschen Universitäten. Die Genossen Trittin, Kretschmann etc. mußten sich umorientieren, wenn sie ihre Vorstellungen von Gesellschaftsveränderung und Sozialismus noch umsetzen wollten. Die Hunderttausende gegen Nato-Doppelbeschluss, Kernkraftwerk Brokdorf, Wiederaufbereitungsanlage Wackersdorf und Endlager Gorleben waren einfach zu verlockend. Erst 1980 gegründet, stellten die Grünen 1985 in Hessen die erste Koalition mit dem Umweltminister Joschka Fischer. Dies war noch keiner Partei “links von der SPD” gelungen.

Interessant, aber bis heute nicht aufgearbeitet, ist die selektive Wahrnehmung unter den Linken gewesen. Irgendwie waren ja russische “AKW” eigentlich gute “AKW”, weil sozialistische “AKW”. Bitte keine Fragen zum Sinn und Konstruktionsprinzip der RBMK stellen, denn für jeden gläubigen Linken gehört(e) es zu den Glaubensgrundsätzen, daß Ronald Reagan der Kriegstreiber gegen den friedliebenden Kreml war. Wenn man auch sonst keine Gelegenheit ausließ, auf die Verknüpfung von “AKW” und “Atombombe” hinzuweisen, war das im Zusammenhang mit Tschernobyl tabu. In dieser Zeit wurde der Mythos von der “Unbeherrschbarkeit” erschaffen, der bis heute in der “ungelösten Endlagerfrage” religiöses Dogma ist. Wenn es nicht einmal in der friedliebenden und nicht profitorientierten Sowjetunion möglich war, Kernkraftwerke “sicher” zu betreiben, dann mußte die Kerntechnik prinzipiell nicht beherrschbar sein. Heute mag das fast lächerlich anmuten, aber 1986 konnte sich kein westdeutscher Linker vorstellen, was real existierender Sozialismus darstellte oder gar, daß dieses System in wenigen Jahren kollabieren würde. In Deutschland geht halt Ideologie vor Fakten: War doch die Begründung der Bundeskanzlerin für ihre 180°-Wende nach Fukushima, ihr angeblich enttäuschter Glaube an die Unfehlbarkeit der japanischen Technik.

Besonders zynisch ist es, wenn in deutschen Qualitätsmedien die Aufräumarbeiten von Fukushima immer in einem Atemzug mit Tschernobyl genannt werden. Kein Wort über die ahnungslosen und schlecht ausgerüsteten Feuerwehrleute, die brutal in den Tod geschickt worden sind. Kein Wort über die (fast unmittelbar) neben der Ruine spielenden Kinder, die aus ideologischen Gründen nicht unverzüglich in Sicherheit gebracht wurden. Kein Wort über die “heldenhaften” Bauarbeiter, die direkt von den Gerüsten im Baltikum verhaftet wurden, um unter höchster Strahlenbelastung Dienst zu tun. Ganz ohne Meßgeräte, aber dafür mit jeder Menge Falschinformationen. Manch ein “Putinversteher”, der immer noch nicht begreift, warum man im Baltikum so gerne Nato-Panzer sieht, könnte hier eine Antwort (von vielen) finden. Tschernobyl war der letzte Sargnagel, den sich das Sowjetsystem höchstselbst eingeschlagen hat. Dies könnte auch eine Erklärung für “Grüne” sein, warum Tschernobyl nicht zu einer “Anti-AKW-Bewegung” in der Ukraine, Polen und dem Baltikum geführt hat. Anders als in Deutschland, vermag man dort zwischen Physik und Politik zu differenzieren.

Die Lehren aus Tschernobyl

Es gibt zahlreiche Lehren und Konsequenzen, die international aus dieser Katastrophe gezogen worden sind. Allein die technischen Berichte und Auswertungen füllen ganze Regale. Die Kerntechniker – aber leider nur die Techniker – haben ihre Lektion gelernt. Insofern ist Tschernobyl für die Kerntechnik, was die Titanic für den Schiffbau war. Ein unüberhörbarer Weckruf, der sicherheitstechnische Grundsätze erschaffen hat, die weltweit anerkannt und praktiziert werden: Baue keinen Reaktor mit positivem Reaktivitätskoeffizienten, baue immer ein Containment usw. usw.

Seefahrt tut not, wußte man schon im Altertum, obwohl sie bis zum heutigen Tage immer wieder Opfer fordert. Energieversorgung ist für eine Gesellschaft ohne Sklaverei mindestens genauso lebensnotwendig. Aus diesem Grunde hat man in rationaleren Gesellschaften die Kernenergie auch nicht als Teufelswerk verdammt. Es gilt Risiko und Nutzen abzuwägen und die Technik beständig zu verbessern. Ganz genauso, wie es die Menschheit in ihrer Entwicklungsgeschichte immer getan hat. Ohne diese Verfahrensweise, wäre ein Fortschritt im Seetransport, der Luftfahrt usw. nicht vorstellbar gewesen. Ganz nebenbei gesagt, hat die Kerntechnik in diesem Sinne vorbildliches geleistet. Nicht ohne Grund, ist sie zu der Energieform mit der geringsten Opferzahl geworden. Gleichwohl gibt es eine “opferfreie” Energieerzeugung nur im Märchen. Schon im Kindergarten weiß man, daß man mit einem Fahrrad schnell von A nach B gelangen kann, aber auch übel stürzen kann. Kaum ein Kind verzichtet deshalb aufs Fahrradfahren. Wer “voran gehen will”, kann das gerne tun, muß sich nur nicht wundern, wenn er irgendwann feststellt, daß die anderen viel schneller waren und schon längst beim Essen sind.

Tschernobyl hat die Angst-vorm-schwarzen-Mann genommen

Von Anfang an, hat die Angstindustrie daran gefeilt, ein Alleinstellungsmerkmal für die Kerntechnik zu konstruieren: Wenn ein “AKW explodiert”, gibt es Millionen Tote und die betroffene Gegend ist für zehntausende von Jahren unbewohnbar. Aus moralischen Gründen sei es deshalb nicht zulässig eine solche Technik zu erlauben. Das war das Totschlagargument in jeder deutschen Talkshow. Sofort standen sich der idealistische und hoch moralische Gutmensch und der profitgierige, unterbelichtete Vasall der “Atomindustrie” gegenüber. In diesen Momenten, konnte sich selbst eine Theaterwissenschaftlerin wie eine Greenpeace-Amazone im Schlauchboot vor einem Walfänger fühlen – selbstverständlich ohne Risiko auch nur die Frisur zu gefährden.

Nun hat in Tschernobyl tatsächlich der Super-Gau stattgefunden und das Kraftwerk ist explodiert, abgebrannt und hat den größten Teil seiner radioaktiven Stoffe wie ein Vulkan ausgeworfen. Schlimmer geht nicht. Nur, wo blieb der Weltuntergang? Eine Zeit lang, konnte man die Sache noch am köcheln halten, in dem man irgendwelche Geschichten über irgendwelche Mutanten in der Zone erfand. Heute ist die “Sperrzone” längst zu einer Touristenattraktion mutiert. In den Tagen nach der Katastrophe, schwelgte noch die gesamte Presse in apokalyptischen “Krebs-Epidemien”, die in einigen Jahren folgen würden. Nun, 30-Jahre später ist davon nichts eingetreten. Lediglich die staatstragenden Medien, wie z. B. der Deutschlandfunk, machen unbeirrbar weiter: “Kinder, die erst nach dem Reaktorunglück geboren wurden, leiden unter Erbgutschäden und Missbildungen” (Deutschlandfunk, 30 Jahre nach der Atomkatastrophe von Tschernobyl). Solch einen Schwachsinn trauen sich nur noch Medienbeamte mit garantierter Vollversorgung aus Zwangsbeiträgen. Das ist nicht mal mehr “Lügenpresse”, sondern einfach nur ganz schlechte Propaganda.

Es soll sogar Abtreibungen in Deutschland gegeben haben, weil Frauen fürchteten, irgendwelche Mutanten zur Welt zu bringen. In welcher Statistik werden eigentlich diese Opfer verbucht?

Die DPA teilt noch Anfang des Monats in ein und derselben Verlautbarung mit, daß 2015 bereits 15.000 Menschen die 30 km Todeszone (dieses Wort wird tatsächlich verwendet) als Touristen besucht hätten. Experten würden von Zehntausend Todesfällen infolge des Unglücks ausgehen. Sind solche Texte nun “Lügenpresse” oder schlichte Blödheit oder beides?

Interessant ist auch, welche Hektik bei jeder Diskussion zur Endlagerung, die Erwähnung von Tschernobyl auslöst. Es fällt sogar den Kirchenvertretern sichtlich schwer zu glauben, warum das, was in Tschernobyl ziemlich offen rumliegt, nach aufwendiger Verpackung und Lagerung in hunderten Metern Tiefe, sich in eine die Menschheit gefährdende Angelegenheit verwandeln soll. Dafür ist mindestens so viel Glauben notwenig, wie für die Verwandlung von Wasser in Wein. In diesem Sinne, setzt die Feststellung von Greenpeace (Bergungskonzept für Tschernobyl-Ruine fehlt; vom 14.4.16) allem die Krönung auf: 440.000 Kubikmeter langlebiger Atomabfälle lägen unter dem alten “Sarkophag”. Das entspräche dem fünfzehnfachen Volumen aller hochradioaktiven Abfälle deutscher Atomkraftwerke. Danke Greenpeace, manchmal hab ich euch richtig lieb. So lieb, wie nach eurer Kampagne gegen die Versenkung einer alten Bohrinsel in der Nordsee.

Nun sind aber die PR-Abteilungen der Angstindustrie flexibel. Man rückte deshalb – bis Fukushima – immer weiter von der Angstmache ab. Es wurde eine angebliche Unwirtschaftlichkeit von Kernkraftwerken und die “ungelöste Endlagerfrage” in den Vordergrund gestellt. Das erste Argument ist trefflich geeignet für Menschen, die immer noch Planwirtschaft für eine überlegene Wirtschaftsordnung halten. Wer nicht rechnen kann, glaubt halt jeden Zahlensalat. Das zweite Argument trieft vor moralischer Überlegenheit. Wer will schon seinen Nachfahren ein Problem vererben? Jedenfalls wenn es um “Atommüll” geht. Durch Windparks zerstörte Landschaften und Vogelpopulationen, Berge von Sondermüll-Sonnenkollektoren oder mit Rückständen aus der Biogas-Produktion verseuchte Bäche und Seen sind natürlich etwas ganz anderes. Der Glaube versetzt Berge, sagt man. Um es klar zu sagen, es gibt keine Energieversorgung ohne Abfälle und Schadstoffe. Wer das Gegenteil behauptet, ist ein Schlangenölverkäufer, der sein Gegenüber für ziemlich dämlich hält.

Was uns Tschernobyl wirklich lehrt

Große Katastrophen sind immer Eckpunkte in der Technikgeschichte. Man kann meist klare Lehrsätze aus ihnen ableiten. So auch aus der Katastrophe von Tschernobyl. Dies macht die Opfer zwar nicht wieder lebendig, aber spendet vielleicht ein wenig Trost, daß ihr Tod nicht so sinnlos war, wie es manchem erscheint.

•   Die militärische und die zivile Nutzung der Kerntechnik sind strikt auseinander zu halten. Dringt das Militär mit seiner Geheimhaltung in die “doppelt genutzten” Bereiche ein, sind die “Missverständnisse” vorprogrammiert.

•   Fukushima und Tschernobyl haben eines gemeinsam: Die Ignoranz gegenüber ausgewiesenen Fachleuten (Fachleute sind nicht zu verwechseln mit “Atomexperten”, die von Interessengruppen ernannt werden). In Tschernobyl war es das Reaktivitätsverhalten, in Fukushima die bekannte Fluthöhe von Tsunamis. Probleme müssen offen diskutiert und erforderlichenfalls gelöst werden. Ein wird-schon-gut-gehen darf es in der Kerntechnik nicht geben.

•   Kerntechnik kann man nur richtig betreiben oder man läßt es besser bleiben. Unabdingbare Voraussetzung ist Transparenz, Verantwortung und Qualifikation aller Beteiligten. Wenn Halbwissende anfangen mit einem Reaktor zu spielen, ist alles verloren. Dies sei allen gesagt, die den Zubau von Kernkraftwerken in Diktaturen vorbehaltlos bejubeln.

•   Es gibt keine absolut sichere Technik. Deshalb sollte man auch gar nicht den Anschein erwecken. Es werden immer Schiffe untergehen, Flugzeuge abstürzen, Windmühlen umfallen, Dächer durch Sonnenkollektoren abbrennen. Nach Tschernobyl – völlige Zerstörung und Freisetzung – ist aber die Obergrenze durch ein trauriges Experiment vorgeführt worden. Lassen wir nun auch bitte den Blödsinn, von Millionen “virtuellen Toten” zu schwafeln. 30 Jahre sind eine verdammt lange Latenzzeit. An welchem Tag soll denn das Massensterben einsetzen?

•   Wir kannten und kennen das Risiko (Schaden mal Eintrittswahrscheinlichkeit) sehr gut. Noch wichtiger: Es hat sich weder in Harrisburg, Tschernobyl oder Fukushima unvorhersehbares oder unbekanntes ereignet. Eher im Gegenteil! Es liegt nicht an der Technik als solches – wie immer gern von Grünen behauptet – sondern viel mehr an Handhabung und Aufsicht. Den Umgang gerade mit dieser Technik, kann man aber sehr wohl in den Griff bekommen, wie z. B. die US-Navy eindrucksvoll unter Beweis gestellt hat. Man muß nur den festen Willen dazu haben.

•   Man muß offensiv mit dem vorhandenen Risiko umgehen. Es darf kein Tabu geben. Schon bei der laufenden Ausbildung sollten Ereignisse durchgespielt werden, die über die “Auslegungsstörfälle” hinausgehen. Die Einrichtung von überregionalen “Katastrophenzentren” geht in die richtige Richtung. Schließlich ist die Antwort auf (unvermeidbare) Brände – trotz vorbeugendem Brandschutz – auch die Einrichtung von Feuerwachen.

•   Die Bevölkerung in der Nähe von Kernkraftwerken muß aufgeklärt werden und aktiv in den Katastrophenschutz einbezogen werden. Nur wer die Gefahren versteht und Schutzmaßnahmen kennt, kann im Ernstfall auch vernünftig handeln. Ganz besonders Fukushima hat gezeigt, daß (irrationale) Angst tötet.

•   Nur Übung macht den Meister. Dies gilt auch beim Katastrophenschutz. Die guten, alten ABC-Schutzübungen sind aktueller denn je. Deutschland kann sich nicht durch ein paar Windmühlen und Sonnenkollektoren aus der realen Welt wegzaubern. Wir sind von Kernkraftwerken und bald auch von Endlagern umgeben. Entweder sind die Gefahren durch Fessenheim, Bure etc. real, dann helfen keine Klagen dagegen, sondern nur Schutzmaßnahmen oder es geht einfach nur um politisches Theater. Terrorismus findet bereits vor der Tür statt. Deutschland zieht mit seiner anerzogenen “Atomangst” und seiner Weltabgewandtheit “Nuklearterroristen” geradezu magisch an.

Übernommen von Nukeklaus hier 




Warum es für die globale Erwärmung nach „Das war’s dann!“ aussieht

Auch andere Agenturen, die die Temperaturen in der Atmosphäre und nicht an der Erdoberfläche gemessen hatten, kamen zu dem Ergebnis, dass 2015 ein warmes Jahr war, wenngleich auch keines, das einen Rekord gebrochen hätte. Wie auch immer, den Ergebnissen vieler Wissenschaftler zufolge könnte das Jahr 2015 historische Bedeutung haben. Es könnte das Jahr sein, von dem an die globalen Temperaturen ihren Abwärtstrend begonnen haben und die Erde in eine längere Periode der Abkühlung bringen.

Wie auch das Jahr 1998, auf das sich die NASA bezog, war auch das vorige Jahr ein El-Niño-Jahr – ein Jahr also, in dem warmes Wasser aus dem Pazifik auf dem ganzen Planeten die Temperatur in die Höhe getrieben hat. El Niño-Ereignisse, auf die erstmals Fischer vor der Küste Südamerikas im 17. Jahrhundert aufmerksam geworden waren, gab es schon immer und treten unregelmäßig alle paar Jahre auf, jeweils gefolgt von einer Temperaturspitze von 6 bis 18 Monaten. Die El Niños der Jahre 1998 und 2015 waren besonders bemerkenswert, weil es Monster waren – jeder einzelne ließ die Temperatur im zentralen und östlichen Pazifik um 2,3°C steigen. Dies sagt das Climate Prediction Center der NOAA, und es macht beide zu den stärksten El Niños seit dem Beginn regelmäßiger Aufzeichnungen im Jahre 1950.

Anders gesagt, ohne den El Niño hätte man vermutlich schon 2015 einen substantiellen Temperaturrückgang gesehen relativ zum Jahr 2014, und nicht einen Anstieg um 0,23°C. Inzwischen bricht der El Niño immer mehr zusammen, und daher dürfte es in der zweiten Hälfte dieses Jahres und im nächsten Jahr kälter werden, möglicherweise sogar ziemlich stark, vor allem, da starken El Niños typischerweise ein La Niña folgt, die kalte Phase der Temperatur-Fluktuationen im Pazifik, in der die Temperaturen unter den Mittelwert absinken.

Aber nach Ende der La Niñas dürften die Temperaturen noch weiter zurückgehen. Seit den siebziger Jahren haben uns die Wissenschaftler gesagt, dass aufgrund der natürlichen glazialen Zyklen der Erde eine längere globale Abkühlung fällig ist, vielleicht sogar schon überfällig. Die sichtbaren, von der Sonne gelieferten Beweise zeigen eine unmittelbarere Warnung: Die Sonnenflecken sind weitgehend verschwunden. Das letzte Mal war dies während der Jahrhunderte langen Kleinen Eiszeit im 15. Jahrhundert der Fall. Damals hatten Astronomen mittels der gerade erfundenen Teleskope nur etwa 50 Sonnenflecken in einem 30-jährigen Zeitraum gesehen anstatt der vielen Tausend, die man normalerweise erwarten würde. Dieser Zeitraum, in dem die Themse zufror und in vielen gebieten Europas schwere Hungersnöte ausgebrochen waren, ist bekannt unter der Bezeichnung Maunder-Minimum, benannt nach dem englischen Astronom Edward Maunder. Während der letzten Jahre gab es zunehmend Hinweise von Astronomen, die annehmen, dass wir in ein neues Maunder-Minimum eintreten.

„Ich war 30 Jahre lang Sonnenphysiker. Ich habe niemals so etwas wie jetzt erlebt“, sagte Richard Harrison vor zwei Jahren der BBC. Er ist Leiter der Abteilung Weltraumphysik am Rutherford-Appleton Laboratory in Oxfordshire. Harrison stellt fest, dass die Rate, mit der die Sonnenaktivität zurückgeht, ein Spiegelbild des Maunder-Minimums ist, mit „wirklich kalten Wintern auf der Nordhemisphäre“. Prof. Mike Lockwood von der University of Reading zufolge gab es jüngst den raschesten Rückgang der Sonnenaktivität seit 10.000 Jahren. In einem Interview mit dem Wissenschaftsleiter der BBC stellte er fest, dass er eine Chance von 25 bis 30% für ein neues Maunder-Minimum sieht. Nur wenige Jahre zuvor sah er nur 10% Wahrscheinlichkeit.

Lockwoods Schätzung wurde im vorigen Jahr durch ein Team europäischer Forscher untermauert, und zwar auf einem Vortrag vor 500 Astronomen und Weltraumwissenschaftlern beim National Astronomy Meeting der Royal Astronomical Society in Wales. Ihr positiv aufgenommenes wissenschaftliches Modell zeigt, dass eine reduzierte Sonnenaktivität zu einer Mini-Eiszeit im Zeitraum 2030 bis 2040 führen wird. Eine weitere Studie zu Sonnenflecken aus dem vorigen Jahr von indischen, chinesischen und japanischen Astronomen, die im Journal of Geophysical Research veröffentlicht worden war, zeigt, dass eine neue Eiszeit bereits 2020 beginnen und 2030 bis 2040 ihren Höhepunkt erreichen könnte.

Daneben zeigen weitere Studien, dass die nächste Eiszeit schon begonnen haben könnte, deren Beginn vorübergehend maskiert wird durch El Niño. Habibullo Abdussamatov zufolge, dem Leiter des Pulkovo-Obersvatoriums der russischen Akademie der Wissenschaften, begann der Abstieg in eine weitere kleine Eiszeit Ende 2014. Das wäre dann die 19. Kleine Eiszeit, die die Erde während der letzten 7500 Jahre durchlaufen würde. Seine Analyse zeigt, dass diese Eiszeit besorgliche Tiefen erreichen wird. Bis zum Jahr 2060 erwartet er eine „starke Abkühlung“, was die Energiesicherheit des Planeten gefährden dürfte.

Im Gegensatz zu dieser düsteren Prognose für eine kalte Zukunft könnte Mancher Trost finden in der Arbeit von Wissenschaftlern am PIK in Potsdam. Die Menschen verbrennen Öl, Kohle und Gas und haben bereits so viel CO2 emittiert, dass es „ausreicht, um die nächste Eiszeit für weitere 50.000 Jahre zu verschieben“. [Fragt sich nur, ob da wirklich „Wissenschaftler“ arbeiten! Anm. d. Übers.] „Unter dem Strich lassen wir einen ganzen glazialen Zyklus aus“, ein Ergebnis, dass sie als unwillkommen betrachten.

Obwohl die letzte Kleine Eiszeit ihre Auswirkungen gezeitigt hatte (die Bevölkerung Finnlands sank um ein Drittel, die von Island um die Hälfte), hatte sie auch Vorteile. PIK-Direktor Schellnhuber erklärt: „Wir verdanken unsere fruchtbare Erde der letzten Eiszeit, die auch die heutige Landschaft geprägt hatte. Gletscher und Flüsse, Fjorde, Moränen und Seen sind deren Hinterlassenschaften“. Das sollte Trost für Einige sein, sollten wir uns in Kürze frierend in der nächsten Eiszeit wiederfinden.

Lawrence Solomon is executive director of Energy Probe, a Toronto-based environmental group. LawrenceSolomon@nextcity.com.

Link: http://business.financialpost.com/fp-comment/lawrence-solomon-why-it-looks-like-game-over-for-global-warming

Übersetzt von Chris Frey EIKE

[Ich weiß nicht … gibt es nicht auch in diesem Beitrag viel zu viele Konjunktive? Anm. d. Übers.]




Vor 30 Jahren: Tschernobyl, ein Rückschlag für die Menschheit

Aber so weit kam es in dieser Nacht gar nicht. Der Lastverteiler meldete sich nach ein paar Stunden und unterbrach die Lasteinsenkung bei etwa der Hälfte der Nennleistung – das schwache Landesnetz brauchte jetzt am Morgen die Energie unbedingt. Erst 12 Stunden später, also nach der Abendspitze, konnte die Leistungsabsenkung fortgesetzt werden.

Was weiß schon ein Lastverteiler über die Kernphysik? In den 12 Stunden, in denen die Lasteinsenkung gestoppt wurde, war die „Xenonvergiftung“ auf ihren höchstmöglichen Wert angestiegen. Xenon ist ein Spaltprodukt und entsteht durch die natürlichen Weiterzerfallsketten im Reaktorkern. Normalerweise wird es sofort wieder ausgebrannt. Nur bei niedrigerer Leistung reichert es sich 12 Stunden lang an und klingt erst danach durch Eigenzerfall wieder ab. Es wird als „Neutronengift“ bezeichnet, weil es Neutronen „auffrisst“, die somit nicht mehr für die Kernspaltung zur Verfügung stehen. Der Reaktor war am „ausgehen“, da am Ende der Kampagne nicht mehr genug frischer Brennstoff zum Kompensieren des Xenonverlustes zur Verfügung stand. Die Reaktorleistung fiel auf weniger als 5%, weit unter die für den Versuch geforderte Leistung.

Jetzt hätte das sicherheitsbewusste Personal den Versuch absagen und den Reaktor konsequent herunterfahren müssen und kein Mensch würden den Namen Tschernobyl heute kennen. Aber es sollte ja unbedingt der „Auslaufversuch“ gefahren werden.

Inzwischen war es wieder Nacht geworden und die Operatoren bemühten sich, das für den Versuch erforderliche Leistungsniveau von 30% zu erreichen. Durch den Leiter des Auslaufversuches, einen Elektroingenieur, der auch bloß nichts von Kernphysik verstand, wurde die Fahrmannschaft massiv unter Druck gesetzt. Das Einhalten der Sicherheitsvorschriften gehörte in der Sowjetunion ohnehin nicht zu den alltäglich gepflegten Gewohnheiten – wichtiger als Sicherheit war im Sozialismus stets „Produktivität für den Sieg des Sozialismus“ und das Ausführen der Befehle von Oben.

Das Noteinspeisesystem wurde unwirksam gemacht, damit es bei Druckabfall nicht den Versuch stört. Dann schalteten die Operatoren verbotenerweise mehrere Umwälzpumpen gleichzeitig ein, während sie – auch verbotenerweise – gleichzeitig viele Regelstäbe schnell aus dem Reaktor fuhren, um durch den Effekt des kälteren Wassers den leistungssteigernden Regeleffekt der Stäbe zu verstärken und im Reaktor mehr Neutronen zu gewinnen.  Sie wollten die Leistung um jeden Preis erhöhen. Eine solche Fahrweise war mit gutem Grund streng verboten.

Es funktionierte, nur viel zu schnell. Ein Teil des Reaktorkerns wurde durch diese Handlungen „prompt kritisch“ – das heißt, die Leistung stieg so blitzartig an, dass ein Gegenregeln und Abschalten mit den Regelstäben nicht mehr möglich war. Es kam zu einem sprungartigen Temperaturanstieg im Reaktor – gefolgt von einem Dampfdruckanstieg und einer heftigen Dampfexplosion, die einige hundert Druckröhren bersten ließ. Die Explosion des Dampfes war so stark, dass der tausend Tonnen schwere Betondeckel oberhalb des Reaktors angehoben wurde und schräg offen hängenblieb. Damit entstand ein sehr großes Leck aus dem Reaktor in die darüber liegende Leichtbau-Turbinenhalle, deren Dach einstürzte. Das Schutzgas, bestehend aus Helium und Stickstoff, welches ein Entzünden des Graphitkerns im Reaktor verhindern sollte, entwich vollständig. Die 1700 Tonnen radioaktiven Graphitziegel des Reaktorkerns begann zu brennen. Das Feuer entfachte eine Sogwirkung, von der die aus dem Reaktorleck entweichende Radioaktivität in große Höhen getragen und somit weltweit verbreitet wurde. Der nicht mehr gekühlte Brennstoff schmolz zum Teil und Spaltmaterial wurden freigesetzt.

Die Reaktorkatastrophe von Tschernobyl, der gefürchtete GAU, war am 26. April 1986 um 01:23:40 Uhr eingetreten. Und er konnte trotz großer Anstrengungen des kommunistischen Sowjetsystems nicht mehr verheimlicht werden.

Warum konnte es geschehen?

Der Tschernobyl Reaktor ist ein RBMK (Реактор Большой Мощности Канальный – Reaktor Großer Leistung in Kanalbauweise), ein russischer graphitmoderierter Siedewasser-Druckröhrenreaktor, einer von insgesamt 15 ausschließlich in der Sowjetunion gebauten Anlagen dieses Typs. Zehn von ihnen sind heute in den Ländern der ehemaligen Sowjetunion noch in Betrieb, der letzte soll 2030 geschlossen werden.

Es ist interessant zu wissen, dass der RBMK ursprünglich kein „ziviles“ AKW war. Die Konstruktion erlaubt es nämlich, während des Betriebes den Brennstoff zu dem Zeitpunkt zu bergen, wenn die Anreicherung des Plutoniums am höchsten ist. Das geht bei kommerziellen Reaktoren nicht. Die RBMK’s sind Militär-Anlagen, konstruiert zum Erbrüten von Waffenplutonium. Der Dampf war ursprünglich nur ein Abfallprodukt. So hat man an den ersten RBMK gar keine Turbine angeschlossen und mit dem Dampf einfach einen Fluss aufgewärmt. Später gab es in der UdSSR zwar genug Bombenplutonium, aber viel zu wenig Strom. So wurde die RBMK‘s umgewidmet. So wie man mit einem Panzer einen Pflug ziehen könnte, verwandelte man nun die RBMK‘s in kommerzielle Reaktoren zur Stromproduktion.

Um den Brennstoff während des Betriebes bergen zu können, besteht ein RBMK nicht aus einem Druckgefäß, sondern aus 1693 miteinander verbundenen Druckröhren. Jede könnte während des Leistungsbetriebes abgesperrt und geöffnet werden, um die zwei darin befindlichen Brennelemente zu bergen. Weil durch diese Bauweise aber den Brennstoff im Reaktor viel weniger Wasser umgibt als in einem kommerziellen Siedewasser- oder Druckwasserreaktor, benötigt man einen zusätzlichen Graphit-Moderator. Graphit, das ist reiner Kohlenstoff, war zu einem schweizerkäseartigen zylindrischen Block von 7 m Höhe und 12 m Durchmesser aufgeschichtet, in dessen Löchern die Druckröhren saßen. Dadurch war das Volumen des RBMK-Reaktorkerns mehr als 10-mal größer als bei einem normalen Reaktor der Bundesrepublik Deutschland.

Dieses monströse Design barg enorme Sicherheitsmängel:

Der RBMK hatte keinen „negativen Reaktivitätskoeffizienten“. Das heißt, er steigerte bei Kühlwasserverlust seine Leistung, statt zu verlöschen, wie es kommerzielle Reaktoren tun.

Tausende absperrbare Verbindungen der 1700 Druckröhren sind ein konstruktiver und instandhaltungstechnischer Albtraum. Die Radioaktivitätsabgabe ist um ein vielfaches höher, als bei normalen Anlagen.

Der riesige Graphitblock stellt eine extreme Brandgefahr dar. Deshalb muss er unter Schutzgas gehalten werden.

Der RBMK hat auch keinen Sicherheitseinschlussbehälter, genannt Containment, welches das Entweichen von Radioaktivität im Störfalle verhindert. Und das sind nur die wichtigsten Sicherheitsschwächen.

So unsicher, wie der Reaktor konstruiert war, wurde er auch betrieben. Die Anlage war so störanfällig, dass das Personal sich daran gewöhnt hatte, um nicht funktionierende Einrichtungen einfach herumzuarbeiten oder sie außer Betrieb zu setzen. Das betraf auch Sicherheitssysteme. Dieser laxe Umgang, verbunden mit einem kommunistischen Kommissar-Führungsstil mündeten in einem eklatanten Mangel an Sicherheitskultur. Das war in der UdSSR beileibe nicht nur in der Kernenergie so. Zu Gorbatschows Zeiten erfuhr die Welt durch „Glasnost“, die neue Offenheit, von einer sich immer schneller drehenden Spirale großer Industrieunfälle, die im Westen ironisch als „Katastroika“ bezeichnet wurde, statt „Perestroika“, das für „Umgestaltung“ stand. Wobei ich glaube, dass seinerzeit im Westen nur ganz wenige Menschen die Zusammenhänge, die zum GAU führten, überhaupt verstehen konnten. Schließlich waren die Details der RBMK-Technologie geheim.

Gravierende Konstruktionsmängel in Verbindung mit unsicherer Betriebsführung führte am 26igsten April 1986 zum GAU des Blockes 4 im AKW Tschernobyl, bei dem mindestens 60 Menschen den Tod fanden.

Was waren die Folgen der Tschernobyl-Katastrophe?

Für mich ist es schlimm genug, dass bei der Tschernobyl-Katastrophe laut einem Untersuchungs-Bericht der Vereinten Nationen zufolge mindestens 60 Menschen den Tod fanden.  Schlimm genug ist auch, dass die Schilddrüsenkrebsrate für Kinder stark anstieg, eine Krebsart die zum Glück heilbar ist. Es ist schlimm genug, dass Hunderttausende ihre Heimat durch Umsiedlung verloren, entwurzelt wurden und leiden mussten. Das alles ist furchtbar und traurig genug. Ich mag nicht teilnehmen an dem Wettbewerb: „Wer schätzt die meisten Todesopfer von Tschernobyl“. Es gibt abenteuerliche Zahlen von ebenso abenteuerlichen Studien, wo von Millionen Toten die Rede ist.

GAU heißt „Größter Anzunehmender Unfall“. Nach meinem Wissen lässt sich das Wort „größter“ nicht mehr steigern. Trotzdem gibt es Leute, die den Super-GAU erfunden haben. Ist für sie „Super-Grösster Anzunehmender Unfall“ überzeugender, weil furchteinflößender?

Der Block 4 des AKW Tschernobyl wurde in einer mörderischen Anstrengung provisorisch eingesargt. Dabei wurde auf die tausenden dort arbeitenden Menschen wenig Rücksicht genommen. Sie wurden als die „Liquidatoren“ berühmt für ihre Opferbereitschaft.

Derzeit errichtet man ein neues Einschlussgebäude – New Safe Confinement, ein Euphemismus für den neuen Sarkophag, der 100 Jahre halten soll. Die anderen Blöcke wurden weiter betrieben und sukzessive bis zum Jahre 2000 zum Rückbau abgeschaltet. Die halbfertig im Bau befindlichen Blöcke 5 und 6 sind konserviert und sollen eventuell eines Tages fertiggebaut werden, was aber extrem unwahrscheinlich ist. Am 23. April 2008 war der Kernbrennstoff aus der Anlage Tschernobyl entfernt. Am gleichen Tag nahm dort die Atommüll-Verarbeitungsanlage „Vektor“ den Betrieb auf, wo die kontaminierten Teile verarbeitet werden, um diese für eine Endlagerung vorzubereiten.

Um das Kraftwerk wurde eine Zone von 30 km im Radius evakuiert, um die Bevölkerung vor radioaktivem Fallout zu schützen. Insgesamt wurden bis zu 350.000 Menschen umgesiedelt. Die Stadt Prypjat wurde zu einer Geisterstadt. Die Zone wurde abgesperrt und sich selbst überlassen. Von 190,3 t radioaktivem Material, welches sich im Reaktorkern befand, wurden nach Schätzungen in den ersten zehn Tagen vom 26. April bis 5. Mai 1986 6,7 t in die Umwelt freigesetzt. Auch über die Auswirkungen der freigesetzten Radioaktivität auf Mensch, Tier und Pflanzenwelt gibt es je nach Überzeugung der Autoren und Interpreten höchst unterschiedliche und widersprüchliche Angaben.

Die Tschernobyl-Katastrophe bestätigte die Besorgnisse der Bevölkerung vieler Länder Europas gegenüber der Nutzung der Kernenergie und gab der grünen Bewegung großen Auftrieb. In einigen Ländern brach eine regelrechte Strahlenangst aus. Die katastrophal restriktive und beschönigende Informationspolitik der Sowjets und der Medien in den Ostblock-Staaten trug dazu bei, das Misstrauen und die Angst der Menschen ins Pathologische zu steigern. Die Westmedien hingegen steigerten die Panik der Bevölkerung durch immer neue Horrormeldungen. Auch im Krieg der Meinungen über Atomkraftwerke war die Wahrheit das erste Opfer. Eine vernünftige Diskussion über die Tschernobyl-Folgen scheint bis heute unmöglich zu sein.

Tschernobyl leitete das Ende der Kernenergieeuphorie in vielen Staaten ein. Italien und Österreich stiegen endgültig aus, bevor sie überhaupt richtig einstiegen. Es brauchte noch eine zweite Katastrophe in Fukushima, bis auch Deutschland panisch beschloss, endgültig aus der Kernenergie auszusteigen.

Tschernobyl aus heutiger Sicht

Tschernobyl war die furchtbarste Katastrophe der Nuklearindustrie und wurde zum Mythos der Gefährlichkeit der Nukleartechnologie. Fukushima war schlimm, aber harmlos im Vergleich mit Tschernobyl. Die „Zone“ von Fukushima ist bereits zu großen Teilen wieder besiedelt. Kein einziges Strahlenopfer ist zu beklagen. Japan ist nicht die Sowjetunion. Trotzdem wurden in Deutschland durch Fukushima mehr Reaktoren zerstört, als in Japan. Wir Deutschen haben eine Neigung zu Extremreaktionen – wir tun Dinge ganz oder gar nicht.

Als Resultat von Tschernobyl und Fukushima haben wir unsere einsame Energiewende. Derweil befindet sich die Welt inmitten einer energetischen Revolution, die „Fracking“ heißt. In Deutschland verbieten wir Fracking vorsichtshalber erst mal, ohne dass wir uns weiter den Kopf darüber zerbrechen, dass die USA durch Fracking zum großen Ölexporteur aufgestiegen ist, was die geopolitische Weltlage dramatisch verändert. Öl und Gas wurden billig wie lange nicht mehr. Dies macht die deutsche Energiewende noch absurder. Noch können die meisten Deutschen sich die extrem hohen Stromkosten leisten und weiter von ökologischen Kreisläufen träumen. Die Physik spricht da eine andere Sprache, aber wen interessiert schon die langweilige Physik? So muss es eben die Zeit richten.

Die „Todeszone“ von Tschernobyl wurde zum riesigen Naturschutzpark. Hier leben auf 4200 Quadratkilometer gerade mal etwa 120 Menschen. Sie sind heimlich zurückgekommen und werden stillschweigend geduldet. Die Zone ist heute ein Tummelplatz diverser Forschungsteams und ein Touristenmagnet. Die Bestände von Elch, Reh, Rotwild, Wildschwein und Wolf wachsen und gedeihen, trotz Kontamination und Strahlung. Offensichtlich ist die Störung durch den Menschen für die Natur schlimmer, als die Schädigung durch Strahlung, die sich bei den Tieren und Pflanzen in der Zone nicht erkennbar auswirkt.  Britische Forscher fanden gerade heraus, dass die Population seltener Vögel profitiert und weniger Erbgutschäden hat, als anderswo. Tiere und Pflanzen messen halt keine Becquerel und passen sich an. Vielleicht wird die gesundheitsschädigende Wirkung geringer Strahlendosen überschätzt. Großangelegte Langzeitstudien über die Überlebenden von Hiroshima und Nagasaki lassen diesen Schluss zu. In Hiroshima und Nagasaki konnte bisher bei Nachkommen der bestrahlten Atombomben-Überlebenden keine erhöhte Rate von vererbbaren Erkrankungen im Vergleich zur übrigen japanischen Bevölkerung festgestellt werden. Aber auch hier weisen andere Studien das genaue Gegenteil aus.

Die Welt steht erst am Anfang der Nukleartechnologie, ob Kernspaltung oder Kernfusion. Beide Prozesse erzeugt Radioaktivität und Abfälle. Viele Menschen denken, dass dieses Feuer ausschließlich den Göttern vorbehalten ist und der Mensch lieber seine Finger davonlassen sollte. Und vielleicht stimmt das ja auch, zumindest für manche Länder.

Die Zukunft der Nukleartechnologie wird nicht in Deutschland entschieden. Erst weltweit wird sich künftig zeigen, ob die Kernenergie eine saubere, sichere und ökonomische Technologie der Energiegewinnung zum Wohle der Menschheit ist. Ist sie nicht sauber, sicher und ökonomisch, wird sie verdientermaßen untergehen. Ist sie aber auf Dauer akzeptabel, wird sie ihren Beitrag zur Versorgung mit Energie leisten, so wie es all die anderen Energieträger auch tun. Gegebenenfalls dann eben außerhalb Deutschlands.

Eines ist für mich sicher: Es macht keinen Sinn, Technologien zur Energieerzeugung in Freund und Feind einzuteilen. Jede hat ihre Vor- und Nachteile. Durch jede Technologie können Menschen umkommen, durch jede Technologie können aber auch Menschen versorgt werden. Technologie ist keine Frage von Ideologie, sondern der Abwägung von Nutzen und Risiken. Das Falsche zu tun, ist Sünde. Nicht das Nötige zu tun, ist auch Sünde.

Aber – wenn irgendwo Menschen auf der Erde hungern, ist es fast immer das Resultat eines Mangels an Energie. Ohne Energie kann man nicht pflügen, sähen, düngen, ernten, transportieren, Nahrung verarbeiten und lagern. Wenn ein Land arm ist, ist es in erster Linie arm an Energie. Schauen Sie auf die nächtliche Weltkarte – Afrika ist der „dunkle Kontinent“ weil dort kein Licht zu sehen ist. Deshalb wird um Energie in Kriegen und Bürgerkriegen gekämpft. Wir werden bald neun Milliarden sein. Die Menschheit braucht jeden Zipfel Energie, den sie bekommen kann.

Tschernobyl war eben nicht nur ein GAU der Nukleartechnologie, sondern ein Rückschlag für das Wohl der Menschheit.

Über den Autor

Der Autor Manfred Haferburg ist Kernenergetiker und hat viele Jahre für eine internationale Organisation Kernkraftwerke und andere Risikoindustrien weltweit bei der Verbesserung der Sicherheitskultur und Organisationseffektivität unterstützt. Er hat so viele Kernkraftwerke von innen gesehen, wie kaum ein anderer Mensch.

Er gehört zum Autorenteam der „Achse des Guten“, einem der meistgelesenen deutschen Internet-Blogs. Sein Roman „Wohn-Haft“ mit einem Vorwort von Wolf Biermann erschien im KUUUK-Verlag.




Wärmerer April- Grund zur Freude oder ein Vorzeichen der „Klimakatastrophe“? Teil 2- Warum Flora, Fauna oder Landwirtschaft Wetter- und Klimaschwankungen erstaunlich gut verkraften

Bild rechts: So wünschen sich realitätsbewusste Naturbeobachter, Gärtner und Landwirte den April: Weißer Blütenteppich, kein Schneeteppich mehr. Foto: Stefan Kämpfe.

Eine kleine Aufzählung der Herkunftsgebiete wichtiger Kultur- und Wildpflanzen möge zum kritischen Nachdenken darüber anregen, ob mehr Wärme gut oder schlecht für Natur und Landbau sei:

Haselstrauch: Kleinasien

Meiste Getreidearten: Zweistromland und vorderer Orient

Süßkirsche: Schwarzmeergebiet

Kartoffel, Tomate: Tropisches Südamerika

Mais: Mittelamerika

Rosskastanie, Walnuss: Südosteuropa

Weißtanne (der „echte“ Tannenbaum): Südliches Mitteleuropa

Hainbuche: Südliches Mitteleuropa, in Norddeutschland nur in wärmsten Tieflagen

Sonnenblume, Robinie: Südwesten der USA

Zwiebel: Mittelasien

Kornelkirsche (Herlitze): Südliches Mitteleuropa, Mittel- und Schwarzmeergebiet

Gemüsespargel: Östlicher Mittelmeerraum (unsicher, da in Eurasien stark verwildert)

Viele Frühblüher wie Winterlinge, Schneeglöckchen oder Märzenbecher: Süd- und Südosteuropa, Kleinasien, Kaukasus- Region.

Diese Aufzählung ließe sich noch seitenweise fortsetzen. Sie zeigt deutlich: Die meisten unserer Wild- und Kulturpflanzenarten entstammen wärmeren Regionen. Mehr Wärme ermöglicht mehr Vielfalt, mehr Artenreichtum, mehr Chancen für Garten- und Landbau. Es ist eben keinesfalls nur der berühmt- berüchtigte Weinbau, welcher von einer Erwärmung profitieren könnte. Doch halt- was würde aus unseren seltenen, vom Naturschutz umsorgten wilden Orchideen, und was würde aus den „urdeutschen“ Eichen- und Buchenwäldern? Die meisten Orchideenarten sind eher submediterran, sie entstammen also wärmeren Regionen und treten im kalten Deutschland bevorzugt an wärmegetönten Südhängen auf. Man schaue sich das berühmte, orchideenreiche Leutratal bei Jena an- eine klassische Südhanglage. Und die Rotbuche sowie Stiel- oder Traubeneiche haben eine sehr weite ökologische Amplitude- sie könnten Temperaturanstiege von 3 bis 4 °C im Jahresmittel verkraften. Sollte sich unser Klima jedoch nur um 1,5 bis 3 °C abkühlen, könnten sie schon ernsthafte Probleme bekommen, denn ihr Verbreitungsgebiet reicht nur bis nach Südschweden, und der Fluchtweg in den wärmeren Süden wird von den Alpen verstellt.

Aber diese milden Winter- führen sie nicht zu Chaos und Irritationen in der Natur? Um das zu klären, schauen wir uns die Entwicklung dreier wichtiger Jahreszeiten in der Natur seit 1990 an- den Vorfrühling, welcher mit dem Beginn der Haselblüte startet und dessen Eintrittstermin von den Spätherbst- und Wintertemperaturen beeinflusst wird, als nächstes den Erstfrühling (startet mit dem Laubaustrieb der Wild- Stachelbeere im Februar oder März), und den Vollfrühling (Beginn der Apfelblüte im April/Mai):

Abb. 1: Während der terminliche Beginn der Haselblüte (gelb) extrem schwankt, variiert der Beginn der Apfelblüte (rosa) nur noch wenig, der Laubaustrieb der Wild- Stachelbeere liegt im Mittelfeld. Tag Null ist bei dieser Zählweise der Neujahrstag; negative Werte bedeuten also Blühbeginn schon im Dezember. Keiner der Trends ist statistisch signifikant, weil trotz deutlicher Verfrühung die Streuung der Einzelwerte bei der Haselblüte extrem groß ist.

Man erkennt die massiv abnehmende Schwankungsbreite („Streuung“ oder „Standardabweichung“, das Quadrat davon ist die Varianz) der Eintrittstermine vom Vor- zum Vollfrühling. Die im Vorfrühling oft extremen Schwankungen der Eintrittstermine werden also im weiteren Vegetationsverlauf geglättet. Während die Differenz zwischen frühestem und spätestem Beginn der Haselblüte noch beachtliche 108 Tage in Weimar beträgt, sind es beim Beginn der Apfelblüte nur noch maximal 31 Tage! Mit anderen Worten: Die Natur gleicht vieles aus, ein extrem milder Winter bedeutet keinen zwangsläufig extrem frühen weiteren Vegetationsverlauf, ein strenger nicht zwangsläufig einen extrem späten. Meist bleiben von dem ursprünglichen Vorsprung oder Rückstand des Vorfrühlings im Vollfrühling nur noch wenige Tage übrig. Verfrühungen oder Verspätungen von mehr als 10 Tagen sind im Vollfrühling nur dann möglich, wenn der März ebenfalls sehr warm (1990, 2014) oder sehr kalt (1996, 2006, 2013) ausfiel. Ähnliches zeigen auch andere Frühjahrsblüher an anderen Orten:

Abb. 2a und 2b: In Seesen/Kirchberg am Harz haben sich die Blühtermine der Salweide (oben, hier in Tagen seit Jahresbeginn, y- Achse) und der Schlehe seit 1987 praktisch nicht geändert.

2016 bremsten ein eher nasser, kalter, sonnenscheinarmer März und ein zwar relativ milder, aber wechselhafter April die ursprünglich sehr frühe Vegetationsentwicklung stark, und der zeitigsten Haselblüte seit 1990 (5. Dezember 2015) folgte ein normaler Vollfrühlingsbeginn (Beginn der Apfelblüte am 20. April 2016). Am 1. April 2016 sah es in Weimar noch so aus:

Abb. 3: Vom April- Schnee verschüttete junge Lilien in Weimar – kein Drama und auch nicht ungewöhnlich, doch verzögert ein solches Ereignis stets auch die Vegetationsentwicklung. Foto: Stefan Kämpfe.

Außer den Temperaturverhältnissen beeinflussen noch weitere Faktoren die Pflanzenentwicklung- die Tageslänge, die Lichtqualität und die sogenannte Dormanz. Als Dormanz (von lateinisch dormire = schlafen) werden Formen der Entwicklungsverzögerung bei Lebewesen bezeichnet. Diese sind oft genetisch und/oder hormonell gesteuert und verhindern beispielsweise ein vorzeitiges Blühen von Pflanzen oder Gehölzen in extrem milden Spätherbsten oder Wintern. Ähnlich wirkt die Tageslänge. Erst, wenn eine Pflanze oder ein Tier spürt, dass die Tage wieder eine bestimmte Länge erreicht haben, wird die Winterruhe beendet. Auch die Lichtqualität beeinflusst das Blühverhalten vieler Pflanzen. „Warmes“, infrarotreiches Sonnenlicht im zeitigen Frühjahr regt die Blühwilligkeit über die Bildung von Blühhormonen an. Damit sich die Pflanzen aber nicht totblühen, stoppt das zunehmend UV- reichere Licht im weiteren Verlauf des Frühlings die Bildung von Blühhormonen bei den Frühblühern und Gehölzen, die Wachstums- und Reifephase des Sommers beginnt. Dieser einfache Mechanismus erklärt auch, warum einige Gehölze oder Frühblüher in sonnigen, milden Herbsten mitunter erneut blühen- das Sonnenlicht ist dann wieder UV- arm. Damit wird auch klar, dass trübe Witterung, wie sie im Februar/März 2016 herrschte, die Blüte verzögern kann- nicht nur wegen des fehlenden Erwärmungseffekts, sondern auch wegen der fehlenden Signalwirkung.

Nun noch einige Bemerkungen zu den angeblich „wegen des Klimawandels“ bedrohten Zugvögeln, die angeblich „zu spät“ in die „schon zu weit entwickelte Natur“ zurückkehren. Bislang blieb eine „katastrophale Verfrühung“ der Naturentwicklung aus. Bei unserem Artikel über die DWD-Forsythien in Hamburg haben wir gezeigt, dass es diese Verfrühung in den letzten 35 Jahren überhaupt nicht gibt. Aber käme es wirklich zu einer massiven Verfrühung, was würde passieren? Wir betrachten eine fiktive Zugvogelpopulation und wollen diese mit P1 bezeichnen. Sie hat eine genetische Variabilität, die in etwa einer Normalverteilung entspricht. Die meisten Individuen dieser Population P1 haben eine ganz bestimmte Wärmetoleranz (Gipfel der Häufigkeitsverteilung), was sich unter anderem in einem bestimmten, mittleren Rückkehrtermin in das Brutgebiet nach Deutschland äußert, nehmen wir mal an, es sei der 5. April (94 Tage nach Jahresbeginn, erster Januar nicht mitgezählt!). Nun gibt es aber in P1 auch weniger an Wärme angepasste Individuen, die später zurückkehren; sie liegen links des Maximums der Normalverteilung. Rechts vom Maximum liegen die wärmetoleranteren Frühheimkehrer. Wird es nun im Brutgebiet dauerhaft wärmer, so finden diese die besseren Bedingungen vor, sie vermehren sich bevorzugt, bis anstelle von P1 eine Population P2 entstanden ist, deren meiste Individuen nun nicht mehr am 5. April, sondern schon am 25. März (83 Tage nach Jahresbeginn) heimkehren. In der unten stehenden Skizze haben wir diesen Vorgang grafisch dargestellt:

Abbildung 4: Aus den wärmetolerantesten Individuen der Population P1 (orange Fläche) entsteht die Population P2 (orange Kurve), deren meiste Individuen nun schon 83 Tage nach Jahresbeginn in das Brutgebiet heimkehren.

Selbstverständlich funktioniert diese Anpassungsstrategie der Natur mit Hilfe der genetischen Variabilität einer Art auch im umgekehrten Fall, also bei einer moderaten Abkühlung. Und bei dieser Betrachtung wurde das enorme Lernvermögen (Intelligenz) der Vögel noch nicht einmal berücksichtigt. So erlernen möglicherweise auch genetisch festgelegte „Spätrückkehrer“ schon nach wenigen Jahren die frühere Heimreise, weil sich die Bedingungen geändert haben. Nicht umsonst hat die Amsel, vor gut 100 Jahren noch ein scheuer Waldvogel, die Städte erobert. Sie erlernte das Leben in unmittelbarer Nähe des Menschen und profitierte außerdem vom wärmeren Stadtklima (UHI- Effekt!). Zudem ist das Nahrungsangebot durch die Hinterlassenschaften der Wegwerfgesellschaft im Vorfrühling oft ungleich höher. Unzählige Tier- und Pflanzenarten sind ihr mittlerweile gefolgt. Unter Biologen und Ökologen ist es längst kein Geheimtipp mehr: Willst Du seltene oder exotische Tier- und Pflanzenarten sehen, so gehe in die Stadt! Imker schätzen den früheren und länger anhaltenden Blütenreichtum der städtischen Gärten oder Parkanlagen.

Ein von Alarmisten oft angeführtes Phänomen sind sogenannte „Mastjahre“ (überreiches Blühen und Fruchten vieler Wald- und Obstgehölze), die seit einigen Jahrzehnten gehäuft auftreten. Angeblich seien sie eine Reaktion auf den „Klimawandel“ und die immer größere Umwelt- und Luftverschmutzung. Die Gehölze blühen überreich, um möglichst viel Nachwuchs zu erzeugen, ehe sie absterben. Ein kritischer Blick in die Klima- und Umweltdaten sowie in die Waldschadensberichte zeigt jedoch: Der befürchtete Klimawandel blieb trotz einer geringen Erwärmung aus, ebenso das vorhergesagte „Waldsterben“, und die Luftqualität verbesserte sich seit den späten 1980er Jahren dank der strengen Umweltauflagen enorm. Könnte das reichere Blühen also etwa das Gegenteil bedeuten- der Natur geht es besser, und warum? Wir hatten schon mehrfach über den positiven Einfluss der steigenden Kohlendioxid- Konzentration auf das Pflanzenwachstum berichtet, unter anderem hier http://www.eike-klima-energie.eu/climategate-anzeige/widerpart-zur-klimakonferenz-ein-loblied-auf-das-co2-die-erde-hat-nicht-zu-viel-sondern-zu-wenig-co2/ Unter anderem hilft CO2 dabei, unsere Ernteerträge zu steigern und die Ertragssicherheit zu verbessern. Wie erklärt sich dieser Zusammenhang? CO2 ist der wichtigste Pflanzennährstoff- ohne CO2 funktioniert keine Fotosynthese! Allerdings liegt die momentane CO2- Konzentration weit unterhalb der für Pflanzen optimalen Werte. Jegliche CO2- Konzentrationssteigerung bewirkt nach den Ertragsgesetzen daher einen überproportional hohen Ertragszuwachs. Das CO2 wird von den Pflanzen durch mikroskopisch kleine Spaltöffnungen an der Blattunterseite eingeatmet; diese ähneln kleinen Mündern. Beim Atmen verliert das Blatt jedoch Wasser- genau wie wir auch. Steigt nun die CO2- Konzentration, so muss das Blatt weniger atmen, es verliert weniger Wasser. Somit hat CO2 auch eine wesentliche ertragsstabilisierende Wirkung bei Dürren. Die folgende Abbildung verdeutlicht, dass in Thüringen etwa 39% der Variabilität der Getreideerträge (tendenzieller Anstieg) mit der steigenden CO2- Konzentration erklärt werden können:

Abb. 5: CO2 bewirkt Ertragssteigerung bei Getreide.

Dieser „Düngungseffekt“ des CO2 beschränkt sich nicht auf Nutzpflanzen, sondern führt auch bei den Wildpflanzenarten zu einer erhöhten Biomasse- und Samenproduktion. Die im Frühling 2016 um Weimar zu beobachtende reiche Hainbuchen- und Birkenblüte ist also kein Menetekel eines bevorstehenden Baumsterbens, sondern weist auf bessere Wachstumsbedingungen hin.

Abb. 6: Überreiche Hainbuchenblüte 2016- eher ein gutes Zeichen für den Zustand der Natur. Foto: Stefan Kämpfe

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf

Abb. 7: Im linken Bild wuchs der Baum bei einem CO2-Pegel von 385 ppm, wie er noch vor einigen Jahren auf dem Mauna Loa gemessen wurde. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was in etwa dem raschen Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm.

Eindrucksvoller als in dieser Bildserie kann nicht unter Beweis gestellt werden, dass CO2 den Pflanzen hilft und zugleich Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration der Atmosphäre von etwa 400 ppm für Pflanzen nicht optimal ist. Mehr C02 wäre besser

Welche Auswirkungen hätte eine Erwärmung auf Landwirtschaft oder Gartenbau? Zwei alte Bauern- Regeln helfen vielleicht weiter: „Stell‘n Blätter an den Eichen schon im April sich ein, gedeih’n im Lande Korn und Wein.“ Und „Je früher im Lande der Schlehdorn blüht, desto eher der Schnitter zur Ernte auszieht.“ Unsere Vorfahren (diese Bauern- Regeln sind mehrere hundert Jahre alt) wussten also die Wärme zu schätzen. Und die neue, erst 2012 entwickelte CRISPR- Cas- Gentechnik (Clustered Regularly Interspaced Short Palindromic Repeats), welche die Nachteile der bisherigen Gentechnik vermeidet, weil sie es ermöglicht, DNA gezielt zu schneiden und zu verändern (Genome Editing), schafft auch neue Möglichkeiten zur Züchtung wärmetoleranter Sorten.

Doch gibt es nach milden Wintern nicht viel mehr Schädlinge? Auch das erweist sich als weit verbreiteter Irrtum. Anhaltend starke Fröste dezimieren die Schädlinge nicht wesentlich- sie sind daran angepasst. Am ehesten leiden sie noch unter den Früh- und Spätfrösten der Übergangszeiten, aber ganz besonders unter milden, feuchten Wintern. Warum? Ihre Eier, Puppen oder Imagos verschimmeln und verfaulen dann regelrecht. Auch den Mäusen geht es unter dem Schnee besser als ohne schützende Schneedecke, denn dann haben die Greifvögel, Füchse und andere Mäusefresser ein leichtes Spiel. Somit braucht sich auch niemand wegen milder Winter oder der Aprilwärme zu sorgen- im Gegenteil! Genießen wir die milden Zeiten, falls sie denn noch anhalten sollten, eine mögliche Abkühlung hätte weitaus schlimmere Folgen, als eine Erwärmung.

In unseren letzten Artikeln hatten wir anhand des Datenmateriales des Deutschen Wetterdienstes gezeigt, dass die ersten drei Monate des Jahres seit 30 Jahren bereits eine konstante Trendlinie ausweisen bzw. sogar (noch) nicht signifikant abkühlen, also in Richtung kühler tendiert. Der April machte da noch eine angenehme Ausnahme, doch wie lange noch. Eine meist unfreundliche, kalte zweite Aprilhälfte 2016 war vielleicht schon ein erster Vorgeschmack auf das Aprilwetter der kommenden Jahrzehnte. Ein Blick auf die Temperaturen des fast WI-freien Standortes Amtsberg-Dittersdorf im Erzgebirge scheint die Aprilfreuden zu trüben.

Abb. 8: In dem fast wärmeinselfreien Ort Amtsberg-Dittersdorf wurde es die letzten 30 Aprilmonate seit 1987 auch wärmer, eine lineare Trendlinie hat den Steigungsfaktor y = 0,03, doch auch ohne die Polynom 2- Linie wäre mit den Augen ein Stillstand seit 19 Jahren erkennbar, der allerdings (noch) nicht statistisch signifikant ist.

Zusammenfassung: Die meisten Nutz- und viele Wildpflanzen entstammen wärmeren Regionen. Verschiedenste Regelmechanismen in der Natur wie Dormanz (Ruhephasen) oder Lichtreize verhindern auch nach milden Wintern ein allzu zeitiges Frühlingserwachen, was sich anhand der Phänologischen Beobachtungen aus Weimar und anderen Orten in Deutschland belegen lässt. Mittels genetischer Varianz können sich Flora und Fauna an geänderte Verhältnisse, wie etwa Erwärmung, anpassen. Die reichere Blüte vieler Wild- und Obstgehölze weist auf günstigere Umweltbedingungen hin; die weitaus größte Zahl der Nutz- und Wildpflanzen profitiert von höheren CO2- Gehalten und von mehr Wärme; diese wirken ertragssteigernd und ertragsstabilisierend und schaffen mehr Anbaumöglichkeiten in Land- und Gartenbau. Mehr Wärme bedeutet nicht zwangsläufig mehr Schädlinge. Ein relativ warmer April beschleunigt das Pflanzenwachstum und legt den Grundstein für ein erfolgreiches Erntejahr.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Anti-Fossil-Schwerpunkt beim Earth Day könnte Millionen in Grüne-Energie-Armut stürzen

Wir mussten unser Gesetz nicht auf Vordermann bringen. Zu jener Zeit war „Vermüllung“ noch nicht Bestandteil unseres Wortschatzes. Die Luft in Südkalifornien, wo ich aufgewachsen bin, war oftmals so dick mit Smog belastet, dass wir die umliegenden Berge nicht sehen konnten.

Zum Glück hat sich das geändert.

Man schaue sich in seiner Heimatgemeinde um. Wahrscheinlich sieht man grüne Bäume, blauen Himmel und Springbrunnen, die im Sonnenschein funkeln. Mit dem Erfolg der Umweltbewegung, deren Unterstützer und der nichtkommerziellen Gruppen musste sie immer radikaler werden, um relevant zu bleiben.

Umweltaktivismus hat sich verändert.

Die Verwandlung der Bewegung wird vielleicht am augenfälligsten am Earth Day 2016 – welchen manch einer den „wichtigsten Earth Day der Geschichte“ nennt.

In diesem Jahr wird am 22. April in einer hoch feierlichen Zeremonie am UN-Hauptquartier in New York das Pariser Klimaabkommen offiziell unterzeichnet. 30 Tage, nachdem mindestens 55 Nationen, die 55% der globalen Treibhausgas-Emissionen verursachen, den Vertrag unterzeichnet hatten, wird das Abkommen in Kraft treten – und die Länder verpflichten, individuelle Ziele für Emissions-Reduktionen festzulegen, wobei erwartet wird, dass diese begutachtet und alle fünf Jahre aktualisiert werden.

Während man in den Nachrichten zum Earth Day 2016 wahrscheinlich tanzende Menschen in den Straßen sehen wird*, werden all jene, die zwischen den Schlagzeilen lesen können, ein düsteres Bild erkennen – eines, bei dem über 10% des Einkommens eines Haushaltes für Energie ausgegeben werden muss; eines von „grüner Energie-Armut“.

Um die nicht bindenden Verpflichtungen zu erfüllen, die Präsident Obama im vorigen Dezember in Paris abgegeben hatte, setzt er neben vielen Vorschriften auf den Clean Power Plan CPP.

[*Dieser Beitrag war im Original natürlich vor diesem Earth Day erschienen.Man kann also gleich prüfen, ob die Autorin alles richtig eingeschätzt hat. Anm. d. Übers.]

Vor einigen Tage hat Senator Jim Inhofe von den Republikanern, Vorsitzender des Environment and Public Works Committee des Senats, im Vorlauf zum Earth Day einige Bemerkungen gemacht bzgl. der Unerreichbarkeit der US-Klimaverpflichtungen. Er sagte: „Der Clean Power Plan ist der Mittelpfeiler des Versprechens des Präsidenten an die internationale Gemeinschaft, dass die USA Treibhausgas-Emissionen um 26% bis 28% senken werden“. Er wird „Strompreis-Steigerungen in zweistelliger Höhe in 40 [US-]Staaten mit sich bringen“ und würde „klamme Gemeinden daran hindern, Zugang zu zuverlässigen und bezahlbaren Treibstoffquellen zu haben. Dies wird arme Familien vor die Wahl stellen zwischen gesunder Nahrung auf dem Tisch oder die Heizung im Winter zu drosseln“.

Die Heritage Foundation hat kürzlich einen Bericht veröffentlicht über die verheerenden ökonomischen Kosten des Pariser Klimaabkommens, welches die Organisation einen „Schub in Richtung Unterentwicklung für die industrialisierte Welt und ein wesentliches Hindernis für Wachstum in den Entwicklungsländern“ nennt. Weil die Vorschriften bzgl. globaler Erwärmung „den Verbrauch der effizientesten und preiswertesten Formen der Stromerzeugung abwürgen, werden das Wirtschaftsleben ebenso wie Haushalte höhere Stromkosten schultern müssen“. Der Bericht zieht das Fazit: „restriktive Maßnahmen bei der Energieerzeugung, um Ziele wie jene des Pariser Abkommens zu erreichen, werden der US-Wirtschaft erheblichen Schaden zufügen. Bürokratisch verordnete Abgaben, Steuern und Subventionen für spezielle Interessengruppen werden die Einkommen der Familien mit tausenden Dollar pro Jahr belasten, die Energiekosten in die Höhe treiben und hunderttausende Arbeitsplätze vernichten. Und all das nur, um lediglich trivialen und hypothetischen Auswirkungen der globalen Erwärmung zu begegnen“.

Die Erfahrungen in der realen Welt bestätigen sowohl die Beobachtungen von Senator Inhofe als auch die Schlussfolgerungen der Heritage Foundation.

Deutschland ist eines der besten Beispiele für grüne Energiearmut, hat doch das Land einige der aggressivsten Programme zur Reduktion von Treibhausgasen aufgelegt, die jedwedem Unternehmen großzügige Subventionen garantiert, das grüne Energie erzeugt. Auf der Grundlage einer extensiven Studie von Gläubigen der grünen Energie aus dem Jahr 2014 habe ich das Gesamtergebnis des Programms angesprochen: Steigende Kosten und steigende Emissionen. Ich schrieb: „Nach der Lektüre des 80 Seiten starken Weißbuches war ich über drei unterschiedliche Beobachtungen erschüttert. Das deutsche Experiment hat die Energiekosten für Haushalte und die Wirtschaft erheblich steigen lassen, die Subventionen sind nicht nachhaltig, und als Folge davon eine instabile Energieversorgung“. Ich war damals zu dem Ergebnis gekommen, dass „die hohen Preise die Armen überproportional belasten und den neuen Terminus ,Energiearmut‘ hervorgebracht hatten“.

Gerade in jüngster Zeit sind auch andere zu dem gleichen Ergebnis gekommen (hier und hier). Am 13. April kommentierte das Wall Street Journal: „Die seit 16 Jahren in Deutschland vollzogene Energiewende hat schon jetzt den Energiemarkt des Landes zerschlagen in deren Bestreben, die Wirtschaft von fossilen Treibstoffen und Kernkraft abzubringen. Traditionelle Kraftwerke einschließlich derjenigen, die saubereres Gas verbrennen, wurden reihenweise geschlossen, während in den Himmel schießende Strompreise die Industrien nach Übersee vertrieben und Haushalte in den Bankrott getrieben haben. Die Verluste von Arbeitsplätzen summieren sich auf zehntausende“. Dabei haben die Emissionen während der letzten sieben Jahren zugenommen. Im März hat Mike Shellenberger, Präsident von Environmental Progress und „Held der Umwelt“ des Magazins Time geschrieben: „Die Menschen wollen wirklich an das Gute hinsichtlich der deutschen Energiewende glauben, aber – die Emissionen des Landes sind gestiegen“. Das WSJ folgert: „Die Marktverzerrungen durch eine übermäßige Stützung auf teure, aber unzuverlässige Energie haben schon jetzt dazu geführt, dass sich deutsche Unternehmen mehr auf billige und schmutzige Kohlekraftwerke verlassen, um die Ausfälle zu kompensieren, wenn erneuerbare Quellen die Nachfrage nicht decken können“.

Deutschland steht nicht allein.

Auch UK steht Reuters zufolge vor „Energiearmut“. In dem Bericht heißt es: „Die Regierung steht auch unter Druck, die steigenden Energiekosten zu beschneiden für die 2,3 Millionen von 27 Millionen Haushalten in UK, die als energiearm betrachtet werden. Das bedeutet, dass die Kosten für die Heizung ihrer Wohnungen ihnen ein Einkommen hinterlässt, dass unter der Armutsgrenze liegt“. In einem anderen Bericht geht es um die Kappung der UK-Solarsubventionen (hier): „Die Regierung sagt, dass die Änderungen erforderlich seien, um die Rechnungsbegleicher zu schützen, lasten doch die Solar-Anreize schwer auf den Stromkosten der Haushalte“.

Der Washington Post zufolge liegen die Niederlande schon jetzt deutlich hinter ihrem Plan zur Erreichung grüner Energieziele zurück. Man musste drei neue Kohlekraftwerke errichten – zumindest teilweise, um die hohe Prozentzahl von Elektroautos mit Strom zu versorgen. Daneben gibt es in dem Land Hunderte Windturbinen, die mit Verlust arbeiten und in Gefahr sind, abgebaut zu werden. In einem Bericht heißt es: „Subventionen für die Erzeugung von Windenergie sind in vielen Fällen nicht mehr kosteneffektiv. Vor allem kleinere, ältere Windmühlen bringen Verluste, aber selbst neuere Windmühlen haben Schwierigkeiten, mit unzureichenden Subventionen profitabel zu sein“.

[Ist es nicht bezeichnend, dass diese Dinger im Mutterland der Windmühlen „Windmühlen“ genannt werden? Anm. d. Übers.]

Werden wir mal konkreter. Es gibt das über-grüne Kalifornien* – wo der Milliardär und Aktivist Tom Steyer aggressiv grüne Politik vorantreibt. Schlagzeilen werben heftig dafür, dass Kalifornien den teuersten Markt der USA für den Benzin-Einzelhandel hat. Aber dem Institute for Energy Research zufolge hat es auch mit die höchsten Strompreise in den USA – „etwa 40% über dem nationalen Mittelwert“. In einem Bericht des Manhattan Institute aus dem Jahr 2012 heißt es, dass etwa eine Million Haushalte in Kalifornienvon „Energiearmut“ betroffen sind – wobei Latinos und Amerikaner mit afrikanischen Wurzeln am härtesten betroffen sind. Auf seinem übereifrigen Weg zu niedrigeren CO2-Emissionen und einem größeren Anteil von Erneuerbaren am verbrauchten Strom ist diese Zahl in Kalifornien inzwischen sicher noch gestiegen.

[*Der Begriff steht so im Original, einschließlich des „ü“: über-green California. Anm. d. Übers.]

Erinnern Sie sich an die Folge einer Politik ähnlich dem CCP, wenn Sie in dieser Woche Kommentatoren den „wichtigsten Earth Day der Geschichte“ zelebrieren hören und an die globale Bedeutung der Unterschriften unter dem Pariser Klimaabkommen denken, nämlich grüne Energie-Armut. Ziehen Sie diese heran (es gibt noch viele weitere Storys), wenn Sie mit Ihren Freunden sprechen. Machen Sie diese Woche zur „Grüne-Energie-Armut-Woche“ oder klicken Sie sich hinein: #GEPW.

Allerdings müssen wir nicht dazu verdammt sein, in die grüne Energie-Armut zu rutschen. Es gibt einige gute Nachrichten.

Erstens, das Pariser Klimaabkommen ist nicht bindend. Sogar Todd Stern, der US-Klimabotschafter, räumte in der Huffington Post (hier) ein: „Alles, was Paris ausmacht ist, dass eine Struktur geschaffen wird, die die Länder ermutigen wird, ihre Ziele alle fünf Jahre nach oben zu schrauben“. Während die erforderliche Anzahl von Nationen wahrscheinlich vor der Wahl des nächsten Präsidenten unterschreiben werden, ist das einzige Druckmittel die politische Beschämung. Und selbst falls es gesetzlich bindend gewesen wäre wie das Kyoto-Protokoll, weist das Reason Magazine darauf hin (hier), was mit Ländern wie Kanada und Japan passiert wäre, welche ihre „feierlich gegebenen Versprechen des Vertrages gebrochen hatten“ – nämlich ÜBERHAUPT NICHTS. Der Bericht im Heritage Report fügt hinzu: „Die Geschichte liefert nur geringes Vertrauen, dass es auch nur zu einer solchen Verpflichtung kommt. Zum Beispiel errichtet China 350 neue Kohlekraftwerke und plant den Bau von 800 weiteren“.

Dann gibt es da noch die gesetzliche Verzögerung bei der Implementierung des CPP – welcher dank eines Urteils des Obersten Gerichtshofes Anfang dieses Jahres noch mindestens die nächsten zwei Jahre durch die Instanzen gehen wird. Inhofe stellte fest: „Ohne die zentrale Komponente von (Obamas) internationaler Klima-Agenda stammen Träume zur Erreichung der Versprechen aus Wolkenkuckucksheim“.

„Präsident Obamas Klimaversprechen ist unerreichbar und hat in den USA keine Chance, jemals durchzukommen“, sagte Inhofe. „Um des wirtschaftlichen Wohlergehens der USA willen ist dies etwas sehr Gutes“.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column. Follow her @EnergyRabbit.

Übersetzt von Chris Frey EIKE