Vor 30 Jahren: Tschernobyl, ein Rückschlag für die Menschheit

Aber so weit kam es in dieser Nacht gar nicht. Der Lastverteiler meldete sich nach ein paar Stunden und unterbrach die Lasteinsenkung bei etwa der Hälfte der Nennleistung – das schwache Landesnetz brauchte jetzt am Morgen die Energie unbedingt. Erst 12 Stunden später, also nach der Abendspitze, konnte die Leistungsabsenkung fortgesetzt werden.

Was weiß schon ein Lastverteiler über die Kernphysik? In den 12 Stunden, in denen die Lasteinsenkung gestoppt wurde, war die „Xenonvergiftung“ auf ihren höchstmöglichen Wert angestiegen. Xenon ist ein Spaltprodukt und entsteht durch die natürlichen Weiterzerfallsketten im Reaktorkern. Normalerweise wird es sofort wieder ausgebrannt. Nur bei niedrigerer Leistung reichert es sich 12 Stunden lang an und klingt erst danach durch Eigenzerfall wieder ab. Es wird als „Neutronengift“ bezeichnet, weil es Neutronen „auffrisst“, die somit nicht mehr für die Kernspaltung zur Verfügung stehen. Der Reaktor war am „ausgehen“, da am Ende der Kampagne nicht mehr genug frischer Brennstoff zum Kompensieren des Xenonverlustes zur Verfügung stand. Die Reaktorleistung fiel auf weniger als 5%, weit unter die für den Versuch geforderte Leistung.

Jetzt hätte das sicherheitsbewusste Personal den Versuch absagen und den Reaktor konsequent herunterfahren müssen und kein Mensch würden den Namen Tschernobyl heute kennen. Aber es sollte ja unbedingt der „Auslaufversuch“ gefahren werden.

Inzwischen war es wieder Nacht geworden und die Operatoren bemühten sich, das für den Versuch erforderliche Leistungsniveau von 30% zu erreichen. Durch den Leiter des Auslaufversuches, einen Elektroingenieur, der auch bloß nichts von Kernphysik verstand, wurde die Fahrmannschaft massiv unter Druck gesetzt. Das Einhalten der Sicherheitsvorschriften gehörte in der Sowjetunion ohnehin nicht zu den alltäglich gepflegten Gewohnheiten – wichtiger als Sicherheit war im Sozialismus stets „Produktivität für den Sieg des Sozialismus“ und das Ausführen der Befehle von Oben.

Das Noteinspeisesystem wurde unwirksam gemacht, damit es bei Druckabfall nicht den Versuch stört. Dann schalteten die Operatoren verbotenerweise mehrere Umwälzpumpen gleichzeitig ein, während sie – auch verbotenerweise – gleichzeitig viele Regelstäbe schnell aus dem Reaktor fuhren, um durch den Effekt des kälteren Wassers den leistungssteigernden Regeleffekt der Stäbe zu verstärken und im Reaktor mehr Neutronen zu gewinnen.  Sie wollten die Leistung um jeden Preis erhöhen. Eine solche Fahrweise war mit gutem Grund streng verboten.

Es funktionierte, nur viel zu schnell. Ein Teil des Reaktorkerns wurde durch diese Handlungen „prompt kritisch“ – das heißt, die Leistung stieg so blitzartig an, dass ein Gegenregeln und Abschalten mit den Regelstäben nicht mehr möglich war. Es kam zu einem sprungartigen Temperaturanstieg im Reaktor – gefolgt von einem Dampfdruckanstieg und einer heftigen Dampfexplosion, die einige hundert Druckröhren bersten ließ. Die Explosion des Dampfes war so stark, dass der tausend Tonnen schwere Betondeckel oberhalb des Reaktors angehoben wurde und schräg offen hängenblieb. Damit entstand ein sehr großes Leck aus dem Reaktor in die darüber liegende Leichtbau-Turbinenhalle, deren Dach einstürzte. Das Schutzgas, bestehend aus Helium und Stickstoff, welches ein Entzünden des Graphitkerns im Reaktor verhindern sollte, entwich vollständig. Die 1700 Tonnen radioaktiven Graphitziegel des Reaktorkerns begann zu brennen. Das Feuer entfachte eine Sogwirkung, von der die aus dem Reaktorleck entweichende Radioaktivität in große Höhen getragen und somit weltweit verbreitet wurde. Der nicht mehr gekühlte Brennstoff schmolz zum Teil und Spaltmaterial wurden freigesetzt.

Die Reaktorkatastrophe von Tschernobyl, der gefürchtete GAU, war am 26. April 1986 um 01:23:40 Uhr eingetreten. Und er konnte trotz großer Anstrengungen des kommunistischen Sowjetsystems nicht mehr verheimlicht werden.

Warum konnte es geschehen?

Der Tschernobyl Reaktor ist ein RBMK (Реактор Большой Мощности Канальный – Reaktor Großer Leistung in Kanalbauweise), ein russischer graphitmoderierter Siedewasser-Druckröhrenreaktor, einer von insgesamt 15 ausschließlich in der Sowjetunion gebauten Anlagen dieses Typs. Zehn von ihnen sind heute in den Ländern der ehemaligen Sowjetunion noch in Betrieb, der letzte soll 2030 geschlossen werden.

Es ist interessant zu wissen, dass der RBMK ursprünglich kein „ziviles“ AKW war. Die Konstruktion erlaubt es nämlich, während des Betriebes den Brennstoff zu dem Zeitpunkt zu bergen, wenn die Anreicherung des Plutoniums am höchsten ist. Das geht bei kommerziellen Reaktoren nicht. Die RBMK’s sind Militär-Anlagen, konstruiert zum Erbrüten von Waffenplutonium. Der Dampf war ursprünglich nur ein Abfallprodukt. So hat man an den ersten RBMK gar keine Turbine angeschlossen und mit dem Dampf einfach einen Fluss aufgewärmt. Später gab es in der UdSSR zwar genug Bombenplutonium, aber viel zu wenig Strom. So wurde die RBMK‘s umgewidmet. So wie man mit einem Panzer einen Pflug ziehen könnte, verwandelte man nun die RBMK‘s in kommerzielle Reaktoren zur Stromproduktion.

Um den Brennstoff während des Betriebes bergen zu können, besteht ein RBMK nicht aus einem Druckgefäß, sondern aus 1693 miteinander verbundenen Druckröhren. Jede könnte während des Leistungsbetriebes abgesperrt und geöffnet werden, um die zwei darin befindlichen Brennelemente zu bergen. Weil durch diese Bauweise aber den Brennstoff im Reaktor viel weniger Wasser umgibt als in einem kommerziellen Siedewasser- oder Druckwasserreaktor, benötigt man einen zusätzlichen Graphit-Moderator. Graphit, das ist reiner Kohlenstoff, war zu einem schweizerkäseartigen zylindrischen Block von 7 m Höhe und 12 m Durchmesser aufgeschichtet, in dessen Löchern die Druckröhren saßen. Dadurch war das Volumen des RBMK-Reaktorkerns mehr als 10-mal größer als bei einem normalen Reaktor der Bundesrepublik Deutschland.

Dieses monströse Design barg enorme Sicherheitsmängel:

Der RBMK hatte keinen „negativen Reaktivitätskoeffizienten“. Das heißt, er steigerte bei Kühlwasserverlust seine Leistung, statt zu verlöschen, wie es kommerzielle Reaktoren tun.

Tausende absperrbare Verbindungen der 1700 Druckröhren sind ein konstruktiver und instandhaltungstechnischer Albtraum. Die Radioaktivitätsabgabe ist um ein vielfaches höher, als bei normalen Anlagen.

Der riesige Graphitblock stellt eine extreme Brandgefahr dar. Deshalb muss er unter Schutzgas gehalten werden.

Der RBMK hat auch keinen Sicherheitseinschlussbehälter, genannt Containment, welches das Entweichen von Radioaktivität im Störfalle verhindert. Und das sind nur die wichtigsten Sicherheitsschwächen.

So unsicher, wie der Reaktor konstruiert war, wurde er auch betrieben. Die Anlage war so störanfällig, dass das Personal sich daran gewöhnt hatte, um nicht funktionierende Einrichtungen einfach herumzuarbeiten oder sie außer Betrieb zu setzen. Das betraf auch Sicherheitssysteme. Dieser laxe Umgang, verbunden mit einem kommunistischen Kommissar-Führungsstil mündeten in einem eklatanten Mangel an Sicherheitskultur. Das war in der UdSSR beileibe nicht nur in der Kernenergie so. Zu Gorbatschows Zeiten erfuhr die Welt durch „Glasnost“, die neue Offenheit, von einer sich immer schneller drehenden Spirale großer Industrieunfälle, die im Westen ironisch als „Katastroika“ bezeichnet wurde, statt „Perestroika“, das für „Umgestaltung“ stand. Wobei ich glaube, dass seinerzeit im Westen nur ganz wenige Menschen die Zusammenhänge, die zum GAU führten, überhaupt verstehen konnten. Schließlich waren die Details der RBMK-Technologie geheim.

Gravierende Konstruktionsmängel in Verbindung mit unsicherer Betriebsführung führte am 26igsten April 1986 zum GAU des Blockes 4 im AKW Tschernobyl, bei dem mindestens 60 Menschen den Tod fanden.

Was waren die Folgen der Tschernobyl-Katastrophe?

Für mich ist es schlimm genug, dass bei der Tschernobyl-Katastrophe laut einem Untersuchungs-Bericht der Vereinten Nationen zufolge mindestens 60 Menschen den Tod fanden.  Schlimm genug ist auch, dass die Schilddrüsenkrebsrate für Kinder stark anstieg, eine Krebsart die zum Glück heilbar ist. Es ist schlimm genug, dass Hunderttausende ihre Heimat durch Umsiedlung verloren, entwurzelt wurden und leiden mussten. Das alles ist furchtbar und traurig genug. Ich mag nicht teilnehmen an dem Wettbewerb: „Wer schätzt die meisten Todesopfer von Tschernobyl“. Es gibt abenteuerliche Zahlen von ebenso abenteuerlichen Studien, wo von Millionen Toten die Rede ist.

GAU heißt „Größter Anzunehmender Unfall“. Nach meinem Wissen lässt sich das Wort „größter“ nicht mehr steigern. Trotzdem gibt es Leute, die den Super-GAU erfunden haben. Ist für sie „Super-Grösster Anzunehmender Unfall“ überzeugender, weil furchteinflößender?

Der Block 4 des AKW Tschernobyl wurde in einer mörderischen Anstrengung provisorisch eingesargt. Dabei wurde auf die tausenden dort arbeitenden Menschen wenig Rücksicht genommen. Sie wurden als die „Liquidatoren“ berühmt für ihre Opferbereitschaft.

Derzeit errichtet man ein neues Einschlussgebäude – New Safe Confinement, ein Euphemismus für den neuen Sarkophag, der 100 Jahre halten soll. Die anderen Blöcke wurden weiter betrieben und sukzessive bis zum Jahre 2000 zum Rückbau abgeschaltet. Die halbfertig im Bau befindlichen Blöcke 5 und 6 sind konserviert und sollen eventuell eines Tages fertiggebaut werden, was aber extrem unwahrscheinlich ist. Am 23. April 2008 war der Kernbrennstoff aus der Anlage Tschernobyl entfernt. Am gleichen Tag nahm dort die Atommüll-Verarbeitungsanlage „Vektor“ den Betrieb auf, wo die kontaminierten Teile verarbeitet werden, um diese für eine Endlagerung vorzubereiten.

Um das Kraftwerk wurde eine Zone von 30 km im Radius evakuiert, um die Bevölkerung vor radioaktivem Fallout zu schützen. Insgesamt wurden bis zu 350.000 Menschen umgesiedelt. Die Stadt Prypjat wurde zu einer Geisterstadt. Die Zone wurde abgesperrt und sich selbst überlassen. Von 190,3 t radioaktivem Material, welches sich im Reaktorkern befand, wurden nach Schätzungen in den ersten zehn Tagen vom 26. April bis 5. Mai 1986 6,7 t in die Umwelt freigesetzt. Auch über die Auswirkungen der freigesetzten Radioaktivität auf Mensch, Tier und Pflanzenwelt gibt es je nach Überzeugung der Autoren und Interpreten höchst unterschiedliche und widersprüchliche Angaben.

Die Tschernobyl-Katastrophe bestätigte die Besorgnisse der Bevölkerung vieler Länder Europas gegenüber der Nutzung der Kernenergie und gab der grünen Bewegung großen Auftrieb. In einigen Ländern brach eine regelrechte Strahlenangst aus. Die katastrophal restriktive und beschönigende Informationspolitik der Sowjets und der Medien in den Ostblock-Staaten trug dazu bei, das Misstrauen und die Angst der Menschen ins Pathologische zu steigern. Die Westmedien hingegen steigerten die Panik der Bevölkerung durch immer neue Horrormeldungen. Auch im Krieg der Meinungen über Atomkraftwerke war die Wahrheit das erste Opfer. Eine vernünftige Diskussion über die Tschernobyl-Folgen scheint bis heute unmöglich zu sein.

Tschernobyl leitete das Ende der Kernenergieeuphorie in vielen Staaten ein. Italien und Österreich stiegen endgültig aus, bevor sie überhaupt richtig einstiegen. Es brauchte noch eine zweite Katastrophe in Fukushima, bis auch Deutschland panisch beschloss, endgültig aus der Kernenergie auszusteigen.

Tschernobyl aus heutiger Sicht

Tschernobyl war die furchtbarste Katastrophe der Nuklearindustrie und wurde zum Mythos der Gefährlichkeit der Nukleartechnologie. Fukushima war schlimm, aber harmlos im Vergleich mit Tschernobyl. Die „Zone“ von Fukushima ist bereits zu großen Teilen wieder besiedelt. Kein einziges Strahlenopfer ist zu beklagen. Japan ist nicht die Sowjetunion. Trotzdem wurden in Deutschland durch Fukushima mehr Reaktoren zerstört, als in Japan. Wir Deutschen haben eine Neigung zu Extremreaktionen – wir tun Dinge ganz oder gar nicht.

Als Resultat von Tschernobyl und Fukushima haben wir unsere einsame Energiewende. Derweil befindet sich die Welt inmitten einer energetischen Revolution, die „Fracking“ heißt. In Deutschland verbieten wir Fracking vorsichtshalber erst mal, ohne dass wir uns weiter den Kopf darüber zerbrechen, dass die USA durch Fracking zum großen Ölexporteur aufgestiegen ist, was die geopolitische Weltlage dramatisch verändert. Öl und Gas wurden billig wie lange nicht mehr. Dies macht die deutsche Energiewende noch absurder. Noch können die meisten Deutschen sich die extrem hohen Stromkosten leisten und weiter von ökologischen Kreisläufen träumen. Die Physik spricht da eine andere Sprache, aber wen interessiert schon die langweilige Physik? So muss es eben die Zeit richten.

Die „Todeszone“ von Tschernobyl wurde zum riesigen Naturschutzpark. Hier leben auf 4200 Quadratkilometer gerade mal etwa 120 Menschen. Sie sind heimlich zurückgekommen und werden stillschweigend geduldet. Die Zone ist heute ein Tummelplatz diverser Forschungsteams und ein Touristenmagnet. Die Bestände von Elch, Reh, Rotwild, Wildschwein und Wolf wachsen und gedeihen, trotz Kontamination und Strahlung. Offensichtlich ist die Störung durch den Menschen für die Natur schlimmer, als die Schädigung durch Strahlung, die sich bei den Tieren und Pflanzen in der Zone nicht erkennbar auswirkt.  Britische Forscher fanden gerade heraus, dass die Population seltener Vögel profitiert und weniger Erbgutschäden hat, als anderswo. Tiere und Pflanzen messen halt keine Becquerel und passen sich an. Vielleicht wird die gesundheitsschädigende Wirkung geringer Strahlendosen überschätzt. Großangelegte Langzeitstudien über die Überlebenden von Hiroshima und Nagasaki lassen diesen Schluss zu. In Hiroshima und Nagasaki konnte bisher bei Nachkommen der bestrahlten Atombomben-Überlebenden keine erhöhte Rate von vererbbaren Erkrankungen im Vergleich zur übrigen japanischen Bevölkerung festgestellt werden. Aber auch hier weisen andere Studien das genaue Gegenteil aus.

Die Welt steht erst am Anfang der Nukleartechnologie, ob Kernspaltung oder Kernfusion. Beide Prozesse erzeugt Radioaktivität und Abfälle. Viele Menschen denken, dass dieses Feuer ausschließlich den Göttern vorbehalten ist und der Mensch lieber seine Finger davonlassen sollte. Und vielleicht stimmt das ja auch, zumindest für manche Länder.

Die Zukunft der Nukleartechnologie wird nicht in Deutschland entschieden. Erst weltweit wird sich künftig zeigen, ob die Kernenergie eine saubere, sichere und ökonomische Technologie der Energiegewinnung zum Wohle der Menschheit ist. Ist sie nicht sauber, sicher und ökonomisch, wird sie verdientermaßen untergehen. Ist sie aber auf Dauer akzeptabel, wird sie ihren Beitrag zur Versorgung mit Energie leisten, so wie es all die anderen Energieträger auch tun. Gegebenenfalls dann eben außerhalb Deutschlands.

Eines ist für mich sicher: Es macht keinen Sinn, Technologien zur Energieerzeugung in Freund und Feind einzuteilen. Jede hat ihre Vor- und Nachteile. Durch jede Technologie können Menschen umkommen, durch jede Technologie können aber auch Menschen versorgt werden. Technologie ist keine Frage von Ideologie, sondern der Abwägung von Nutzen und Risiken. Das Falsche zu tun, ist Sünde. Nicht das Nötige zu tun, ist auch Sünde.

Aber – wenn irgendwo Menschen auf der Erde hungern, ist es fast immer das Resultat eines Mangels an Energie. Ohne Energie kann man nicht pflügen, sähen, düngen, ernten, transportieren, Nahrung verarbeiten und lagern. Wenn ein Land arm ist, ist es in erster Linie arm an Energie. Schauen Sie auf die nächtliche Weltkarte – Afrika ist der „dunkle Kontinent“ weil dort kein Licht zu sehen ist. Deshalb wird um Energie in Kriegen und Bürgerkriegen gekämpft. Wir werden bald neun Milliarden sein. Die Menschheit braucht jeden Zipfel Energie, den sie bekommen kann.

Tschernobyl war eben nicht nur ein GAU der Nukleartechnologie, sondern ein Rückschlag für das Wohl der Menschheit.

Über den Autor

Der Autor Manfred Haferburg ist Kernenergetiker und hat viele Jahre für eine internationale Organisation Kernkraftwerke und andere Risikoindustrien weltweit bei der Verbesserung der Sicherheitskultur und Organisationseffektivität unterstützt. Er hat so viele Kernkraftwerke von innen gesehen, wie kaum ein anderer Mensch.

Er gehört zum Autorenteam der „Achse des Guten“, einem der meistgelesenen deutschen Internet-Blogs. Sein Roman „Wohn-Haft“ mit einem Vorwort von Wolf Biermann erschien im KUUUK-Verlag.




Wärmerer April- Grund zur Freude oder ein Vorzeichen der „Klimakatastrophe“? Teil 2- Warum Flora, Fauna oder Landwirtschaft Wetter- und Klimaschwankungen erstaunlich gut verkraften

Bild rechts: So wünschen sich realitätsbewusste Naturbeobachter, Gärtner und Landwirte den April: Weißer Blütenteppich, kein Schneeteppich mehr. Foto: Stefan Kämpfe.

Eine kleine Aufzählung der Herkunftsgebiete wichtiger Kultur- und Wildpflanzen möge zum kritischen Nachdenken darüber anregen, ob mehr Wärme gut oder schlecht für Natur und Landbau sei:

Haselstrauch: Kleinasien

Meiste Getreidearten: Zweistromland und vorderer Orient

Süßkirsche: Schwarzmeergebiet

Kartoffel, Tomate: Tropisches Südamerika

Mais: Mittelamerika

Rosskastanie, Walnuss: Südosteuropa

Weißtanne (der „echte“ Tannenbaum): Südliches Mitteleuropa

Hainbuche: Südliches Mitteleuropa, in Norddeutschland nur in wärmsten Tieflagen

Sonnenblume, Robinie: Südwesten der USA

Zwiebel: Mittelasien

Kornelkirsche (Herlitze): Südliches Mitteleuropa, Mittel- und Schwarzmeergebiet

Gemüsespargel: Östlicher Mittelmeerraum (unsicher, da in Eurasien stark verwildert)

Viele Frühblüher wie Winterlinge, Schneeglöckchen oder Märzenbecher: Süd- und Südosteuropa, Kleinasien, Kaukasus- Region.

Diese Aufzählung ließe sich noch seitenweise fortsetzen. Sie zeigt deutlich: Die meisten unserer Wild- und Kulturpflanzenarten entstammen wärmeren Regionen. Mehr Wärme ermöglicht mehr Vielfalt, mehr Artenreichtum, mehr Chancen für Garten- und Landbau. Es ist eben keinesfalls nur der berühmt- berüchtigte Weinbau, welcher von einer Erwärmung profitieren könnte. Doch halt- was würde aus unseren seltenen, vom Naturschutz umsorgten wilden Orchideen, und was würde aus den „urdeutschen“ Eichen- und Buchenwäldern? Die meisten Orchideenarten sind eher submediterran, sie entstammen also wärmeren Regionen und treten im kalten Deutschland bevorzugt an wärmegetönten Südhängen auf. Man schaue sich das berühmte, orchideenreiche Leutratal bei Jena an- eine klassische Südhanglage. Und die Rotbuche sowie Stiel- oder Traubeneiche haben eine sehr weite ökologische Amplitude- sie könnten Temperaturanstiege von 3 bis 4 °C im Jahresmittel verkraften. Sollte sich unser Klima jedoch nur um 1,5 bis 3 °C abkühlen, könnten sie schon ernsthafte Probleme bekommen, denn ihr Verbreitungsgebiet reicht nur bis nach Südschweden, und der Fluchtweg in den wärmeren Süden wird von den Alpen verstellt.

Aber diese milden Winter- führen sie nicht zu Chaos und Irritationen in der Natur? Um das zu klären, schauen wir uns die Entwicklung dreier wichtiger Jahreszeiten in der Natur seit 1990 an- den Vorfrühling, welcher mit dem Beginn der Haselblüte startet und dessen Eintrittstermin von den Spätherbst- und Wintertemperaturen beeinflusst wird, als nächstes den Erstfrühling (startet mit dem Laubaustrieb der Wild- Stachelbeere im Februar oder März), und den Vollfrühling (Beginn der Apfelblüte im April/Mai):

Abb. 1: Während der terminliche Beginn der Haselblüte (gelb) extrem schwankt, variiert der Beginn der Apfelblüte (rosa) nur noch wenig, der Laubaustrieb der Wild- Stachelbeere liegt im Mittelfeld. Tag Null ist bei dieser Zählweise der Neujahrstag; negative Werte bedeuten also Blühbeginn schon im Dezember. Keiner der Trends ist statistisch signifikant, weil trotz deutlicher Verfrühung die Streuung der Einzelwerte bei der Haselblüte extrem groß ist.

Man erkennt die massiv abnehmende Schwankungsbreite („Streuung“ oder „Standardabweichung“, das Quadrat davon ist die Varianz) der Eintrittstermine vom Vor- zum Vollfrühling. Die im Vorfrühling oft extremen Schwankungen der Eintrittstermine werden also im weiteren Vegetationsverlauf geglättet. Während die Differenz zwischen frühestem und spätestem Beginn der Haselblüte noch beachtliche 108 Tage in Weimar beträgt, sind es beim Beginn der Apfelblüte nur noch maximal 31 Tage! Mit anderen Worten: Die Natur gleicht vieles aus, ein extrem milder Winter bedeutet keinen zwangsläufig extrem frühen weiteren Vegetationsverlauf, ein strenger nicht zwangsläufig einen extrem späten. Meist bleiben von dem ursprünglichen Vorsprung oder Rückstand des Vorfrühlings im Vollfrühling nur noch wenige Tage übrig. Verfrühungen oder Verspätungen von mehr als 10 Tagen sind im Vollfrühling nur dann möglich, wenn der März ebenfalls sehr warm (1990, 2014) oder sehr kalt (1996, 2006, 2013) ausfiel. Ähnliches zeigen auch andere Frühjahrsblüher an anderen Orten:

Abb. 2a und 2b: In Seesen/Kirchberg am Harz haben sich die Blühtermine der Salweide (oben, hier in Tagen seit Jahresbeginn, y- Achse) und der Schlehe seit 1987 praktisch nicht geändert.

2016 bremsten ein eher nasser, kalter, sonnenscheinarmer März und ein zwar relativ milder, aber wechselhafter April die ursprünglich sehr frühe Vegetationsentwicklung stark, und der zeitigsten Haselblüte seit 1990 (5. Dezember 2015) folgte ein normaler Vollfrühlingsbeginn (Beginn der Apfelblüte am 20. April 2016). Am 1. April 2016 sah es in Weimar noch so aus:

Abb. 3: Vom April- Schnee verschüttete junge Lilien in Weimar – kein Drama und auch nicht ungewöhnlich, doch verzögert ein solches Ereignis stets auch die Vegetationsentwicklung. Foto: Stefan Kämpfe.

Außer den Temperaturverhältnissen beeinflussen noch weitere Faktoren die Pflanzenentwicklung- die Tageslänge, die Lichtqualität und die sogenannte Dormanz. Als Dormanz (von lateinisch dormire = schlafen) werden Formen der Entwicklungsverzögerung bei Lebewesen bezeichnet. Diese sind oft genetisch und/oder hormonell gesteuert und verhindern beispielsweise ein vorzeitiges Blühen von Pflanzen oder Gehölzen in extrem milden Spätherbsten oder Wintern. Ähnlich wirkt die Tageslänge. Erst, wenn eine Pflanze oder ein Tier spürt, dass die Tage wieder eine bestimmte Länge erreicht haben, wird die Winterruhe beendet. Auch die Lichtqualität beeinflusst das Blühverhalten vieler Pflanzen. „Warmes“, infrarotreiches Sonnenlicht im zeitigen Frühjahr regt die Blühwilligkeit über die Bildung von Blühhormonen an. Damit sich die Pflanzen aber nicht totblühen, stoppt das zunehmend UV- reichere Licht im weiteren Verlauf des Frühlings die Bildung von Blühhormonen bei den Frühblühern und Gehölzen, die Wachstums- und Reifephase des Sommers beginnt. Dieser einfache Mechanismus erklärt auch, warum einige Gehölze oder Frühblüher in sonnigen, milden Herbsten mitunter erneut blühen- das Sonnenlicht ist dann wieder UV- arm. Damit wird auch klar, dass trübe Witterung, wie sie im Februar/März 2016 herrschte, die Blüte verzögern kann- nicht nur wegen des fehlenden Erwärmungseffekts, sondern auch wegen der fehlenden Signalwirkung.

Nun noch einige Bemerkungen zu den angeblich „wegen des Klimawandels“ bedrohten Zugvögeln, die angeblich „zu spät“ in die „schon zu weit entwickelte Natur“ zurückkehren. Bislang blieb eine „katastrophale Verfrühung“ der Naturentwicklung aus. Bei unserem Artikel über die DWD-Forsythien in Hamburg haben wir gezeigt, dass es diese Verfrühung in den letzten 35 Jahren überhaupt nicht gibt. Aber käme es wirklich zu einer massiven Verfrühung, was würde passieren? Wir betrachten eine fiktive Zugvogelpopulation und wollen diese mit P1 bezeichnen. Sie hat eine genetische Variabilität, die in etwa einer Normalverteilung entspricht. Die meisten Individuen dieser Population P1 haben eine ganz bestimmte Wärmetoleranz (Gipfel der Häufigkeitsverteilung), was sich unter anderem in einem bestimmten, mittleren Rückkehrtermin in das Brutgebiet nach Deutschland äußert, nehmen wir mal an, es sei der 5. April (94 Tage nach Jahresbeginn, erster Januar nicht mitgezählt!). Nun gibt es aber in P1 auch weniger an Wärme angepasste Individuen, die später zurückkehren; sie liegen links des Maximums der Normalverteilung. Rechts vom Maximum liegen die wärmetoleranteren Frühheimkehrer. Wird es nun im Brutgebiet dauerhaft wärmer, so finden diese die besseren Bedingungen vor, sie vermehren sich bevorzugt, bis anstelle von P1 eine Population P2 entstanden ist, deren meiste Individuen nun nicht mehr am 5. April, sondern schon am 25. März (83 Tage nach Jahresbeginn) heimkehren. In der unten stehenden Skizze haben wir diesen Vorgang grafisch dargestellt:

Abbildung 4: Aus den wärmetolerantesten Individuen der Population P1 (orange Fläche) entsteht die Population P2 (orange Kurve), deren meiste Individuen nun schon 83 Tage nach Jahresbeginn in das Brutgebiet heimkehren.

Selbstverständlich funktioniert diese Anpassungsstrategie der Natur mit Hilfe der genetischen Variabilität einer Art auch im umgekehrten Fall, also bei einer moderaten Abkühlung. Und bei dieser Betrachtung wurde das enorme Lernvermögen (Intelligenz) der Vögel noch nicht einmal berücksichtigt. So erlernen möglicherweise auch genetisch festgelegte „Spätrückkehrer“ schon nach wenigen Jahren die frühere Heimreise, weil sich die Bedingungen geändert haben. Nicht umsonst hat die Amsel, vor gut 100 Jahren noch ein scheuer Waldvogel, die Städte erobert. Sie erlernte das Leben in unmittelbarer Nähe des Menschen und profitierte außerdem vom wärmeren Stadtklima (UHI- Effekt!). Zudem ist das Nahrungsangebot durch die Hinterlassenschaften der Wegwerfgesellschaft im Vorfrühling oft ungleich höher. Unzählige Tier- und Pflanzenarten sind ihr mittlerweile gefolgt. Unter Biologen und Ökologen ist es längst kein Geheimtipp mehr: Willst Du seltene oder exotische Tier- und Pflanzenarten sehen, so gehe in die Stadt! Imker schätzen den früheren und länger anhaltenden Blütenreichtum der städtischen Gärten oder Parkanlagen.

Ein von Alarmisten oft angeführtes Phänomen sind sogenannte „Mastjahre“ (überreiches Blühen und Fruchten vieler Wald- und Obstgehölze), die seit einigen Jahrzehnten gehäuft auftreten. Angeblich seien sie eine Reaktion auf den „Klimawandel“ und die immer größere Umwelt- und Luftverschmutzung. Die Gehölze blühen überreich, um möglichst viel Nachwuchs zu erzeugen, ehe sie absterben. Ein kritischer Blick in die Klima- und Umweltdaten sowie in die Waldschadensberichte zeigt jedoch: Der befürchtete Klimawandel blieb trotz einer geringen Erwärmung aus, ebenso das vorhergesagte „Waldsterben“, und die Luftqualität verbesserte sich seit den späten 1980er Jahren dank der strengen Umweltauflagen enorm. Könnte das reichere Blühen also etwa das Gegenteil bedeuten- der Natur geht es besser, und warum? Wir hatten schon mehrfach über den positiven Einfluss der steigenden Kohlendioxid- Konzentration auf das Pflanzenwachstum berichtet, unter anderem hier http://www.eike-klima-energie.eu/climategate-anzeige/widerpart-zur-klimakonferenz-ein-loblied-auf-das-co2-die-erde-hat-nicht-zu-viel-sondern-zu-wenig-co2/ Unter anderem hilft CO2 dabei, unsere Ernteerträge zu steigern und die Ertragssicherheit zu verbessern. Wie erklärt sich dieser Zusammenhang? CO2 ist der wichtigste Pflanzennährstoff- ohne CO2 funktioniert keine Fotosynthese! Allerdings liegt die momentane CO2- Konzentration weit unterhalb der für Pflanzen optimalen Werte. Jegliche CO2- Konzentrationssteigerung bewirkt nach den Ertragsgesetzen daher einen überproportional hohen Ertragszuwachs. Das CO2 wird von den Pflanzen durch mikroskopisch kleine Spaltöffnungen an der Blattunterseite eingeatmet; diese ähneln kleinen Mündern. Beim Atmen verliert das Blatt jedoch Wasser- genau wie wir auch. Steigt nun die CO2- Konzentration, so muss das Blatt weniger atmen, es verliert weniger Wasser. Somit hat CO2 auch eine wesentliche ertragsstabilisierende Wirkung bei Dürren. Die folgende Abbildung verdeutlicht, dass in Thüringen etwa 39% der Variabilität der Getreideerträge (tendenzieller Anstieg) mit der steigenden CO2- Konzentration erklärt werden können:

Abb. 5: CO2 bewirkt Ertragssteigerung bei Getreide.

Dieser „Düngungseffekt“ des CO2 beschränkt sich nicht auf Nutzpflanzen, sondern führt auch bei den Wildpflanzenarten zu einer erhöhten Biomasse- und Samenproduktion. Die im Frühling 2016 um Weimar zu beobachtende reiche Hainbuchen- und Birkenblüte ist also kein Menetekel eines bevorstehenden Baumsterbens, sondern weist auf bessere Wachstumsbedingungen hin.

Abb. 6: Überreiche Hainbuchenblüte 2016- eher ein gutes Zeichen für den Zustand der Natur. Foto: Stefan Kämpfe

Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf

Abb. 7: Im linken Bild wuchs der Baum bei einem CO2-Pegel von 385 ppm, wie er noch vor einigen Jahren auf dem Mauna Loa gemessen wurde. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was in etwa dem raschen Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm.

Eindrucksvoller als in dieser Bildserie kann nicht unter Beweis gestellt werden, dass CO2 den Pflanzen hilft und zugleich Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration der Atmosphäre von etwa 400 ppm für Pflanzen nicht optimal ist. Mehr C02 wäre besser

Welche Auswirkungen hätte eine Erwärmung auf Landwirtschaft oder Gartenbau? Zwei alte Bauern- Regeln helfen vielleicht weiter: „Stell‘n Blätter an den Eichen schon im April sich ein, gedeih’n im Lande Korn und Wein.“ Und „Je früher im Lande der Schlehdorn blüht, desto eher der Schnitter zur Ernte auszieht.“ Unsere Vorfahren (diese Bauern- Regeln sind mehrere hundert Jahre alt) wussten also die Wärme zu schätzen. Und die neue, erst 2012 entwickelte CRISPR- Cas- Gentechnik (Clustered Regularly Interspaced Short Palindromic Repeats), welche die Nachteile der bisherigen Gentechnik vermeidet, weil sie es ermöglicht, DNA gezielt zu schneiden und zu verändern (Genome Editing), schafft auch neue Möglichkeiten zur Züchtung wärmetoleranter Sorten.

Doch gibt es nach milden Wintern nicht viel mehr Schädlinge? Auch das erweist sich als weit verbreiteter Irrtum. Anhaltend starke Fröste dezimieren die Schädlinge nicht wesentlich- sie sind daran angepasst. Am ehesten leiden sie noch unter den Früh- und Spätfrösten der Übergangszeiten, aber ganz besonders unter milden, feuchten Wintern. Warum? Ihre Eier, Puppen oder Imagos verschimmeln und verfaulen dann regelrecht. Auch den Mäusen geht es unter dem Schnee besser als ohne schützende Schneedecke, denn dann haben die Greifvögel, Füchse und andere Mäusefresser ein leichtes Spiel. Somit braucht sich auch niemand wegen milder Winter oder der Aprilwärme zu sorgen- im Gegenteil! Genießen wir die milden Zeiten, falls sie denn noch anhalten sollten, eine mögliche Abkühlung hätte weitaus schlimmere Folgen, als eine Erwärmung.

In unseren letzten Artikeln hatten wir anhand des Datenmateriales des Deutschen Wetterdienstes gezeigt, dass die ersten drei Monate des Jahres seit 30 Jahren bereits eine konstante Trendlinie ausweisen bzw. sogar (noch) nicht signifikant abkühlen, also in Richtung kühler tendiert. Der April machte da noch eine angenehme Ausnahme, doch wie lange noch. Eine meist unfreundliche, kalte zweite Aprilhälfte 2016 war vielleicht schon ein erster Vorgeschmack auf das Aprilwetter der kommenden Jahrzehnte. Ein Blick auf die Temperaturen des fast WI-freien Standortes Amtsberg-Dittersdorf im Erzgebirge scheint die Aprilfreuden zu trüben.

Abb. 8: In dem fast wärmeinselfreien Ort Amtsberg-Dittersdorf wurde es die letzten 30 Aprilmonate seit 1987 auch wärmer, eine lineare Trendlinie hat den Steigungsfaktor y = 0,03, doch auch ohne die Polynom 2- Linie wäre mit den Augen ein Stillstand seit 19 Jahren erkennbar, der allerdings (noch) nicht statistisch signifikant ist.

Zusammenfassung: Die meisten Nutz- und viele Wildpflanzen entstammen wärmeren Regionen. Verschiedenste Regelmechanismen in der Natur wie Dormanz (Ruhephasen) oder Lichtreize verhindern auch nach milden Wintern ein allzu zeitiges Frühlingserwachen, was sich anhand der Phänologischen Beobachtungen aus Weimar und anderen Orten in Deutschland belegen lässt. Mittels genetischer Varianz können sich Flora und Fauna an geänderte Verhältnisse, wie etwa Erwärmung, anpassen. Die reichere Blüte vieler Wild- und Obstgehölze weist auf günstigere Umweltbedingungen hin; die weitaus größte Zahl der Nutz- und Wildpflanzen profitiert von höheren CO2- Gehalten und von mehr Wärme; diese wirken ertragssteigernd und ertragsstabilisierend und schaffen mehr Anbaumöglichkeiten in Land- und Gartenbau. Mehr Wärme bedeutet nicht zwangsläufig mehr Schädlinge. Ein relativ warmer April beschleunigt das Pflanzenwachstum und legt den Grundstein für ein erfolgreiches Erntejahr.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Anti-Fossil-Schwerpunkt beim Earth Day könnte Millionen in Grüne-Energie-Armut stürzen

Wir mussten unser Gesetz nicht auf Vordermann bringen. Zu jener Zeit war „Vermüllung“ noch nicht Bestandteil unseres Wortschatzes. Die Luft in Südkalifornien, wo ich aufgewachsen bin, war oftmals so dick mit Smog belastet, dass wir die umliegenden Berge nicht sehen konnten.

Zum Glück hat sich das geändert.

Man schaue sich in seiner Heimatgemeinde um. Wahrscheinlich sieht man grüne Bäume, blauen Himmel und Springbrunnen, die im Sonnenschein funkeln. Mit dem Erfolg der Umweltbewegung, deren Unterstützer und der nichtkommerziellen Gruppen musste sie immer radikaler werden, um relevant zu bleiben.

Umweltaktivismus hat sich verändert.

Die Verwandlung der Bewegung wird vielleicht am augenfälligsten am Earth Day 2016 – welchen manch einer den „wichtigsten Earth Day der Geschichte“ nennt.

In diesem Jahr wird am 22. April in einer hoch feierlichen Zeremonie am UN-Hauptquartier in New York das Pariser Klimaabkommen offiziell unterzeichnet. 30 Tage, nachdem mindestens 55 Nationen, die 55% der globalen Treibhausgas-Emissionen verursachen, den Vertrag unterzeichnet hatten, wird das Abkommen in Kraft treten – und die Länder verpflichten, individuelle Ziele für Emissions-Reduktionen festzulegen, wobei erwartet wird, dass diese begutachtet und alle fünf Jahre aktualisiert werden.

Während man in den Nachrichten zum Earth Day 2016 wahrscheinlich tanzende Menschen in den Straßen sehen wird*, werden all jene, die zwischen den Schlagzeilen lesen können, ein düsteres Bild erkennen – eines, bei dem über 10% des Einkommens eines Haushaltes für Energie ausgegeben werden muss; eines von „grüner Energie-Armut“.

Um die nicht bindenden Verpflichtungen zu erfüllen, die Präsident Obama im vorigen Dezember in Paris abgegeben hatte, setzt er neben vielen Vorschriften auf den Clean Power Plan CPP.

[*Dieser Beitrag war im Original natürlich vor diesem Earth Day erschienen.Man kann also gleich prüfen, ob die Autorin alles richtig eingeschätzt hat. Anm. d. Übers.]

Vor einigen Tage hat Senator Jim Inhofe von den Republikanern, Vorsitzender des Environment and Public Works Committee des Senats, im Vorlauf zum Earth Day einige Bemerkungen gemacht bzgl. der Unerreichbarkeit der US-Klimaverpflichtungen. Er sagte: „Der Clean Power Plan ist der Mittelpfeiler des Versprechens des Präsidenten an die internationale Gemeinschaft, dass die USA Treibhausgas-Emissionen um 26% bis 28% senken werden“. Er wird „Strompreis-Steigerungen in zweistelliger Höhe in 40 [US-]Staaten mit sich bringen“ und würde „klamme Gemeinden daran hindern, Zugang zu zuverlässigen und bezahlbaren Treibstoffquellen zu haben. Dies wird arme Familien vor die Wahl stellen zwischen gesunder Nahrung auf dem Tisch oder die Heizung im Winter zu drosseln“.

Die Heritage Foundation hat kürzlich einen Bericht veröffentlicht über die verheerenden ökonomischen Kosten des Pariser Klimaabkommens, welches die Organisation einen „Schub in Richtung Unterentwicklung für die industrialisierte Welt und ein wesentliches Hindernis für Wachstum in den Entwicklungsländern“ nennt. Weil die Vorschriften bzgl. globaler Erwärmung „den Verbrauch der effizientesten und preiswertesten Formen der Stromerzeugung abwürgen, werden das Wirtschaftsleben ebenso wie Haushalte höhere Stromkosten schultern müssen“. Der Bericht zieht das Fazit: „restriktive Maßnahmen bei der Energieerzeugung, um Ziele wie jene des Pariser Abkommens zu erreichen, werden der US-Wirtschaft erheblichen Schaden zufügen. Bürokratisch verordnete Abgaben, Steuern und Subventionen für spezielle Interessengruppen werden die Einkommen der Familien mit tausenden Dollar pro Jahr belasten, die Energiekosten in die Höhe treiben und hunderttausende Arbeitsplätze vernichten. Und all das nur, um lediglich trivialen und hypothetischen Auswirkungen der globalen Erwärmung zu begegnen“.

Die Erfahrungen in der realen Welt bestätigen sowohl die Beobachtungen von Senator Inhofe als auch die Schlussfolgerungen der Heritage Foundation.

Deutschland ist eines der besten Beispiele für grüne Energiearmut, hat doch das Land einige der aggressivsten Programme zur Reduktion von Treibhausgasen aufgelegt, die jedwedem Unternehmen großzügige Subventionen garantiert, das grüne Energie erzeugt. Auf der Grundlage einer extensiven Studie von Gläubigen der grünen Energie aus dem Jahr 2014 habe ich das Gesamtergebnis des Programms angesprochen: Steigende Kosten und steigende Emissionen. Ich schrieb: „Nach der Lektüre des 80 Seiten starken Weißbuches war ich über drei unterschiedliche Beobachtungen erschüttert. Das deutsche Experiment hat die Energiekosten für Haushalte und die Wirtschaft erheblich steigen lassen, die Subventionen sind nicht nachhaltig, und als Folge davon eine instabile Energieversorgung“. Ich war damals zu dem Ergebnis gekommen, dass „die hohen Preise die Armen überproportional belasten und den neuen Terminus ,Energiearmut‘ hervorgebracht hatten“.

Gerade in jüngster Zeit sind auch andere zu dem gleichen Ergebnis gekommen (hier und hier). Am 13. April kommentierte das Wall Street Journal: „Die seit 16 Jahren in Deutschland vollzogene Energiewende hat schon jetzt den Energiemarkt des Landes zerschlagen in deren Bestreben, die Wirtschaft von fossilen Treibstoffen und Kernkraft abzubringen. Traditionelle Kraftwerke einschließlich derjenigen, die saubereres Gas verbrennen, wurden reihenweise geschlossen, während in den Himmel schießende Strompreise die Industrien nach Übersee vertrieben und Haushalte in den Bankrott getrieben haben. Die Verluste von Arbeitsplätzen summieren sich auf zehntausende“. Dabei haben die Emissionen während der letzten sieben Jahren zugenommen. Im März hat Mike Shellenberger, Präsident von Environmental Progress und „Held der Umwelt“ des Magazins Time geschrieben: „Die Menschen wollen wirklich an das Gute hinsichtlich der deutschen Energiewende glauben, aber – die Emissionen des Landes sind gestiegen“. Das WSJ folgert: „Die Marktverzerrungen durch eine übermäßige Stützung auf teure, aber unzuverlässige Energie haben schon jetzt dazu geführt, dass sich deutsche Unternehmen mehr auf billige und schmutzige Kohlekraftwerke verlassen, um die Ausfälle zu kompensieren, wenn erneuerbare Quellen die Nachfrage nicht decken können“.

Deutschland steht nicht allein.

Auch UK steht Reuters zufolge vor „Energiearmut“. In dem Bericht heißt es: „Die Regierung steht auch unter Druck, die steigenden Energiekosten zu beschneiden für die 2,3 Millionen von 27 Millionen Haushalten in UK, die als energiearm betrachtet werden. Das bedeutet, dass die Kosten für die Heizung ihrer Wohnungen ihnen ein Einkommen hinterlässt, dass unter der Armutsgrenze liegt“. In einem anderen Bericht geht es um die Kappung der UK-Solarsubventionen (hier): „Die Regierung sagt, dass die Änderungen erforderlich seien, um die Rechnungsbegleicher zu schützen, lasten doch die Solar-Anreize schwer auf den Stromkosten der Haushalte“.

Der Washington Post zufolge liegen die Niederlande schon jetzt deutlich hinter ihrem Plan zur Erreichung grüner Energieziele zurück. Man musste drei neue Kohlekraftwerke errichten – zumindest teilweise, um die hohe Prozentzahl von Elektroautos mit Strom zu versorgen. Daneben gibt es in dem Land Hunderte Windturbinen, die mit Verlust arbeiten und in Gefahr sind, abgebaut zu werden. In einem Bericht heißt es: „Subventionen für die Erzeugung von Windenergie sind in vielen Fällen nicht mehr kosteneffektiv. Vor allem kleinere, ältere Windmühlen bringen Verluste, aber selbst neuere Windmühlen haben Schwierigkeiten, mit unzureichenden Subventionen profitabel zu sein“.

[Ist es nicht bezeichnend, dass diese Dinger im Mutterland der Windmühlen „Windmühlen“ genannt werden? Anm. d. Übers.]

Werden wir mal konkreter. Es gibt das über-grüne Kalifornien* – wo der Milliardär und Aktivist Tom Steyer aggressiv grüne Politik vorantreibt. Schlagzeilen werben heftig dafür, dass Kalifornien den teuersten Markt der USA für den Benzin-Einzelhandel hat. Aber dem Institute for Energy Research zufolge hat es auch mit die höchsten Strompreise in den USA – „etwa 40% über dem nationalen Mittelwert“. In einem Bericht des Manhattan Institute aus dem Jahr 2012 heißt es, dass etwa eine Million Haushalte in Kalifornienvon „Energiearmut“ betroffen sind – wobei Latinos und Amerikaner mit afrikanischen Wurzeln am härtesten betroffen sind. Auf seinem übereifrigen Weg zu niedrigeren CO2-Emissionen und einem größeren Anteil von Erneuerbaren am verbrauchten Strom ist diese Zahl in Kalifornien inzwischen sicher noch gestiegen.

[*Der Begriff steht so im Original, einschließlich des „ü“: über-green California. Anm. d. Übers.]

Erinnern Sie sich an die Folge einer Politik ähnlich dem CCP, wenn Sie in dieser Woche Kommentatoren den „wichtigsten Earth Day der Geschichte“ zelebrieren hören und an die globale Bedeutung der Unterschriften unter dem Pariser Klimaabkommen denken, nämlich grüne Energie-Armut. Ziehen Sie diese heran (es gibt noch viele weitere Storys), wenn Sie mit Ihren Freunden sprechen. Machen Sie diese Woche zur „Grüne-Energie-Armut-Woche“ oder klicken Sie sich hinein: #GEPW.

Allerdings müssen wir nicht dazu verdammt sein, in die grüne Energie-Armut zu rutschen. Es gibt einige gute Nachrichten.

Erstens, das Pariser Klimaabkommen ist nicht bindend. Sogar Todd Stern, der US-Klimabotschafter, räumte in der Huffington Post (hier) ein: „Alles, was Paris ausmacht ist, dass eine Struktur geschaffen wird, die die Länder ermutigen wird, ihre Ziele alle fünf Jahre nach oben zu schrauben“. Während die erforderliche Anzahl von Nationen wahrscheinlich vor der Wahl des nächsten Präsidenten unterschreiben werden, ist das einzige Druckmittel die politische Beschämung. Und selbst falls es gesetzlich bindend gewesen wäre wie das Kyoto-Protokoll, weist das Reason Magazine darauf hin (hier), was mit Ländern wie Kanada und Japan passiert wäre, welche ihre „feierlich gegebenen Versprechen des Vertrages gebrochen hatten“ – nämlich ÜBERHAUPT NICHTS. Der Bericht im Heritage Report fügt hinzu: „Die Geschichte liefert nur geringes Vertrauen, dass es auch nur zu einer solchen Verpflichtung kommt. Zum Beispiel errichtet China 350 neue Kohlekraftwerke und plant den Bau von 800 weiteren“.

Dann gibt es da noch die gesetzliche Verzögerung bei der Implementierung des CPP – welcher dank eines Urteils des Obersten Gerichtshofes Anfang dieses Jahres noch mindestens die nächsten zwei Jahre durch die Instanzen gehen wird. Inhofe stellte fest: „Ohne die zentrale Komponente von (Obamas) internationaler Klima-Agenda stammen Träume zur Erreichung der Versprechen aus Wolkenkuckucksheim“.

„Präsident Obamas Klimaversprechen ist unerreichbar und hat in den USA keine Chance, jemals durchzukommen“, sagte Inhofe. „Um des wirtschaftlichen Wohlergehens der USA willen ist dies etwas sehr Gutes“.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column. Follow her @EnergyRabbit.

Übersetzt von Chris Frey EIKE




Volksbegehren gegen Windkraftausbau in Brandenburg

Obwohl ich nicht einzusehen vermag, warum die Windkraft in Maßen (wie Frau Ehresmann schreibt, sinnvoll sein kann, bitte ich Sie das Volksbegehren zu unterstützen) 

Frau Helga Ehresmann vom Kampagneteam Volksbegehren Windkraft schrieb mir gestern

Sehr geehrter Herr Limburg,

sicher ist es nicht Ihrer Aufmerksamkeit entgangen, dass am 07.01.2016 unser VOLKSBEGEHREN gestartet wurde.

Hierfür benötigen wir insgesamt 80.000 Unterschriften, um unserer Landesregierung zu demonstrieren, dass ihr Vorhaben, die Windflächen noch zu verdoppeln und 22.000 ha Wald dafür zu roden von den Menschen nicht mitgetragen wird. Das Wohl von Mensch und Natur spielt bei ihren Entscheidungen keine Rolle mehr. 

Deshalb brauchen wir mehr Menschen wie Sie, denen die Natur noch viel bedeutet. Wir müssen unsere Mitmenschen aufklären, dass die erneuerbaren Energien gar nicht so toll sind, dass sie unsere Wälder zerstören, dass eine Minderheit profitiert und eine Mehrheit den Preis für diesen unökologischen, unsinnigen und nicht zukunftsfähigen Energieumbau bezahlen soll. Hierfür habe ich unseren Flyer beigefügt.

Windkraft kann in Maßen sinnvoll sein, etwa in Industriegebieten. Wenn jedoch für vermeintliche Ökoenergie Ökosysteme wie unsere Wälder in großem Umfang  beschädigt oder zerstört werden, dann handelt es sich in Wahrheit um knallharte, grün verpackte Wirtschaftsinteressen. 

Bitte unterstützen Sie unser VOLKSBEGEHREN mit Ihrer Stimme.

Unter dem Link www.volksbegehren-windkraft.de finden Sie ein Anforderungsformular für die Briefabstimmungsunterlagen.

Ich würde mich sehr freuen, wenn Sie mein Anliegen Ihrer gesamten Familie und Freunden weiterleiten. Vielen Dank.

Für weitere Fragen stehe ich Ihnen gern zur Verfügung und verbleibe

mit freundlichen Grüßen

Helga Ehresmann

Tel. 0151 58177973

www.volksbegehren-windkraft.de

Mitglied von BI Freier Wald e.V.

Mitglied von Volksinitiative Rettet Brandenburg

VERNUNFTKRAFT.

Bundesinitiative für vernünftige Energiepolitik

www.vernunftkraft.de

Sie finden den Antrag und das Infoblatt als pdf zum Ausdrucken im Anhang. 

Related Files




Die Modell-Atmosphäre und globale Erwärmung

Alles, was wir über das Weltklima wissen … in Vergangenheit, Gegenwart und Zukunft … wissen wir durch Modelle“. Das sagt Prof. Paul Edwards, ein Befürworter des „Konsens“-Standpunktes zum Klimawandel, in seinem hoch gelobten Buch A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming (MIT Press, 2010). Er vermerkt auch: „ohne Modelle gibt es keine Daten“.

Modelle sind zu einem integralen Bestandteil moderner Wissenschaft geworden. In vielen Bereichen, sagt Edwards, „begleiten Computermodelle die Laborexperimente oder ersetzen diese sogar; Analyse- und Simulations-Modelle wurden prinzipielle Mittel bei der Datensammlung, der Vorhersage und beim Treffen von Entscheidungen“.

Dies erfordert in der zeitgemäßen Welt der Wissenschaft natürlich die Hilfe mächtiger moderner Computer. Die drei grundlegenden Komponenten der wissenschaftlichen Methode – Beobachtung, Hypothese und Austesten derselben – gelten nach wie vor, aber in vielen Fällen ist der Eckpfeiler Austesten von Modellen begünstigt und in manchen Fällen sogar usurpiert worden.

Wie viele der Zweifler an der katastrophalen, vom Menschen verursachten Hypothese der globalen Erwärmung bestätigen können, beruhen die „Beweise“ für eine weltweite Klimakatastrophe ausschließlich auf den Ergebnissen atmosphärischer Modelle. Kann man derartigen Ergebnissen genug Vertrauen entgegenbringen, um Billionen Dollar während der nächsten Jahre auszugeben, um den Energiebereich umzukrempeln und die finanziellen Ressourcen umzuverteilen? Ein Forscher drückte es so aus: „Man kann ein Modell heranziehen, um alles zu stützen, was man will, aber man kann damit nichts beweisen … man kann modellieren, dass die Sonne um die Erde kreist“.

Atmosphärische Modelle haben immense Schwierigkeiten bei der Simulation von Schlüsselelementen des hydrologischen Kreislaufes wie etwa Bedeckung mit Wolken und Verteilung der Niederschlagsmenge. Derartige Komponenten sind offensichtlich wichtig für drastische politische Entscheidungen, die sich schwer auf solche dekadenweite Projektionen stützen.

Wasser in all seinen Aggregatzuständen – als unsichtbarer Wasserdampf in der Atmosphäre, als Flüssigkeit in den riesigen Ozeanen und als Kleinst-Wassertröpfchen in Wolken oder als solide Eisschilde und Schneekristalle – ist der ultimative Lenker des Klimas auf der Erde. So genannte Treibhausgase wie Kohlendioxid oder Methan spielen bei der Klimasteuerung eine sekundäre Rolle. Und trotzdem richtet sich der Schwerpunkt der Forschungsförderung auf „Kohlenstoff-Verschmutzung“, und fast durchweg finden sich nur negative Aspekte eines gestiegenen atmosphärischen CO2-Gehaltes in der populären als auch der wissenschaftlichen Presse. Die tatsächlich eingetretenen positiven Auswirkungen von mehr CO2 in der Luft, beispielsweise manifestiert in der Ergrünung des Planeten, werden verworfen oder völlig ignoriert.

Ich habe schon früher darauf hingewiesen: die meiste Zeit meines Berufslebens als ein Meteorologe mit dem Fachgebiet Luftverschmutzung habe ich mich auf irgendwelche Weisen mit der atmosphärischen Modellierung befasst. Und aus Erfahrung geht eindeutig hervor, dass die Komplexität des Erdklimas unglaublich vielfältig ist. Die Vorhersage der Zukunft eines solchen Klimas in bedeutsamen Details ist eine unglaubliche Herausforderung. Und das Niveau der Erfahrung, der Umfang des Wissens und die Entwicklung von Intuition, um auch nur eine halbwegs zuverlässige Ahnung des zukünftigen Klimas zu bekommen, ist ziemlich beeindruckend.

Verständlicherweise muss die große Mehrheit der Öffentlichkeit darauf vertrauen, was die Klimawissenschaftler ihr über die Zukunft der atmosphärischen Zustände dieses Planeten sagen. Dennoch sollte dieses Vertrauen zumindest in einigen Punkten auch hinterfragt werden, vor allem von nachdenklichen Erwachsenen. Denkende Menschen sollten es besser wissen als einfach nur selbst wirklich smarten Wissenschaftlern zu vertrauen, wenn es darum geht, was diese Wissenschaftler „zuverlässig wissen“ über das Erdklima viele Jahrzehnte im Voraus. Selbst die wirklich smarten Wissenschafts-Weisen können unmöglich um den langfristigen Zustand des globalen Klimas wissen – außer in Gestalt einer großen Bandbreite von Temperatur und Niederschlags-Niveaus (eine Bandbreite, die für praktische Zwecke viel zu groß ist). Dieses fehlende Wissen kam während der letzten 18 Jahre eindrucksvoll ans Tageslicht, passt doch während dieser Zeit der modellierte globale mittlere Temperaturtrend überhaupt nicht zur Realität.

Wenn es also um die Modellierung des Klimas in ferner Zukunft geht, kann man es vielleicht am besten mit den Worten des bedeutenden Atmosphären-Wissenschaftlers Reid Bryson ausdrücken: „Eine Vorhersage zu erstellen ist einfach. Damit recht zu haben, das ist der schwierige Teil“.

Anthony J. Sadar is a Certified Consulting Meteorologist and author of In Global Warming We Trust: Too Big to Fail (Stairway Press, 2016) 

Link: http://www.americanthinker.com/articles/2016/04/the_model_atmosphere_and_global_warming.html

Übersetzt von Chris Frey EIKE