Neues zum Wärmeinseleffekt: Eine Untersuchung über die Umgebung von USHCN-Stationen mit Hilfe eines bereinigten Datensatzes

*BEST = Berkeley Earth Surface Temperature. Googeln!

Interessant daran ist der Umstand, dass der Autor der Präsident einer privaten Vereinigung ist, die sich WeatherSource nennt. Sie beschreibt sich selbst so:

WeatherSource ist der führende Lieferant historischer und gegenwärtiger digitaler Wetterinformationen höchster Qualität, und zwar für mehrere 10 000 Stationen in den USA und weltweit.

Das Besondere an dieser Gesellschaft ist, dass sie Wetterdaten auch hoch profilierten Kunden zur Verfügung stellen, die diese Daten nutzen zur Abschätzung von Risiken und vermuteten Ergebnissen. Diese Kunden wenden sich an dieser Gesellschaft, weil diese ein hervorragendes Produkt erzeugen; Bodendaten, die von vielen Problemen, die es im Datensatz des NCDC gibt, bereinigt sind.

Ich habe eine Präsentation von ihnen im vorigen Jahr gesehen, und es war auch das erste Mal, dass wir uns trafen. Das war ein besonderes Treffen, gab es doch hier zum ersten Mal nach der Durchsicht unserer Fotografien von Stationen eine visuelle Bestätigung der Probleme, die sie aus der Untersuchung der Daten ableiten konnten. Es war ein Zusammentreffen von Gleichgesinnten, von Daten und Metadaten.

Über ihre bereinigten Daten sagen sie  Folgendes:

WeatherSource verfügt über eine einmalige Datenbank der Wetterinformation, erstellt aus einer Kombination von vielen verschiedenen Datensätzen, die in einen umfassenden „Super“-Datensatz von Wetterinformationen zusammengefasst worden ist. Es gibt heute nichts Vergleichbares auf dem Markt. Durch das Zusammenführen zahlreicher verschiedener Datensätze werden die Lücken in einem Datensatz häufig durch einen anderen Datensatz geschlossen. Dies ergibt eine Datenbasis, die konzentrierter und vollständiger ist als jeder einzelne der originalen Datensätze. Zusätzlich werden alle in Frage kommenden Daten einer Qualitätskontrolle unterzogen und korrigiert, bevor sie Eingang in die Datenbasis von WeatherSource finden. Das Endergebnis ist eine „Super“-Datenbasis, die vollständiger und genauer ist als jede andere derzeit existierende Datenbasis – Punkt!

Es ist diese „Super“-Datenbasis, die sich im Kern aller Produkte von WeatherSource befindet. Man kann sich beruhigt zurücklehnen in dem Wissen, dass alle Produkte und Leistungen von WeatherSource die besten sind, die es gibt.

Über historische Daten heißt es dort:

Umfassend und stabil sind die zwei Wörter, die den historischen Datensatz von WeatherSource am besten beschreiben.

Umfassend, weil unsere Datenbasis aus vielen Basisdaten aus verschiedenen Quellen zusammengestellt wurde. Aus diesen erzeugen wir zusammengefasste Datensätze, die vollständiger sind als jeder einzelne Datensatz. Dies erlaubt es uns, Ihnen nahezu jede Wetterinformation zur Verfügung zu stellen, die sie vielleicht brauchen.

Stabil, weil unser System der Datenkontrolle und Bereinigungsmethoden sicherstellen, dass die Daten, die Sie brauchen, akkurat und von höchster Qualität sind.

Als Beispiel folgt hier ein Vergleich des von ihnen bereinigten Datensatzes mit einer GHCN-Station:

Die Verfahren, die man benutzt, sind nicht unähnlich denen bei BEST; das Hauptaugenmerk liegt auf der Lösung von Problemen mit den historischen Daten, die von dem auf freiwilliger Basis operierenden Cooperative Observer Network (COOP) der NOAA zusammengetragen worden waren. Dieses COOP-Netzwerk enthält auch eine Unterorganisation, das U.S. Historical Climatology Network (USHCN), welches einen handverlesenen Satz von Stationen von Forschern am National Climatic Data Center (NCDC) besitzt. Dieser basiert auf der Länge der Reihen und die Bewegungen der Station:

Die Stationen des USHCN wurden gewählt mit Hilfe einer Anzahl von Kriterien, u. a. Länge der Aufzeichnungen, Prozentzahl der fehlenden Daten, Anzahl der Veränderungen der Station; alles Dinge, die die Homogenität der Daten und die flächenmäßige Abdeckung beeinflussen können.

Das Problem besteht im Folgenden: Bis das Projekt surfacestations.org ins Leben gerufen worden war, wurde nie die Umgebung der Messstation betrachtet. Den freiwilligen Beobachtern wurde nicht einmal gesagt, wie speziell diese Stationen waren, so dass diese Beobachter eben nicht immer besonders sorgfältig gemessen haben und auch nicht darauf geachtet haben, ob die Stationen die Mindestanforderungen an die Umgebung erfüllt haben, wie z. B. die 100-Fuß-Regel der NOAA:

Position des Sensors: Der Messfühler sollte sich 5 Fuß (ca. 150 cm) +/- 1 Fuß (ca. 30 cm) über dem Boden befinden. Die Beschaffenheit des Untergrundes, auf dem die Hütte steht (Strahlung) sollte typisch für das umgebende Gebiet sein. Eine offene, flache Ebene ist wünschenswert, so dass die Thermometer ungestört von der zirkulierenden Luft umweht werden. Man installiere den Sensor nicht auf einem steilen Hang oder in einer geschützten Höhlung, es sei denn, dies ist typisch für das Gebiet oder Daten aus einer solchen Örtlichkeit werden gewünscht. Wenn möglich sollte die Hütte nicht näher an einem Hindernis liegen als vier mal die Höhe des Hindernisses (Bäume, Zäune, Gebäude usw.). Der Sensor sollte sich außerdem mindestens 100 Fuß (ca. 3 m) von einer befestigten oder betonierten Oberfläche entfernt befinden.

Wie allgemein bekannt ist, und wie auch die NOAA in ihren eigenen Veröffentlichungen in dieser Sache einräumt, erfüllt nur etwa 1 von 100 Stationen im USHCN diese 100-Fuß-Regel. Dies ist die Grundlage für die Kritik, die ich schon seit einiger Zeit übe – dass die Örtlichkeit zu unberücksichtigten Verzerrungen in den Daten führt.

WeatherSource ist eine private Gesellschaft, die alle Daten einem speziellen Bereinigungsprozess unterzieht. Dieser beseitigt viele, aber nicht alle erkannten Verzerrungen und Fehler in den Daten. Ich habe einen detaillierten Ablaufplan ihrer Prozesse gesehen sowie den Vergleich vorher – nachher, und ich habe Vertrauen darin, dass sie auf diese Weise wirklich einen hervorragenden Datensatz erhalten.  Jedoch, als Firma müssen sie auf ihren Vorteil achten, und ich habe beschlossen, den Prozess nicht bekannt zu machen, weil er das legale intellektuelle Eigentum der Gesellschaft ist.

Die Techniken, mit denen das BEST team die Daten bereinigt, und die ich bei einem Treffen mit ihnen im Februar 2011 kennen lernte, sind ähnlich, aber sie haben versprochen, öffentlich zugängliche Daten zu verwenden und den Prozess transparent und nachvollziehbar zu machen, wie sie es auf ihrer Website zeigen:

In dem Wissen, dass BEST unabhängig Techniken für die Bearbeitung von Bodendaten gefunden hatte, und weil es mit den Ideen der privat betriebenen Gesellschaft WeatherSource Überlappungen gab, kann man sich meine Begeisterung über dieses Projekt vorstellen.

Unglücklicherweise hat BEST am 31. März in vollem Licht der Öffentlichkeit vor dem Kongress den Ball verloren [fumbled the ball: ein Begriff aus dem American Football], so dass er dem gegnerischen „Team“ in die Hände fiel. BEST veröffentlichte einige potentiell wackelige [buggy] und zugegebenermaßen unvollständige vorläufige Ergebnisse (von denen ich die Grundlagen gesehen habe), ohne Transparenz und Nachvollziehbarkeit. BEST hat bislang nicht einmal ein Papier präsentiert.

Im Gegensatz dazu hat WeatherSource ein solches Papier erstellt, was heute online gestellt worden ist. Während es nicht von einem Journal begutachtet worden ist, wurde es von einer Anzahl professioneller Leute begutachtet, und wird natürlich mit dieser Einführung auf WUWT der weltweit größtmöglichen Begutachtung unterzogen.

Es muss festgehalten werden, dass die gesamte Datenanalyse von Mr. Gibbas von WeatherSource durchgeführt worden ist. Meine Rolle beschränkte sich darauf, Metadaten zur Verfügung zu stellen sowie Fotos von unserem Projekt zu Bodenstationen und bei der Formulierung zu helfen.

Hier findet man die vollständige Studie:

An Investigation of Temperature Trends from weather station observations representing various locations across Utah (21.5mb PDF) von Mark Gibbas

Man beachte, weil es sich hier um eine private Gesellschaft handelt und weil kleine Gesellschaften ihre IP-Rechte aus wettbewerbstechnischen Gründen schützen müssen, dass die Verfahren zur Datenbereinigung nur im Allgemeinen diskutiert werden können, aber die Gesellschaft kann den Code ohne den Verrat an ihren IP-Rechten nicht bekannt geben. Allerdings kann die Datenquelle dieser Studie auf Anfrage zur Verfügung gestellt werden, da WeatherSource den vorläufigen Zugang angeboten hat unter der Voraussetzung, dass der Endbenutzer damit forschen will und es nicht für kommerzielle Zwecke nutzt und es auch nicht unter seinem Namen in der ursprünglichen Form veröffentlicht. Nutzen Sie den Menüpunkt „contact“ hier auf WUWT, falls Sie eine Ausgabe der von WeatherSource bereinigten Daten haben wollen, nachdem Sie den bedingungen zugestimmt haben. Anonyme Anfragen werden ignoriert. Die Liste der Metadaten der Stationen findet man hier: Utah-stations-metadata (PDF) Utah-stations-metadata (Excel .xls)

Hier folgen ein paar Auszüge:

HINTERGRUND

Jedoch war es in dieser in viel kleinerem Maßstab durchgeführten Studie unser Ziel, die langzeitlichen Temperaturaufzeichnungen der über Utah verteilten Wetterstationen zu untersuchen und zu versuchen, lokale Einflüsse auf die Messungen herauszufinden. Beispielsweise ist bekannt, dass urbane Gebiete zu einem starken Erwärmungstrend führen. Weniger bekannt sind andere Einflüsse auf die Temperatur wie moderne Landwirtschaft [oder heranwachsende Bäume. A. d. Übers.].

Bevor diese örtlich begrenzten Einflüsse nicht eindeutig quantifiziert werden können, kann man nicht anfangen, Trends oder Fluktuationen in größerem Maßstab zu untersuchen, wie z. B. in einem Bundesstaat, einer Region, einem Land oder weltweit. Diese Untersuchung ist ein wichtiger Schritt zu diesem ultimativen Ziel – aber noch wichtiger, sie zeigt, dass dieses Ziel immer noch schwierig zu erreichen ist, wenn man die Ungewissheit und die Methodik betrachtet, die man angewendet hat, um ein Signal zur Klimaänderung aus den Aufzeichnungen der Bodenstationen zu extrahieren.

ANSATZ

Um die zahlreichen Beeinflussungen der gemessenen Temperaturreihen besser zu verstehen, identifizierte und untersuchte diese Studie zahlreiche Wetterstationen mit langen Temperaturreihen aus urbanen, landwirtschaftlichen und von natürlicher Wildnis umgebenen Stationen, aber auch von Stationen in Utah, deren Umgebung sich nur wenig oder gar nicht verändert hat.

Ursprünglich wurden für diese Studie die Daten des National Climatic Data Center (NCDC) U.S. Historical Climatology Network Version 2 (USHCNv2 2009)6 verwendet. Jedoch wurden mit der Zeit zahlreiche Unstimmigkeiten in den USHCN-Daten gefunden, so dass dieser Datensatz verworfen wurde. Stattdessen benutzte diese Studie Daten des original NCDC U.S. Cooperative Summary of the Day Data (als DSI-3200 dataset bezeichnet). Dieser Datensatz wurde mit Hilfe einer auf Regression beruhenden Methode bereinigt. Eine kurze Erklärung hiervon innerhalb des USHCN folgt in Kürze.

Innerhalb dieses bereinigten DSI-3200–Datensatzes konnten in dieser Studie Stationen in Utah mit einer mindestens 50 Jahre langen Reihe identifiziert werden. Unter Nutzung von Quellen wie Google Earth und demographischer Informationen aus einer Volkszählung in den USA wurden diese Stationen eingeteilt nach Kriterien wie Urbanität oder Landwirtschaft. Die Einschätzung erfolgte in 5 Einstufungen mit 5 als der höchsten Einstufung.  Stationen mit einer niedrigen Einstufung waren solche mit einer geringen Urbanität bzw. einer geringen Landwirtschaft.

Basierend auf den urbanen und landwirtschaftlichen Indexwerten wurden die Wetterstationen in drei Gruppen eingeteilt, nämlich städtische, landwirtschaftliche oder nicht eindeutige Örtlichkeiten.

GRÜNDE FÜR DIE BEOBACHTETEN VARIANZEN DER TEMPERATUR

Man würde vermuten, dass zwei etwa 30 Meilen [knapp 50 km] voneinander entfernt liegende Wetterstationen in etwa gleicher Seehöhe und Umgebung konsistente Temperaturdaten innerhalb von 50 Jahren gemessen haben; die zeitliche Abfolge von Temperaturänderungen sollte nahezu perfekt korreliert sein, und beide Stationen sollten den gleichen generellen Trend zeigen. Jedoch fanden wir in der Praxis, dass solche Stationen signifikante Unterschiede bei ihren Messungen aufweisen, obwohl beide von den gleichen großräumigen Wetterlagen betroffen waren. Aber wie kann das sein? Die Antwort liegt fast immer in Veränderungen in der unmittelbaren Umgebung der Wetterstationen, die die Messungen beeinflussen.

Hat man einmal festgestellt, dass Veränderungen der Station auf künstliche Weise reale Wettertrends verdecken können, stellt sich die offensichtliche Frage: Zu was taugen all diese Stationsdaten, wenn jede Station Gegen­stand falscher Trends wegen Veränderungen an dieser Station ist? Bei einer sehr kleinen Anzahl von Stationen ist das tatsächlich ein Problem, aber wenn man ein Gruppenmittel über mehrere Stationen bildet, heben sich die jeweiligen Veränderungen gegenseitig weitgehend auf. Der Grund hierfür beruht auf dem statistischen Prinzip, dass Veränderungen sich zu Null mitteln, während dies beispielsweise bei urbanem Wachstum nicht der Fall ist.

Also müssen wir, um den jeweiligen Trend für die drei Gruppen besser abschätzen zu können, diese zu einem Gruppentrend mitteln. Tafel 5  zeigt den mittleren Trend für jede der drei Gruppen. JJA bezeichnet die drei Sommermonate Juni, Juli und August. DJF steht für die drei Wintermonate Dezember, Januar und Februar. TMax steht für den Trend der täglichen Höchst- und TMin für den der täglichen Tiefsttemperatur. Die vertikale Achse zeigt den Trend in Grad pro Jahr.

Aus der Tafel 5 lässt sich Folgendes entnehmen:

§           Der Trend der Minimumtemperatur ist signifikanter als der der Maximumtemperatur. Eine gründliche Untersuchung, warum das so ist, wäre sicher notwendig. Aber für jetzt wollen wir einfach festhalten, dass der Trend der Minimumtemperatur genau wie erwartet ist. 

§           Die urbane Gruppe der Stationen zeigt den stärksten Trend, gefolgt von der landwirtschaftlichen Gruppe und danach derjenigen mit geringen Veränderungen

§           Der Unterschied zwischen der landwirtschaftlichen Gruppe und der ohne Veränderungen ist im Sommer ausgeprägter als im Winter.

§           Der Trend der Minimumtemperatur in der Gruppe ohne wesentliche Veränderungen ist im Sommer und Winter nahezu gleich, wohingegen der Trend der Minimumtemperatur in der landwirtschaftlichen und der urbanen Gruppe im Sommer stärker ist als im Winter.

Karte 6 zeigt den kumulierten Trend im Sommer und im Winter für die drei Gruppen in Grad Fahrenheit pro Dekade [zum Umrechnen hier]. Der städtische Wert von 0,42°F stimmt überein mit den veröffentlichten Schätzungen zwischen 0,36°F und 0,44°F pro Dekade für die gegenwärtige globale Erwärmung.

Der generelle Trend [net trend] der landwirtschaftlichen Gruppe beträgt 0,27°F pro Dekade und liegt damit um 37% unter dem Trend der urbanen Gruppe. Der Trend der Gruppe ohne wesentliche Veränderungen beträgt 0,20°F pro Dekade oder 52% des urbanen Wertes.

SCHLUSSFOLGERUNGEN

Diese Studie hat gezeigt, dass es signifikante Unterschiede in den Temperaturtrends zwischen Wetterstationen in urbanen, landwirtschaftlichen und geringen Veränderungen gibt. Außerdem wurde gezeigt, dass urbane Stationen signifikant höhere Trends zeigen, hervorgerufen durch zahlreiche urbane Faktoren, die nichts mit dem CO2-Gehalt der Luft zu tun haben. Es konnte auch bewiesen werden, dass Stationen in landwirtschaftlicher Umgebung einen Erwärmungstrend infolge zunehmender Feuchtigkeit zeigen. Angesichts des Umstandes, dass sowohl urbane Stationen als auch solche in landwirtschaftlicher Umgebung einen Erwärmungstrend zeigen, der nichts mit einer Erwärmung durch CO2 zu tun hat, ist es sinnvoll, den Stationen ohne wesentliche Veränderungen viel mehr Gewicht zu geben. Gegenwärtig ist dies nicht der Fall, befindet sich doch der größte Teil der Stationen an Flughäfen, die per se in der Nähe urbaner Standorte liegen.

METHODE ZUR BEREINIGUNG DER TÄGLICHEN DATEN

Die in dieser Studie verwendete Methode zur Bereinigung der DSI-3200-Daten nutzt Schätzungen via Regression von benachbarten Stationen, um fehlerhafte Werte zu korrigieren oder fehlende Werte zu ergänzen. Dies ist notwendig, wenn man eine Zeitreihe von Temperaturdaten mit hoher Qualität haben will. Diese Methode zur Bereinigung dient nicht dazu, den urbanen Wärmeeffekt heraus zu rechnen, ebenso wenig wie Diskontinuitäten oder andere Einflüsse auf die gemessene Temperatur. Schlüsselfaktoren der Methode sind:

§           Anpassung aller Messungen an einen einheitlichen Morgen-, Mittag- und Abendtermin, um alle Stationswerte wirklich miteinander vergleichen zu können.

§           Alle Regressionen basieren auf jahreszeitlichen Zeitfenstern.

§           Zwei Arten von Regression wurden für jede Nachbarstation durchgeführt; außerdem eine jahreszeitliche Regression auf Basis der Daten aus drei Jahren, die um ein spezielles Datum liegen, und eine saisonale Regression, der alle Daten zugrunde liegen.

§           Regressionen von allen Nachbarstationen werden in einer Verteilung zusammengefasst, die analysiert und mit den Originalwerten der Zielstation verglichen wird. Sollten die Originalwerte der Zielstation basierend auf statistischen Tests bestätigt werden, wird sie einbezogen. Sollten hingegen die Werte unstimmig sein, werden sie durch die Regression der Station mit der größten Korrelation zur Zielstation ersetzt. In allen Fällen werden fehlende Werte der Zielstation durch Abschätzungen von Nachbarstationen mit der größten Korrelation zur Zielstation aufgefüllt.

Es hat sich gezeigt, dass die oben umrissene Methode Werte erzeugt, die höchst konsistent mit den originalen Zeitreihen sind. Dies wurde festgestellt durch die Qualifizierung akkurater Werte, die danach künstlich entfernt und durch andere Werte ersetzt wurden. Dies wurde anschließend der Bereinigungsmethode unterzogen. Die sich ergebenden eingesetzten Werte wurden danach mit den entfernten Originalwerten verglichen. Dieses Verfahren hat dazu geführt, dass Ersatzwerte im Vergleich zu den Originalwerten einen Korrelationsfaktor R2 oder 0,985 oder noch mehr haben.

– Ende der Auszüge

In einem Fall wurde bemerkt, wie eine zuvor abgelegene und ländliche Station des USHCN, und zwar die Station Snake Creek Powerhouse, zunächst von einem olympischen Sportzentrum und danach von einem bewässerten Golfplatz umgeben war.  Hierzu wurde eine Fallstudie #2 durchgeführt.

Aus Fallstudie #2

Die nächste Darstellung zeigt, was nach dem Hinzufügen der von NCDC USHCN adjustierten Daten passiert. Unglücklicherweise korrigiert diese Adjustierung nicht die Daten der Station Snake Creek, und tatsächlich beeinträchtigt dieser Umstand die Qualität der Daten noch weiter. Der Trend für die Station Snake Creek ist ohnehin schon verdächtig, zeigt doch der Datensatz DSI-3200 einen aufwärts gerichteten Trend von 0, 246 oder grob ein Viertelgrad Fahrenheit pro Dekade. Im Gegensatz dazu zeigen die bereinigten Daten des USHCN einen Abkühlungstrend von -0,05 oder grob -0,5 Grad Fahrenheit pro Dekade.

Es ist klar, dass diese Adjustierung falsch ist; anderenfalls würde diese Station in Utah eine der extremsten Abkühlungen dieses Planeten erfahren.

Die Anpassungen an [die Werte der Station] Snake Creek müssen als alarmierend eingestuft werden und führen zu folgenden Schlussfolgerungen:

1. Es wird vermutet, dass die Anpassungen das Ergebnis einer einfachen automatisierten Methode sind, die eine lineare Anpassung an den Daten anbringt, so dass die Endpunkte der linearen Anpassung unrealistische Ergebnisse bringen.

2. Es ist offensichtlich, dass hier jedwede Begutachtung oder Qualitätschecks fehlen.

– Ende des Auszugs

Nun ist Utah gewiss nicht die Welt. Diese Studie demonstriert, was man lernen kann durch einen detaillierten Blick auf die Metadaten einer Station zusammen mit der Bereinigung von Temperaturwerten und einer Analyse. Wie in der Studie erwähnt, wurde nicht wie in der Präsentation von BEST versucht, den UHI-Effekt oder den Effekt zusätzlicher Feuchtigkeit zu korrigieren, die hauptsächlich Auswirkungen auf die Nachttemperatur hat, besonders in Gebieten mit künstlicher Bewässerung. Die menschliche Erfahrung kennt diesen Effekt aus den trockenen Wüsten im Südwesten der USA, wo es wegen der geringen Feuchtigkeit nachts sehr kalt werden kann im Gegensatz zum Südosten der USA, wo Feuchtigkeit für warme Sommernächte sorgt. Die Frage ist, wie stark die Nachttemperaturwerte durch diese zusätzliche Feuchtigkeit durch künstliche Bewässerung angehoben werden.

Eine Studie im kalifornischen Central Valley von Dr. John Christy 2006 von der UAH hat tatsächlich in einem kleinen Gebiet diesen Umstand untersucht. Er wandte besondere Sorgfalt auf, die Masse der Metadaten zu studieren, um diesem Effekt auf die Spur zu kommen. Siehe hier: Christy on irrigation and regional temperature effects

Bis wir eine Methode finden, um diese Umstände und den UHI-Effekt zu berücksichtigen, stecken die Oberflächendaten immer noch voller Ungewissheiten.

Jedoch finde ich es ermutigend, dass sich eine private Gesellschaft, die Wetterdaten mit einem inhärenten Risiko des Managements zur Verfügung stellt, bei dem es ökonomische Belohnungen gibt, falls sie recht haben, und den Ruin bedeutet, wenn sie falsch liegen, mit den Verzerrungen der Stationen von NOAA COOP befasst hat, zumindest teilweise. So etwas wird viel mehr gebraucht.

Die bloße Tatsache, dass diese Gesellschaft für den ausdrücklichen Zweck gegründet wurde, um korrekte und bereinigte Daten von der Temperatur der Erdoberfläche zu erzeugen und zu verkaufen, und dass sie Kunden haben, die dies dringend brauchen, spricht Bände.

Link: http://wattsupwiththat.com/2011/04/04/an-investigation-of-ushcn-station-siting-issues-using-a-cleaned-dataset/

Übersetzt von Chris Frey für EIKE

Alle Hervorhebungen (fett, kursiv) im Original!




Anmerkungen zu CDU Generalsekretär Gröhe: „Den Umstieg gestalten“ – Kernenergie in Deutschland

Zweifellos begrüßenswert ist es, wenn eine große Partei sich Gedanken über die Zukunft auch der Energiewirtschaft unseres Landes macht. Mit den Ausführungen des Generalsekretärs der CDU, Hermann Gröhe, in der FAZ vom 2. April 2011 („Den Umstieg gestalten“) wurde, aus- gehend von den tragischen Ereignissen im Kernkraftwerk Fukushima, ein erneuter Versuch unternommen, in die Zukunft zu blicken.

Leider bieten die Ausführungen von Hermann Gröhe keinerlei grundsätzlich neue Erkenntnisse nach Fukushima. Er bezieht sich nach wie vor auf das CDU-Grundsatzprogramm von 2007, in dem der Kernenergienutzung keine Zukunftsberechtigung zugestanden und der Neubau von Kernkraftwerken abgelehnt wird. Die CDU hat sich damit dem „nuklearen Mainstream“ in Deutschland angeschlossen, wie ihn inzwischen alle Bundestagsparteien nahezu einhellig vertreten. Eine Auseinandersetzung mit der Tatsache, dass jenseits der deutschen Grenzen – in einer globalisierten Welt – die Kernenergie als Zukunftstechnologie angesehen wird, findet sich in den Ausführungen des Generalsekretärs der CDU nicht.

Wiederum wird die Kernenergie als „Brückentechnologie“ bezeichnet, die ins „Zeitalter erneuerbarer Energien“ führen soll. Es erstaunt immer wieder, wie von führenden Politikern unseres Landes suggeriert wird, in die Zukunft schauen zu können und dabei erkennen zu können, dass die Erde in diesem „goldenen“ Zeitalter mit Sonne, Wind und Biomasse energetisch so versorgt werden kann, dass die drängenden Probleme der Menschheit, wie Hunger, Krankheiten, fehlende Bildung usw. und die daraus zu einem großen Teil entspringenden sozialen und militärischen Konflikte zu lösen seien. Es bleibt offen, warum sich unter diesen Umständen Deutschland beispielsweise an den internationalen Forschungen zur Nutzbarmachung der Kernfusion beteiligt.

Als völlig absurd muss der Begriff „Brückentechnologie“ angesehen werden, mit dem man argumentativ Zeit gewinnen will, um nicht sofort aus der Kernenergie aussteigen zu müssen – wohl erkennend, dass das wirtschaftspolitisch nicht möglich ist. Keiner der politisch hochrangigen Autoren des CDU-Grundsatzprgramms oder des Koalitionsvertrags von 2009, in dem sich die gleiche Vokabel befindet, hat verstanden, dass jede der von der Menschheit bisher entwickelten Technologien „Brückentechnologien“ waren und sind, denn alle entstanden nach Auslaufen bisherigen Technologien und verschwanden nach dem Finden neuer, besserer Technologien. Das gilt für die Feuerstein-Bearbeitung oder danach für die Nutzung von Bronze und hört mit der Bearbeitung von Eisen noch lange nicht auf. Zu erkennen ist das genau so in der Genesis der Energetik: Menschliche und tierische Muskelkraft, Wasser- und Windkraft-Nutzung, Nutzung von Kohle, Erdöl und Erdgas und seit einem halben Jahrhundert zusätzlich Kernspaltungsenergie. Natürlich werden die heute üblichen Energiequellen einst durch bessere – billigere, umweltfreundlichere – abgelöst werden. Welche künftigen Energie-Technologien das sein werden – die Entscheidung darüber sollten wir unseren Nachkommen überlassen, denn sie werden das besser beurteilen können als die Autoren heutiger deutscher  Parteiprogramme! Fest steht aber: Auch das werden „Brückentechnologien“ sein! Keinesfalls steht jedoch fest, dass die Brückentechnologie Kernenergie durch die heute bekannten Technologien zur Nutzung von Wind, Sonne, Geothermie, Wasser oder Biomasse die neuen „Brückentechnologien“ sein werden, denn dazu fehlen ihnen noch erhebliche Eigenschaften, die die Brückentechnologie Kernenergie auszeichnen: Preiswürdigkeit, Zuverlässigkeit, Umweltfreundlichkeit. Überlassen wir die Wahl künftiger energetischer „Brückentechnologien“ unseren Nachkommen, schaffen wir mit unseren Kräften aber alle Voraussetzungen, damit sie eine möglichst optimale Wahl treffen können! Konkret heißt das, in alle Richtungen erkunden, welche Möglichkeiten zur Deckung des künftig ganz bestimmt noch weiter wachsenden Energiebedarfs es geben könnte und die dazu notwendigen Forschungen – in internationaler Arbeitsteilung – durchzuführen. Es zeugt von unverantwortlicher Kurzsichtigkeit, irgendeine der heute erkennbaren Technologien auszuschließen und weitere Forschungen zu unterbinden, ihnen die Zukunft abzusprechen! Natürlich sollte neben Kernspallation und Kernfusion auch an neuen Technologien wie Energiespeicherung, Solarenergienutzung oder Supraleitung geforscht werden. Ganz bestimmt werden unsere Enkel und Urenkel völlig neue Ideen entwickeln, denn sie werden bestimmt nicht dümmer als unsere Eltern und Großeltern sein! Aber schreiben wir ihnen nicht vor – auch nicht mit drohenden Hinweisen auf „Nachhaltigkeit“ oder „Bewahrung der Schöpfung“! –, wie sie ihre Energieversorgung gefälligst zu gestalten haben!  Mit „wirtschaftlicher Vernunft“ und  „sozialer Verantwortung“ hat das nichts zu tun!

Rein theoretisch ist es zweifellos denkbar, aus Fukushima eine Bestätigung des eigenen politischen Standpunktes abzuleiten und die Kernenergienutzung erneut zu verdammen. Fukushima wäre dann, so makaber es auch klingen mag, ein politisch willkommenes Ereignis!

Man kann aber auch andere Schlussfolgerungen ableiten – und das tun Forscher und Techniker der meisten anderen Länder: Die japanische Katastrophe ist eingehend zu analysieren und daraus abzuleiten, wie künftig derartige Ereignisse vermieden werden können. Wir sollten uns – auch in Deutschland! – vielmehr der Frage zuwenden, nicht nur wie wir bestehende Kernkraftwerke sicherer machen können, sondern auch, wie künftige Kernkraftwerke beschaffen sein sollten! Das schließt die Möglichkeit ein, tatsächlich auch hier wieder Kernkraftwerke zu bauen, und zwar solche, in denen Ereignisse wie in Tschernobyl oder Fukushima nicht eintreten können! Ansatzpunkte hierfür gibt es genügend, einige davon wurden sogar in Deutschland geschaffen (z. B. THTR)! Auch die vielbeschworene „Endlagerung“ sollte als wissenschaftlich-technische Herausforderung begriffen werden und nicht als Dauer-Argument gegen die Kernenergienutzung missbraucht werden! Auch hierfür gibt es wissenschaftliche Ansatzpunkte, die eine Jahrtausende dauernde Einlagerung von Spaltprodukten überflüssig machen könnten (Transmutation).

Nicht Einstellung der nuklearen Forschung sollte die politische Botschaft einer großen deutschen Partei lauten, sondern ganz im Gegenteil: Ausbau der kernphysikalischen und kerntechnischen Forschung! Deutschland sollte sich wieder aktiv einreihen in die wachsende Schar der Kernforscher und Kerntechniker auf der Welt! Wenn wir das nicht tun, werden wir die kerntechnische Entwicklung auf der Erde nicht aufhalten; wir werden uns lediglich isolieren und uns damit von einem potentiell aussichtsreichen Forschungsgebiet verabschieden – Hahn und Heisenberg würden sich wundern!

Eine Partei wie die CDU sollte sich überlegen, ob es wirklich sinnvoll ist, die Bürger unseres Landes davon überzeugen zu wollen, dass die Verspargelung der Landschaften oder der Bau überflüssiger Hochspannungsleitungen notwendig und vorteilhaft wären. Sie sollte sich vielmehr dafür engagieren, dass die Menschen unseres Landes die Kernenergie wieder als eine Energiequelle begreifen, die in der Lage ist, Deutschland langfristig mit preiswerter elektrischer Energie zuverlässig und umweltfreundlich zu versorgen. Abschottung vor der internationalen wissenschaftlichen Entwicklung schadet nicht nur der Wissenschaft sondern auch der Wirtschaft!

Die Negierung der Kerntechnik hat jedoch auch wirtschaftspolitische Konsequenzen: Wir scheiden damit endgültig aus der Reihe der Lieferanten von Kernkraftwerken und kerntechnischen Anlagen aus. Alle auf diesem Gebiet noch vorhandenen Erfahrungen würden wertlos. Es ist sehr zu bezweifeln, ob der Bau von Windenergieanlagen oder von Solarzellen auch dauerhaft von anderen Ländern so honoriert wird, dass sie derartige Anlagen aus Deutschland auch dann importieren werden, wenn es künftig hochmoderne, extrem sichere und preiswerte Kernkraftwerke auf dem Weltmarkt, allerdings nicht in Deutschland, zu kaufen geben wird!

Das Ausscheiden als Konkurrenten auf dem KKW-Markt, wofür uns andere Länder sehr dankbar sein werden, ist zugleich ein weiterer Schritt zur De-Industrialisierung Deutschlands, wie er schon „erfolgreich“ mit der „Klimapolitik“ gegangen wird. Deutschland ist dabei, sich auf den Weg in die wirtschaftliche Bedeutungslosigkeit zu machen!

Dr. Dietmar Ufer EIKE

Frankfurter Allgemeine Zeitung, 2. April 2011

   

Fremde Federn: Hermann Gröhe

Den Umstieg gestalten

Die schreckliche Katastrophe im japanischen Kernkraftwerk Fukushima muss für die CDU Anlass sein, unsere Position zur Kernkraft zu überdenken. Wer dies bestreitet, riskiert die Anschlussfähigkeit unserer Politik an nicht unerhebliche Teile unserer Bevölkerung. Wer sich darüber erhebt, übersieht, dass auch andere Parteien ihre Positionen verändert haben. So fordern SPD und Grüne inzwischen die Abschaltung jener älteren Meiler, denen man im eigenen Ausstiegsbeschluss noch eine längere Laufzeit zugestanden hatte.

   Ausgangsposition für die CDU ist dabei auch weiterhin unser Grundsatzprogramm von 2007. Danach gehört der Kernenergie nicht die Zukunft. Wir bejahen sie lediglich als Brückentechnologie ins Zeitalter erneuerbarer Energien. Den Neubau von Kernkraftwerken haben wir folgerichtig nach 2007 stets abgelehnt. Und die moderate Laufzeitverlängerung für unsere Kernkraftwerke verbanden wir mit dem Ziel, durch die erhebliche Abschöpfung der entsprechenden Gewinne den Ausbau erneuerbarer Energien zu fördern. Zugleich verschärften wir die Sicherheitsanforderungen. Rückblickend muss man jedoch zugeben, dass unsere Debatten über das Ausmaß der Laufzeitverlängerung den eigentlichen Grundgedanken verdrängt haben – das Ziel nämlich, in absehbarer Zeit auf Kernenergie gänzlich verzichten zu können. Mancher in Union und FDP mag in der Laufzeitverlängerung auch eine Mutprobe gesehen haben, auf eine möglichst lange Brücke zu setzen, an deren Ende eine Renaissance der Kernenergie steht. Wer so dachte, hatte nie die Beschlussfassung unserer Partei auf seiner Seite. Nicht eine Jahreszahl für das Ende der Kernenergie bildet den Markenkern der Union, sondern die Fähigkeit, wirtschaftliche Vernunft, soziale Verantwortung und die Bewahrung der Schöpfung miteinander verbinden zu können.

   Deshalb kann es auch keinen sofortigen Ausstieg geben, der unsere Wettbewerbsfähigkeit als Industrienation erschüttern würde, die die Grundlage auch der sozialen Sicherheit in diesem Land ist. Nicht wer am lautesten ein schnellstmöglichen  Ausstieg fordert, sondern wer am überzeugendsten den erforderlichen Umstieg gestaltet, beweist  Zukunftsverantwortung.  Allerdings werden wir prüfen müssen, wie wir den Weg ins Zeitalter erneuerbarer Energien beschleunigen können. Wenn wir damit den Sorgen der Menschen in unserem Land im Hinblick auf die Risiken der Kernenergie Rechnung tragen, so leisten wir damit zugleich einen Beitrag dazu, der zukunftsfähigen Ausgestaltung des Industriestandorts Deutschland die erforderliche gesellschaftliche Akzeptanz zu sichern.

   Für eine Festlegung von Jahreszahlen im Ausstiegsprozess ist es ebenso zu früh wie zur abschließenden Bewertung der Zukunft der inzwischen abgeschalteten älteren Meiler. Angesichts etwaiger erheblicher sicherheitstechnischer Nachrüstungserfordernisse in Folge veränderter Sicherheitsannahmen rechne ich jedoch damit, dass schon aus Gründen der Wirtschaftlichkeit zumindest eine Mehrheit von ihnen abgeschaltet bleiben wird. 

   Auf dem Weg ins Zeitalter erneuerbarer Energien sind anspruchsvolle Hürden zu überwinden. Unsere ehrgeizigen, aber notwendigen Klimaschutzziele setzen einem Ausbau von Kohle- und Gaskraftwerken Grenzen. Atomstrom aus dem Ausland wäre keine glaubwürdige Lösung. Zu einem schnelleren Ausstieg muss auch die Lösung der Endlagerfrage in einem transparenten Verfahren gehören. Wir brauchen einen Entwicklungssprung bei den Speichertechnologien und die Kraft, die Bevölkerung von neuen Stromtrassen etwa zur Anbindung von Offshore-Windparks und von Pumpspeicherwerken zu überzeugen. Hier könnte ein neuer überparteilicher Konsens Rückenwind für den Ausbau regenerativer Energien bringen. Und wir müssen die Förderschwerpunkte überprüfen. Denn überzogene Subventionen gefährden durch einen Anstieg der Strompreise Arbeitsplätze. Ein Kraftakt zur Förderung von Energieeinsparung und Energieeffizienz in den Privathaushalten würde dagegen neue Arbeitsplätze schaffen.

   Eine konsequente Energiewende sichert und schafft Arbeitsplätze, wenn wir gleichermaßen wirtschaftliche Vernunft, soziale und ökologische Verantwortung walten lassen. Gerade für die CDU als große Volkspartei ist dies eine spannende Zukunftsaufgabe. Moderne Industriepolitik, Nachhaltigkeit  und Schöpfungsverantwortung, Werben für gesellschaftliche Akzeptanz – das gehört zum Markenkern der Union.

 Der Autor ist Generalsekretär der CDU




Großbritanniens Lord Turnbull: Die wirklich unbequeme Wahrheit

Welche Komponenten hat diese Politik?

1.             Ein klarer Bezug auf die Wissenschaft, wie sie der Arbeit des IPCC zu entnehmen ist. Durch die anthropogenen CO2-Emissionen ist der Anteil des CO2 in der Atmosphäre von 280 ppm in der vorindustriellen Zeit auf heute 400 ppm gestiegen und wird sich bei dieser Rate in diesem Jahrhundert auf 550 ppm verdoppeln.

2.             Dieser Anstieg des CO2-Gehaltes ist der Hauptgrund für die Zunahme der Temperatur um 0,7°C während des vergangenen Jahrhunderts. Bei unveränderten Bedingungen wird die Temperatur während der nächsten 50 Jahre um 1 bis 1,5°C und um 3°C bis zum Ende dieses Jahrhunderts steigen.

3.             Sollte die Temperatur um mehr als 2°C steigen, wird dies eine Reihe widriger Konsequenzen haben, als da wären steigender Meeresspiegel, zunehmende Stärke von Stürmen, Ernteschäden, die Ausbreitung von Krankheiten usw.

4.             Um den Temperaturanstieg auf 2°C zu begrenzen, müssen die CO2-Emissionen halbiert werden, und weil die entwickelten Länder den Löwenanteil zum CO2-Gehalt beitragen, müssen diese ihre Emissionen um 80% reduzieren. Unter Berücksichtigung des Wirtschaftswachstums bedeutet dies, dass jede Einheit des Bruttoinlandproduktes nur etwa 5% des heutigen CO2 erzeugen darf.

Die Regierung von UK hat in den Verhandlungen zu einem Klimavertrag für diese Position geworben, aber weil es keinerlei Einigung gab (eine wirklich bindende Begrenzung scheint so ziemlich vom Tisch zu sein), hat man eigene Grenzen gesetzt.

Die Regierung von UK hat mit dem „Climate Change Act” (etwa: Gesetzentwurf zur Klimaänderung) 2008 eine mächtige Basis geschaffen. Die Eröffnungsklausel enthält bereits eine bindende Vorschrift:

 „Es ist die Pflicht des Staates (Secretary of State) sicherzustellen, dass der allgemeine Kohlenstoffausstoß im Jahre 2050 um 80% unter dem des Jahres 1990 liegt.“

Im Gesetzentwurf wird des Weiteren eine Kommission zur Klimaänderung ins Leben gerufen, deren Arbeit darin bestehen soll, 5-Jahres-Ziele festzulegen, um das letztendliche Ziel zu erreichen. Außerdem soll sie dem Parlament Bericht erstatten, ob die ergriffenen Maßnahmen wirklich zum Ziel führen.

Eine große Vielfalt von Maßnahmen wurde eingerichtet. Auf der Ebene der EU gibt es Absichten, bis 2020 den CO2-Ausstoß um 20% zu reduzieren, verbunden mit dem Angebot, im Rahmen eines internationalen Abkommens auch eine Reduzierung um 30% anzustreben, sowie eine Option, 15% der Energie aus erneuerbaren Quellen zu erzeugen. Die EU hat auch einen Zertifikatehandel eingeführt mit der Abkürzung EUETS, und will eine vorgeschriebene Quote von Biodiesel für den Verkehr einführen.

In UK wurden noch diverse andere Methoden in Kraft gesetzt.

·   Die Abgabe zur Klimaänderung; die Verpflichtung zur Reduzierung des Ausstoßes von Kohlenstoff; steigende Tarife, Ziele für die Windenergie, die Option, das CO“ aus Kohlekraftwerken abzuscheiden und unterirdisch zu lagern, und die Änderungen der Planung, die Kernkraft noch schneller durch Anderes zu ersetzen.

·   Außerdem stehen Vorschläge für eine Kohlenstoffsteuer sowie eine grüne Kampagne zur Steigerung der Energieeffizienz im Raum.  

Es wird nicht einfach nur die großen Energieverbraucher treffen, die ihren Ausstoß reduzieren müssen, sondern auch jede Firma, groß oder klein, und jeden Haushalt.

Aber es gibt da eine unbequeme Wahrheit, und es ist nicht die gleiche unbequeme Wahrheit wie aus dem Film von Al Gore. Die wirklich unbequeme Wahrheit ist, dass diese gesamte Struktur auf sehr tönernen Füßen steht.

Man kann bei dieser Agenda drei Ebenen ausmachen:

·   Erstens, die reine Wissenschaft, d. h. die Beziehung zwischen CO2 und Temperatur

·   Zweitens, die realen Folgen eines gegebenen Temperaturanstiegs bzgl. Meeresspiegel, Regenmengen, Dürren usw.   

·   Drittens, falls diese Auswirkungen zutreffen, was kann die Politik tun?

Diesen drei Ebenen entsprechen die drei Arbeitsgruppen im Aufbau des IPCC.

Was als Konsens beschrieben wird, ist in Wirklichkeit kein Konsens. Es gibt tief greifende Kontroversen auf jeder dieser drei Ebenen. Lassen Sie uns zunächst die Wissenschaft betrachten. Die Sicht des IPCC wurde mit dem Hockeyschläger dargestellt. Während der vergangenen tausend Jahre soll demnach die Temperatur nur in einem schmalen Bereich geschwankt haben, eher noch mit einer leicht abwärts gerichteten Komponente. Aber seit der Industrialisierung hat der Ausstoß von CO2 drastisch zugenommen mit der Folge eines ebenso drastischen Anstiegs der globalen Temperatur, die sog. Anthropogene Globale Erwärmung AGW.

Diese Darstellung wurde von zahlreichen Seiten in Frage gestellt:

·   Wurde der historische Temperaturverlauf richtig beschrieben? Viele Wissenschaftler glauben, dass in den späteren Berichten des IPCC die Variationen der letzten 1000 Jahre fälschlich geglättet worden waren, indem die Mittelalterliche Warmperiode (1000 bis 1350), die von der Kleinen Eiszeit (1350 bis 1850) und der daran anschließenden Wiedererwärmung der letzten 150 Jahre gefolgt wurde, unterschlagen worden sind. Diese alternative Darstellung deutet darauf hin, dass unser Klima schon lange vor den gegenwärtigen Veränderungen des CO2-Gehaltes hoch variabel gewesen ist. Die ersten Berichte des IPCC trugen diesem Umstand noch Rechnung, doch war das natürlich den AGW-Gläubigen ein Dorn im Auge, von denen einer in einer e-mail schrieb: „Wir müssen die Mittelalterliche Warmperiode los werden!“

·   Selbst die Historie der letzten 150 Jahre enthält eine Menge Probleme. Während dieser Zeit ist die globale Temperatur um 0,7°C gestiegen. Aber anders als der Anstieg des CO2-Gehaltes, der recht gleichmäßig verlaufen war, gab es hierbei markant unterschiedliche Phasen. Die Temperatur war von 1900 bis 1940 rapide gestiegen, zu einer Zeit, als der CO2-Gehalt gering war. Dem folgte ein geringer Temperaturrückgang von 1940 bis 1970, und zwar trotz der Tatsache, dass der CO2-Gehalt in dieser Zeit schon ziemlich stark angestiegen ist. Zwischen 1970 und den späten neunziger Jahren stiegen sowohl der CO2-Gehalt als auch die Temperatur deutlich, aber während der letzten 12 Jahre hatte die Temperatur auf diesem hohen Niveau verharrt [obwohl der CO2-Gehalt in gleichem Maße weiter stieg]. Falls der CO2-Gehalt wirklich so bedeutsam ist, wie die Theoretiker der AGW behaupten, warum machte die Temperatur den Anstieg des CO2-Gehaltes nicht mehr mit? Hierdurch wird immer offensichtlicher, dass man andere Faktoren ins Spiel bringen muss, besonders die Sonne und die Art und Weise, mit der Wärme in den Ozeanen gespeichert wird und verteilt ist. Daher ist völlig ungeklärt, welchen Anteil die natürlichen Treiber und welchen AGW hat.

·   Prinzipiell muss man aber nach der Klimasensitivität schauen, damit meine ich den Koeffizienten zwischen CO2 und Temperatur. Niemand bestreitet, dass das CO2 Treibhauspotential hat. Ein Kubikmeter Luft mit einem CO2-Gehalt von 550 ppm wird mehr Wärme zurückhalten als einer mit 280 ppm. Aber die meisten Wissenschaftler werden zustimmen, dass eine Verdoppelung des CO2-Gehaltes allein keinen Temperaturanstieg um 3°C oder mehr ergeben wird, wie es in den Modellrechnungen des IPCC heraus kommt. Der reine Effekt aus einer CO2-Verdoppelung liegt wahrscheinlich näher bei 1°C. Woher kommen also die höheren berechneten Werte?

·   Sie stammen aus dem Wasserdampf, von dem vermutet wird, dass der Gehalt in der Atmosphäre zunimmt, und das er ein viel stärkeres Treibhausgas ist als CO2. Eine wärmere Atmosphäre enthält mehr Wasserdampf. Aber heißt das automatisch, dass dies einen positiven, d. h. verstärkenden Effekt haben muss? Nicht notwendigerweise. Mehr Wasserdampf bedeutet auch mehr Wolken. Wolken haben eine isolierende Wirkung, reflektieren aber auch Sonnenlicht zurück in den Weltraum (Albedo). Darum ist es an wolkigen Tagen auch kühler. Der Endeffekt geht also in beide Richtungen.

·   Die Modellrechnungen des IPCC haben das starke positive Feedback vermutet, aber nicht bewiesen. Aber dieser teil der Wissenschaft wird immer noch sehr wenig verstanden.

Zusammenfassung dieses Teils der Diskussion:

·   Die globale Temperatur ist seit dem frühen 19. Jahrhundert angestiegen, jedoch viel langsamer, als der Anstieg in Zukunft ausfallen soll. Es gab eine Periode starken Anstiegs von 1970 bis zu den späten neunziger Jahren, doch ist diese Zeitspanne zu kurz, um daraus den Verlauf bis zum Ende dieses Jahrhunderts zu extrapolieren. In der ersten Dekade dieses Jahrhunderts sind wir weit hinter die Rate zurückgefallen, die eine Erwärmung um 3°C zur Folge hat, was annähernd vier mal so schnell wie die historische Rate wäre.

·    Der CO2-Gehalt ist nur während der letzten 60 Jahre signifikant gestiegen, während der Anstieg der Temperatur Fluktuationen aufweist.

Ich kann die zweite Ebene der Arbeit des IPCC sehr schnell abhandeln. Nach meiner Ansicht wurde hier die schäbigste Arbeit getan. [Es gab] eine Menge dramatischer Behauptungen über den Meeresspiegel, Eis, Ernteerträge, das Aussterben von Tier- und Pflanzenarten, festgemacht am Beispiel der Eisbären. Es hat sich gezeigt, dass vieles davon aus Material kommt, das nicht wissenschaftlich begutachtet worden war, also aus der sog. grauen Literatur. Und schlimmer noch, es stammt teilweise sogar aus Materialien, die von grünen NGO’s zur Verfügung gestellt wurden. Es gab fortwährend Rosinenpickerei (cherry picking), Übertreibungen, Überbewertung von Extrema und das Fehlen jeder Hinweise auf die positiven Auswirkungen. Im Großen und Ganzen hat die Menschheit immer von den Warmzeiten profitiert. Pflanzen wachsen schneller und nehmen mehr CO2 auf in einer Atmosphäre, die wärmer und feuchter ist sowie einen höheren CO2-Gehalt aufweist. Kälte fordert mehr Opfer als Wärme. Der Hauptgrund für die zunehmende Schadenssumme durch Wetterextreme ist das Bebauen und Bewohnen von Gebieten, die anfällig für solche Extremwetterereignisse sind. Die Befürchtungen über eine Ausbreitung von Malaria sind längst diskreditiert.

Wenden wir uns nun der dritten Ebene zu, der Politik.

·  Das erste Problem besteht darin, dass die Politik überwiegend auf der ‚warmistischen’ Sichtweise basiert. Viele, wie z. B. Ingenieure, glauben, dass der Anpassung viel zu wenig Aufmerksamkeit zukommt, d. h. besser vorbereitet zu sein auf das, wohin auch immer die Summe natürlicher Kräfte und CO2 uns führen, auf- oder abwärts. Diese warmistische Sichtweise der Welt kann erklären, warum wir auf kalte Winter so wenig vorbereitet waren, eines Phänomens, dass gut mit dem 11-jährigen solaren Zyklus korreliert, bei dem die Sonnenflecken ein extremes Minimum aufweisen.

·  Das Hauptproblem der Politik in UK liegt in der Einseitigkeit. Unser Gesetzentwurf zur Klimaänderung legt uns Pflichten auf, egal was andere Länder tun oder nicht tun. Das UK, das nur etwa 2% des weltweiten Bruttosozialproduktes produziert, hat allein nur einen minimalen Effekt auf die globale Erwärmung. Wenn wir die Dekarbonisierung zu drastisch angehen, etwa durch Anhebung des Preises für Kohlenstoff durch diverse Maßnahmen, werden wir einer doppelten Gefahr ausgesetzt. Energieintensive Industriezweige werden abwandern, und wenn die Klimapessimisten recht haben, werden wir dann immer noch den Preis für die Anpassung zahlen müssen, z. B. durch eine Verstärkung unserer Abwehr von Überflutungen. Nach meiner Ansicht sollten wir uns nur auf diese Dinge konzentrieren, die eindeutig positiv wirken und die wir nicht bedauern werden. Und davon gibt es viele. Die restliche Agenda sollten wir nur als Teil internationaler Aktivitäten verfolgen. Genau zu diesem Punkt gibt es derzeit in der EU heftigen Streit. Der Klimakommissar möchte die ambitionierteren 30% Reduktion festlegen, selbst bei Fehlen irgendeines Vertrages, und der Energiekommissar ist strikt dagegen.

Der wirtschaftlichen Logik nach müsste sich die Politik nach den Kosten pro Tonne eingesparten CO2 richten und dann den Preis der einzelnen alternativen Maßnahmen durchgehen, und zwar beginnend mit den effektivsten. Oder, was auf das Gleiche hinausläuft, man setzt einen Preis für Kohlenstoff fest und lässt den Markt entscheiden, welche der verschiedenen Technologien – Gas, Kohle mit CCS [Abscheiden von CO2], Gezeiten, Energieeffizienz usw. sich schließlich durchsetzt.

Aber die EU-Verordnung bzgl. der Erneuerbaren ist die Ablehnung dieser Logik. Einer ganz bestimmten Technologie, besonders Wind, hat man einen garantierten Marktanteil zu einem garantierten Preis eingeräumt, ohne Rücksicht darauf, wie wettbewerbsfähig dies ist. Die gegenwärtige Förderung der Windkraft ist reiner Irrsinn. Die Kosten pro kwh hierfür liegen wesentlich höher als andere Quellen mit geringem CO2-Ausstoß, wie z. B. der Kernenergie, wenn man die Verfügbarkeit und die Kosten berücksichtigt, die entstehen, wenn man das Netz auf alle Verbraucher ausdehnt. Es herrscht eine fortwährende Konfusion zwischen der installierten Kapazität der Windkraft und deren tatsächlichem Ergebnis, welches etwa 25 bis 30% der Kapazität beträgt. Dann ist da noch das Problem, dass große Kälte in UK häufig mit sehr geringer Windgeschwindigkeit einher geht.

Ursprünglich stand man in diesem Land der Kernenergie feindlich gegenüber, heute bestenfalls noch halbherzig. Der Staatssekretär beim DECC [Department of Energy and Climate Change] hat die Kernenergie als versucht, getestet und gescheitert erklärt. Es kann sein, dass die Kernkraft in UK historisch nicht so erfolgreich war wie sie hätte sein können, aber sie hat seit 50 Jahren etwa 20% unserer Energie zur Verfügung gestellt, zuverlässig, wettbewerbsfähig und sicher. Nur 20 Meilen vor unserer Küste hat Frankreich über 2/3 seines Stromes mit Kernkraftwerken erzeugt und betrachtet dies als großen Erfolg. Wir können einfach noch nicht sagen, ob man daraus generell etwas lernen kann, oder ob man 40 Jahre alte Anlagen in seismisch aktiven Gebieten betreiben kann.

Der Mechanismus der Einspeisevergütungen entwickelt sich rasch zu einem Skandal. Die Glücklichen, denen ein Haus gehört, das groß genug ist, um Solarpaneele zu montieren, oder die über genügend Land für einen Windpark verfügen, haben eine Vergütung von 30 bis 40 p (Pence) pro kwh erhalten, welche für nur 11 p gehandelt wird. Der Verlust wird ausgeglichen durch eine Abgabe auf Firmen und Haushalte. Es ist erstaunlich, dass die Liberalen, welche so immense Bedeutung auf Fairness legen, auf diesem Auge der Umverteilung von den Armen zu den Reichen blind sind, beläuft sich dies doch auf Milliarden Pfund pro Jahr. Falls Sie in einem Glashaus in Lambeth sitzen, haben Sie nicht viel Gelegenheit, Ihre Nase da hinein zu stecken.

Es gibt eine wesentliche neue Entwicklung, nämlich die Einführung neuer Bohrtechniken, die es ermöglicht, Gas aus Schiefer zu gewinnen. Dies hat die Möglichkeiten der geographischen Verfügbarkeit von Gas erheblich erweitert, zu einer massiven Erhöhung der Gasvorräte geführt sowie zu einer Loslösung des Gaspreises vom Ölpreis. Gas hat den Vorteil, dass es nur halb so viel CO2 erzeugt wie Kohle. Also stehen wir vor dem glücklichen Umstand, dass wir eine Menge Kohle durch die Verbrennung von Gas ersetzen können, womit einmal die Energiepreise, zum anderen die CO2-Emissionen deutlich reduziert werden, wenngleich dies auch nicht zu einer vollständigen Dekarbonisierung führt, wie es von manchen angedacht wird. Sicher sind die Alternativkosten der Erneuerbaren gestiegen und vielleicht auch der Preis für Kernkraft.

Eine andere Verteidigung der AGW-Agenda besteht im Argument der sog. grünen Jobs, d. h. wir sollten die Vorhut bilden, grüne Technologien einzusetzen, so dass wir die Vorteile genießen, wenn wir diese Technologie als Erste zur Verfügung stellen können. Meine Sicht der Dinge ist einfach. Wenn sich eine neue Technologie ohne massive Subventionen durchsetzen kann, sollten wir darauf bauen. Aber wenn eine Technologie nur mit Hilfe von Subventionen am Leben gehalten werden kann, improvisieren wir nur und sollten die Schaffung von Arbeitsplätzen nicht auf so tönerne Füße stellen.

Zusammenfassung bzgl. der Politik

Wir sollten uns auf die Maßnahmen konzentrieren, die wir später nicht bereuen müssen, und welche die Produktivität verbessern und nicht den Lebensstandard verschlechtern. Dazu gehört nach meiner Lesart die Entwaldung zu beenden, die Energieeffizienz unserer Häuser und unserer Fahrzeugflotte zu erhöhen (obwohl die Auswirkung einer größeren Energieeffizienz darin bestehen könnte, dass die Reduzierung des CO2-Ausstoßes begrenzt ist, weil durch billigere Energiepreise mehr verbraucht wird), Investitionen in die Kernkraft, weniger Verschwendung von Energie und, falls wir CCS-Maßnahmen durchführen und die Wirtschaftlichkeit dafür erst noch hergestellt werden muss, sollten wir eher in Gas- als in Kohlekraftwerke investieren. Das enthält auch weniger Sonnen- und Windkraft sowie ein Ende der Produktion von Biokraftstoff.

Lassen Sie mich schließen mit in paar Bemerkungen zur Soziologie und Politik des AGW-Phänomens. Erstens gibt es da eine Änderung in der Natur der Wissenschaft. Große Gestalten der Vergangenheit wie Galileo und Darwin waren keine hoch bezahlten Professoren, empfingen keine großen Forschungszuwendungen und wurden nicht mit Ehren überhäuft. Sie wurden allein durch Neugier getrieben und waren darauf vorbereitet, gegen das Establishment zu verstoßen. Heutzutage haben unsere Umweltwissenschaftler Jobs und Forschungsgelder sowie Gelder für Feiern und Reisen. Dann gab es ein peinliches Scheitern der Größen bei der Royal Society, die eigentlich der Hüter wissenschaftlicher Integrität sein sollte, getreu ihrem Motto „Nullius in verba“, d. h. niemand hat das letzte Wort. Statt dessen wurden sie zu Aktivisten, die Unsinn von sich gaben wie die Behauptung, dass die Wissenschaft sich einig sei, und die versäumt haben, die Klimagate-Affäre rigoros aufzuklären.

Es gibt derzeit viele eigennützige Interessen der grünen Agenda, seien es Unterstützer, Zulieferer der grünen Technologie oder jene, die Vorteile aus den wirtschaftlichen Möglichkeiten ziehen. Es sind nicht gerade die Zulieferer der traditionellen Technologie zur Energieerzeugung,  die Positionen haben, die es zu verteidigen gilt.

Die unkritische Anpassung an die grüne Agenda durch die Konservativen hat ihnen geholfen, durch die Blau-ist-grün-Botschaft einen Weg aus dem schlechten Image der Partei zu finden.

Es gibt einen strukturellen Fehler beim IPCC. Weit entfernt davon, aus der Arbeit von 2500 Wissenschaftlern einen Konsens zu destillieren, gibt es etwa 40 bis 50 im Zentrum, die eng zusammen arbeiten, als Kollegen, Schüler, Lehrer, Begutachter der Arbeiten des jeweils anderen. Sie haben es geschafft, eine sehr einfache AGW-Botschaft zu definieren und haben dafür gesorgt, dass alternative Stimmen zum Schweigen gebracht worden sind. Die Medien haben in ihrer Rolle als kritische Beobachter versagt und haben sich in dieses Gruppendenken eingebracht. Es blieb der Blogosphäre vorbehalten, eine Plattform für andere Standpunkte zur Verfügung zu stellen.

Woher kommt dieser religiös anmutende moralisierende Ton? Er kann zurück verfolgt werden bis zum 3. Kapitel Mose. Der Mensch wurde im garten Eden geboren in einem Zustand der Unschuld, hat dann aber seine Umwelt zerstört und muss nun dafür Buße tun und für seine Sünden zahlen.

Schlussfolgerungen:

Wir müssen erkennen, dass es schon immer Veränderungen unseres Klimas gegeben hat. Wir müssen die dafür verantwortlichen natürlichen Kräfte viel mehr in unsere Analysen einbringen, als sie daraus zu entfernen.

Wir wurden Zeuge eines Erwärmungstrends während der letzten 150 Jahre, aber diese Erwärmung verlief nicht geradlinig aufwärts. Gegenwärtig befinden wir uns auf einem Plateau. CO2 hat höchstens einen kleinen positiven Beitrag geleistet.

Unser Verständnis der Rolle des Wasserdampfes ist immer noch begrenzt und reicht nicht aus, um das Gewicht zu rechtfertigen, das wir darauf legen.

Wir brauchen eine vielschichtigere Annäherung an dieses Problem und mit Sicherheit eine gemäßigtere.

Mit den Worten von Tschechiens Präsident Klaus:

 „Es ist völlig unakzeptabel, alle Interpretationen der Klimaänderung und der globalen Erwärmung auf eine einzige Variable zu konzentrieren, CO2, und auf den kleinen Anteil davon, den das anthropogen produzierte CO2 hat“.

Von unseren Politikern brauchen wir mehr Rationalität, weniger Emotion und weniger Religiosität; und ein Ende der alarmistischen Propaganda sowie der Versuche, uns und unsere Kinder zu ängstigen. Außerdem wollen wir, dass die Politiker mehr auf unsere nationalen Interessen achten und weniger danach, globale Evangelisten zu sein.

Schließlich brauchen wir von unseren Wissenschaftlern mehr Bescheidenheit und eine Rückkehr zur Tradition wissenschaftlicher Neugier und Herausforderung. Wir brauchen mehr Offenheit und Transparenz, und sie müssen aufhören, anders Denkende auszugrenzen. Und sie müssen die wirklich unbequeme Wahrheit akzeptieren – nämlich dass unser Verständnis der Natur keinesfalls die Gewissheit rechtfertigt, mit der die AGW-Weisheiten verbreitet werden.

Andrew Turnbull,   März 2011

Lord Turnbull war Permanent Secretary des Environment Department von 1994-98; Permanent Secretary to the Treasury von 1998-2002, Cabinet Secretary und Vorsitzender des Home Civil Service 2002-05. Er ist derzeit Mitglied im House of Lords und des Board of Trustees der GWPF.

Link: http://www.thegwpf.org/opinion-pros-a-cons/2711-lord-turnbull-the-really-inconvenient-truth.html

Übersetzt von Chris Frey für EIKE




Zu Gefahren und Nutzen der Kernenergie – einige Fakten!

Was hat Fukushima gezeigt?

Konzipiert wurde das AKW für ein Erdbeben der Stärke 8.2. Ausgehalten hat es eine Stärke von 9.0, was 630% größer ist. Kein Windrad und keine Solaranlage wird wohl eine Belastung überstehen, die 6.3mal der maximal gedachten entspricht. Die Ersteren würden umfallen und ein paar Autobahnen blockieren, die Letzteren würden kurzschließen, hunderttausende  Dächer entzünden und jede Feuerwehr zur Kapitulation zwingen.

Dies hinterfragt Herr Röttgen aber nicht. Im Gegenteil, der Beweis für die Widerstandsfähigkeit eines AKW wird umgedeutet in eine Schwäche.

Die Problematik in Fukushima entstand erst durch das Zusammentreffen von zwei Katastrophen. Jede Einzelne hätte keinen Effekt gehabt. Beim Erdbeben fuhr das AKW planmäßig herunter. Da das Stromnetz zusammenbrach, hätten die Dieselgeneratoren die Kühlung gewährleistet. Der Tsunami hätte die Generatoren lahm gelegt, aber das Netz wäre noch vorhanden. Verhängnisvoll und falsch war es Rekombinatoren zu verwenden, die zum Abbau des Wasserstoffes Strom benötigen. Dies gibt es in deutschen AKWs nicht.

Was rechtfertigt diese Irrationalität?

Die inzwischen unisono Antwort der Parteien in Deutschland ist das Risiko und die Gefahr, die von AKWs ausgehen.

Eine Risikoabschätzung kann man aber objektiv mittels Daten erstellen. Diese Aufgabe hat das Paul Scherrer Institut (PSI) in der Schweiz übernommen.

In der folgenden Graphik werden die Anzahl der Toten in einer logarithmischen Skala pro erzeugte elektrische Leistung in GW und pro Jahr für die verschiedenen Energieträger abgebildet. Die Werte basieren auf der Ermittlung der Unfälle für den Zeitraum von 1969-2000. Ausgenommen davon sind die Opfer in Kohlebergwerken in China für die nur Daten von 1994-1999 zur Verfügung standen.

Auffällig sind die großen Unterschiede zwischen den Zahlen für die entwickelte Welt (EU15 & OECD) und den Nicht-OECD-Staaten.

Die einzelnen Energieträger sind Kohle, Erdöl, Erdgas, Flüssiggas, Wasserkraft und Kernenergie.

Den tausenden von Opfern bei Kohle, Öl und Gas in den OECD und EU-Staaten stehen null Tote bei der Kernenergie gegenüber. Der violette Balken repräsentiert Tschernobyl, wobei hier sogar noch eine zu große Zahl zu Grunde gelegt wurde. Laut dem neuesten UN-Bericht vom Februar 2011 gab es 28 unmittelbare Opfer. Und nicht tausende, wie das ZDF seinen Zuschauern weismacht. Als Spätfolgen gab es 6000 Patienten mit Schilddrüsenkrebs von den 15 daran starben. Dies hätte man durch die Vergabe von Jodtabletten deutlich mindern können.

Die zweite Graphik zeigt die Schadenshäufigkeit für die OECD Länder. Während die die oberen vier Kurven auf realen Daten basieren, ist die Kurve für die Kernenergie eine fiktive Abschätzung. Will man also wissen, wie groß die Häufigkeit eines Unfalls mit 10 oder mehr realen  Toten ist, so erkennt man, dass diese für Flüssiggas eine Größenordnung höher als für Kohle und Öl ist und ungefähr 1.5 Größenordnungen für Erdgas. Die fiktiven Opfer der Kernenergie liegen 4 Größenordnungen unter den realen von Flüssiggas.

Ein modifizierteres Bild ergibt sich für die Non-OECD Staaten.

Hier gibt es einen realen Punkt (Tschernobyl) für die Kernenergie, der aber mehr als 2 Größenordnungen unter der Kurve für Flüssiggas liegt. Die möglichen Spätopfer werden in den nächsten 70 Jahren zwischen 10 000 in den unmittelbar betroffenen Ländern und 33 000 in Nordeuropa abgeschätzt. In derselben Zeitspanne ist aber mit rund 650 Millionen natürlichen Krebsfällen zu rechnen, so dass es sehr schwierig sein dürfte, die Tschernobyl-bedingten Fälle statistisch nachzuweisen.

Bis auf die Grünen, die können dies.

Um dies anschaulicher zu machen, wollen wir die Werte für Deutschland ermitteln. Hierbei nehmen wir an, dass für Deutschland die EU15 Daten gültig sind. Laut BMWi wurde 2009 für die Stromerzeugung 950PJ aus Steinkohle, 1380PJ aus Braunkohle und 1740PJ aus Kernenergie verwendet. Addieren wir Stein- und Braunkohle zu 2330PJ so ergibt sich für diesen Energieträger rund 74GW/a, was multipliziert mit 0.07 (Graphik1) rund 5 reale Tote ergibt. Bei Gas würden die Zahlen über eine Größenordnung höher sein, aber da liegt keine Unterscheidung zwischen Erd- und Flüssiggas beim Ministerium vor. Für die Kernenergie ist der Wert 1470PJ, was rund 0.4% der Kohleopfer als fiktive Tote ergeben würde.

Fakt ist, dass es in den deutschen Kernkraftwerken kein Strahlenopfer gegeben hat und erst recht nicht in der Umgebung. 

Traurige Realität ist dagegen, dass laut PSI bis zu 10 000 Bergleute allein in chinesischen Gruben sterben und zwar jährlich. Dies bewegt die Besorgten nicht.

Diejenigen die meinen das AKWs immer noch nicht sicher genug sind, die seien daran erinnert, dass der erste GAU nicht in Tschernobyl stattfand sondern 1967 in Jülich. Nach dem kompletten Abschalten der Kühlung flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Der Versuch mit dem Hochtemperaturreaktor wurde noch zweimal mit dem gleichen Ergebnis wiederholt. Damals war Deutschland auf diesem Gebiet weltweit führend. Inzwischen werden diese Reaktoren woanders weiterentwickelt und gebaut.

Eine andere Alternative wäre ein Fluorid-Thorium flüssig Reaktor, dessen radioaktiver Abfall  10 000mal geringer ist und der keinen Sicherheitsbehälter benötigt, da er bei Normaldruck arbeitet. 

Was kommt nach der Kernenergie?

Aus Mangel an Alternativen kommen dafür nur Kohle- und Gaskraftwerke in Frage. Dass dies im eklatanten Widerspruch zu der bisher von Merkel, Röttgen, Roth und Co. gepriesenen alternativlosen Notwendigkeit der CO2-Reduzierung steht, ist plötzlich ohne Belang. Stattdessen wird den Bürgern vorgegaukelt das Steigerung der Energieeffizienz und erneuerbare Energien die Lücke schließen. Während das Erste vernünftig ist uns seit Jahren betrieben wird, aber physikalischen Grenzen unterliegt, ist das Zweite nicht fähig die Grundlast zu übernehmen und dazu extrem teuer. Die Prophezeiung, dass die Kosten der erneuerbaren Energien mit deren Anteil am Gesamtaufkommen sinken werden, teilt das PSI nicht. Die folgende Graphik zeigt die Kosten für die einzelnen Energieträger für das Jahr 2030 für die Schweiz.

Man sieht, dass die Kosten für die Photovoltaik immer noch exorbitant hoch sein werden, aber die für die Windenergie sinken. Letztere benötigen aber Wasserkraftspeicher, die wiederum sehr teuer sind. Die geplante vollständige Umstellung auf erneuerbare Energie in Deutschland wird zur Folge haben, dass erstens es keine Stromsicherheit mehr gibt und zweitens, dass die energieintensiven Industrien (Stahl, Beton, Chemie, Glas, Papier…) abwandern müssen, da sie nicht mehr am Markt konkurrieren können.

Fazit

Die Regierung nebst SPD und Grünen sind auf dem richtigen Holzweg. Herr Röttgen hat in seiner Katastrophenliste einen wichtigen Punkt vergessen nämlich einen Meteoriteneinschlag. Die Saurier wurden durch einen vernichtet, wenn dies mit der Menschheit geschehen sollte, muss natürlich das Containment eines AKWs überleben.

Dr. Bernd Hüttner für EIKE

Related Files




Deutsche Energiepolitik endgültig in der Sackgasse!

Die Widersprüche der bisherigen Energiepolitik

Bereits diese Politik war von Widersprüchen und von der Nichtbeachtung entscheidender Tatsachen gekennzeichnet:

Es ging immer nur um die Stromerzeugung, genau wie es die Grünen von Anfang an in ihrer ideologischen Verengung auf Kernenergie und Kohlekraftwerke postulierten und wie es die schwarz-gelbe Bundesregierung unbegreiflicherweise übernahm und fortsetzte.

Daß die weitaus größte Energiemenge in unserem Land der milden Sommer und kalten Winter in die Wärmeerzeugung fließt und die mit Absicht fernab der Ballungszentren errichteten Kern- und Kohlekraftwerke niemals mit ihrer großen  Abwärme (70 % bei Kernkraft, 60% bei Kohlestrom) über logischerweise auch fehlende Fernheiznetze zur Heizung von Wohn- und Gewerbegebäuden beitragen konnten und daß deshalb Erdgas und Heizöl in riesiger Menge importiert werden müssen: Das war nicht das Energie-Hauptthema dieser Regierung. Es gab dazu nur unattraktive Haussanierungs-Programme und Fördermittel für teure und wirtschaftlich  fragwürdige Techniken wie Wärmepumpen und Solarwärme.

Auch die größte deutsche Stromerzeugungs-Quelle Kohlekraft kommt in der Energiepolitik der Regierung nicht vor – außer in der auch in 15 Jahren nicht realisierbaren Forderung nach einer Abtrennung und unterirdischen Einlagerung von CO2. Von einem gezielten Ausbau der Kohlekraftwerke mit den neuesten Techniken, die ihren Wirkungsgrad auf über 45% steigern konnten – mit entsprechend weniger Abwärme und CO2 – und dem dann möglichen Abschalten alter, ineffizienter  Kohlekraftwerke ist keine Rede. Der Grund dafür ist wiederum Ideologie: Kohlekraftwerke hält man für "Klimakiller".  Daß allein China alle 4 Tage ein neues Kohlekraftwerk ans Netz gehen läßt und in den meisten Ländern ebenfalls massiv in neue Kohlekraftwerke investiert wird, stört die deutschen Gegner dieser neben Kernkraft einzig verbleibenden Möglichkeit der Grundlaststrom-Erzeugung keineswegs. Ohne Kernkraftstrom  wird Deutschland allerdings seine Klimaziele weit verfehlen und mit den nun notwendigen neuen Kohlekraftwerken wird sich  Frau Merkel endgültig von ihrer geliebten Rolle als Weltretterin verabschieden. Zeit also, weiteren Ballast bisheriger Überzeugungen über Bord zu werfen. Daß sie gleichzeitig  aber so dringende Warnungen wie die des führenden australischen Umweltforschers Barry Brook erhält, der soeben Deutschland dringend zum Bau neuer klimaschonender Kernkraftwerke aufforderte und statt dessen die Abschaltung aller "furchtbaren" Kohlekraftwerke verlangte,  wird sie nur weiter noch tiefer in das Gewirr unlösbarer Widersprüche ihrer Politik  stürzen.

Gestützt auf Haare sträubende Gefälligkeits-Gutachten mit wundersamen Zahlen verlegte sich die Regierung auf erneuerbare Energien, die allen Ernstes das Industrieland Deutschland künftig weit überwiegend und absolut zuverlässig, dazu noch wirtschaftlich mit Energie – natürlich wieder vor allem Strom – versorgen sollen.

Das Ignorieren aller dem entgegen stehenden Tatsachen, allem voran die extrem unzuverlässige Wetter- und Tageslicht-abhängige Stromerzeugung durch Windmühlen und Fotovoltaikanlagen bei gleichzeitiger Unmöglichkeit einer Speicherung von Überschuß-Strom und zusätzlicher Gefährdung der Netzstabilität durch zufällige Einbrüche oder Spitzenschübe des grünen Stroms zeigt überdeutlich, daß auch dieser Teil der Regierungspolitik abermals rein ideologiegesteuert ist.

Die Gefahr von Stromsperren ist keineswegs Panikmache: Der Geschäftsführer der Deutschen Energieagentur dena , Stephan Kohler, hat Mitte März in der Presse gewarnt, daß – sollten weitere fünf Reaktoren wegen interner Revisionen abgeschaltet werden – es in Teilen Deutschlands zu Blackouts kommen werde. "Da gibt es nichts zu beschönigen." Ein früherer Kernkraftausstieg könne nicht nur die Netzkapazität überfordern, er würde auch zu deutlich höheren Strompreisen führen.

Es ist auch bezeichnend, daß die Regierung erst nach 10 Jahren der von Rot-Grün begonnenen massiven Subventionierung von Windkraft und Fotovoltaik – auf Kosten der kleinen Leute, die keine eigenen Häuser besitzen – überrascht feststellte, daß man für diese wild schwankende Stromerzeugung auch Stromspeicher braucht. Woraufhin sie dann weiterhin feststellte, daß diese Speicher weitestgehend fehlen und auch überhaupt keine Techniken zur Verfügung stehen, sie zu realisieren. Man verlegte sich dann auf das Prinzip Hoffnung und Vernebelung, indem man im Prototypstadium befindliche, mit über 50 Prozent Energieverlusten behaftete und zudem unbezahlbare Speichertechniken als irgendwann verfügbar anführte. Und auf das Hoffnungs-Seekabel von Norwegen verwies, dessen Leistung leider aber nur 4 Prozent der installierten Windstromkapazität ausgleichen kann.

Daß auch die schwarz-gelbe Koalition den Subventionsirrsinn des Gesetzes für erneuerbare Energien noch zu steigern vermag, bewies sie mit dem neuen  "Einspeisemanagement" für Windstrom, das seit  Januar 2011 gilt. Netzbetreiber können nun bei einer Netzüberlastung durch  Windstrom diese Anlagen – nach deren entsprechender Umrüstung – rasch herunterfahren.  Das Unglaubliche dabei: Die Windstromerzeuger, deren Strom dann niemand braucht, haben dann Anspruch auf Ersatz für die ausgefallene Einspeisevergütung. Geld für nicht benötigten und dann auch nicht erzeugten Strom – stets von den Verbrauchern zu bezahlen. Bisher kannte man die Bezahlung von nicht erzeugten Produkten nur bei der ebenso irrwitzigen Agrarsubventionierung. Deutschland führt das jetzt auch in seinem Energiemarkt ein.

Peinlicherweise stand in den Gutachten, die den Segen der Erneuerbaren betonten, das schlimme Wort Importstrom. Dieser sollte, wenn mal wieder zu wenig Wind weht, die Stromversorgung retten. Darauf freute sich auch schon Präsident Sarkozy, der auf der Baustelle des neuen Kernkraftwerks Flamanville erklärte, daß Frankreich noch mehr  Kernkraftwerke  braucht – er erwähnte speziell den geplanten KKW-Neubau Penly – weil es in großem Stil Strom exportieren soll. Damit solle Frankreich viel Geld verdienen. An welche Abnehmer er dabei dachte, kann man sich vorstellen.

Die Bundeskanzlerin beeilte sich, dazu zu erklären, daß Stromimporte selbstverständlich nicht in Frage kämen. Aber bereits im März 2011 kam es zu beträchtlichen Stromimporten aus Frankreich und Tschechien. Das wird vermutlich zum Dauerzustand, wenn die gerade abrupt veränderte Energiepolitik Bestand behält.

In dem viel Mineralöl verschlingenden Straßenverkehr haben bisher alle  Regierungen die Chance verschlafen, konsequent die Verwendung von Erdgas voran zu treiben, wie es uns unsere Nachbarn seit Jahren erfolgreich demonstrieren.

Statt dessen fabuliert man – wiederum ideologisch korrekt – von der Elektromobilität, ein schon von der Regierung Kohl mit tollen Prognosen geschmücktes Technikmärchen, das auch heute wegen weiterhin völlig unzureichender Batterien abermals   für  mindestens zwei Jahrzehnte auf Erfüllung wartet. Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik betonte, daß „wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt können.“

Ein Warnhinweis, den die Physikerin Merkel eigentlich verstehen sollte.

Dann kam Fukushima

Das katastrophale Erdbeben in Japan hat vermutlich 20.000 Tote gefordert. Die deutschen Medien aber berichten vor allem über die Beschädigung  der Atomreaktoren im Kraftwerk Fukushima – und die Regierung verfiel in hysterischen  und unglaubwürdigen Aktionismus. Hastig wurde ein Moratorium mit der vorläufigen Stillegung mehrerer Kernkraftwerke verkündet. Sachlich begründet wurde das natürlich nicht, denn niemand konnte erklären, inwiefern sich denn die bis dahin immer betonte hervorragende Sicherheitslage bei allen deutschen Kernkraftwerken durch ein Erdbeben-Tsunami-Ereignis in Japan verändert hätte.

Die Bundeskanzlerin verkündete gleich noch eine weitere Reaktion auf die Ereignisse in Japan: Man werde jetzt verstärkt die erneuerbaren Energien fördern. Da man sicher davon ausgehen kann, daß sie die Sinnlosigkeit und Gefährlichkeit des weiteren Ausbaus von Wind- und Solarstrom zusammen mit der Lebensmittel und Landschaften fressenden Biogas- und Biotreibstofferzeugung genau kennt, ist auch dieser Schwenk wiederum nichts anderes als eine panische Beschwichtigungsaktion für die Opposition und vor allem für die wutschäumenden Medien.

Dann wurde von der Kanzlerin am 22. März die Berufung eines Kernenergie-Ethik-Rats unter der Leitung von Prof. Töpfer angekündigt.  Dessen Besetzung durch allein drei Kirchenvertreter, einer Politologin, einem Philosophen, einem Soziologen, einer Wirtschaftswissenschaftlerin, zwei Politikern und keinem Energie- oder gar Kernkraftexperten – von insgesamt 13 Mitgliedern –  führt sicherlich zu fundierten Aussagen zu den von Frau Merkel dem Rat gestellten Fragen, wie die "gesellschaftliche Risikobewertung" aussieht und "wie sich ein Ausstieg aus der Atomenergie mit Augenmaß vollziehen lasse". Woran man sogleich sehen kann, daß dieser Ausstieg von der Kanzlerin bereits vor dem Vorliegen der Erkenntnisse aus der erst noch erfolgenden Sicherheitsüberprüfung beschlossen ist.

Das gewünschte Ergebnis der Ethikrats-Beratungen steht natürlich auch schon fest, da es  durch dessen überwiegende Besetzung mit kritischen Wissenschaftlern und Philosophen neben den Kirchenleuten gesichert ist.

Die politische Führung kapituliert

Die Naturkatastrophe in Japan und ihre irrationalen Konsequenzen allein in Deutschland werfen ein grelles Licht auf den Verfall der Rationalität und die rein angstgesteuerte Verhaltensweise in der politischen Kaste. Man kann von einem großen Sieg des von den Grünen perfektionierten Prinzips der systematischen Angstverbreitung in der Bevölkerung sprechen. Das entscheidende Mittel für den Erfolg dieses Prinzips sind aber die Medien, die jetzt mit ihrer Berichterstattung drastisch allen vor Augen führten, daß ihre wichtigsten Schaltstellen von Grünen und Roten besetzt sind. Auf allen Fernsehkanälen, insbesondere bei ARD und ZDF, gab es in den ersten vier Tagen ausschließlich "Experten" von Greenpeace und den Ökoinstituten Wuppertal und Darmstadt zu sehen, die ihre Chance weidlich nutzten. Dazu kamen Mediziner, die über die Wirkung einer "Verstrahlung" berichteten.

Die Angstfabrik lieferte in kürzester Zeit das gewünschte Ergebnis: Eine hilflose Regierung, die plötzlich angeblich offene Sicherheitsfragen bei den bisher doch absolut sicheren Kernkraftwerken zu klären versprach, die ihre gerade erkämpfte Laufzeitverlängerung in Frage stellte,  die eine weitere, noch stärkere Förderung der Erneuerbaren zusagte, die unter Hohn und Spott alles auf den Opferstein zu legen bereit ist, was Grüne und SPD fordern.

Seit Ende März 2011 ist diese Einschätzung keine Ironie mehr, denn der bayrische Ministerpräsident Horst Seehofer lieferte soeben die offizielle Bestätigung. Er erklärte laut dapd/rtr/rb wörtlich: "Die Tat ist jetzt entscheidend, nicht die Analyse."

Niemals zuvor hat ein führender Politiker eine derartige Bankrotterklärung abgegeben, die aber keineswegs nur für ihn gilt. Erst ohne Not und nur aus Medienangst hektisch-panisch handeln, und zwar entschlossen, und dann besser hinterher gar nicht mehr über Sinn und Nutzen der Tat nachdenken, weil das ja eigentlich wieder nur unangenehm sein würde.

Diese Worte des CSU-Vorsitzenden sollten die passende Überschrift für die neue "Energiewende" werden, die Frau Merkel ankündigt.

Dr. Ing. Günter Keil für EIKE St. Augustin,  2.4.2011

Update vom 4.4.11

Bild Deutschland holt Atomstrom aus Frankreich und Tschechien

Datenquelle: Wilfried Heck dort http://www.entsoe.net/data.aspx?IdMenu=1

Berlin – Deutschland muss wegen der Abschaltung von sieben Kernkraftwerken Strom aus dem Ausland einführen. Dabei handelt es sich hauptsächlich um Atomstrom!
Nach Angaben des europäischen Netzbetreiberverbands Entso-E importiert Deutschland seit Mitte März bis zu 6000 Megawatt* Strom, um den Bedarf zu decken. Das entspricht der Leistung von vier großen Atomkraftwerksblöcken oder rund acht Prozent des täglichen Strombedarfs Deutschlands (ca. 80.000 Megawatt).

 Voller Artikel hier

* Der Bildzeitung unterläuft -wie so vielen im Mediengeschäft- der Fehler elektrische Leistung in z.B. Megawatt und elektrischer Arbeit in z.B. Megawattstunden nicht auseinanderhalten zu können. Es müsste also hier 6000 MWh b.z.w. 80.000 MWh heißen. An der Tatsache, dass wir elektrische Arbeit in großen Mengen importieren müssen ändert das aber nichts. Mit Dank an Leser Stirnberg für den Hinweis.