Die deutsche Energieratlosigkeit!

Es gibt eine schöne Geschichte in den Abenteuern von Tim und Struppi des belgischen Zeichners Hergé. Beide sind zusammen mit Kapitän Haddock Gefangene auf einem Schiff, das explosives Material geladen hat. Auf hoher See bricht ein Feuer aus. Kapitän, Offiziere und Mannschaft springen voller Panik in die Rettungsboote und rudern mit aller Kraft weg von dem gefährlichen Schiff. In sicherer Entfernung warten sie auf die große Explosion. Doch nichts passiert. Eine große Welle hat das Feuer gelöscht. Die beiden Helden, Haddock und Tim, bringen das Schiff wieder in Fahrt und dampfen davon. Zurück bleibt eine wütende, ungläubige Besatzung mit ihrem hasenfüßigen Kapitän, allein auf dem weiten Ozean. Diese Comicepisode passt zu der Art und Weise, wie Deutschland auf die Ereignisse in Fukushima nach dem zerstörerischen Tsunami im März reagierte. Die Bundesregierung mit Kanzlerin Merkel an der Spitze, Politiker aller Parteien und ein großer Teil des Wählervolks hatten augenblicklich die Hosen voll und warfen alles über Bord, was zuvor in der Kernenergie als verlässlich gegolten hatte. Es herrschte blanke Panik. Jetzt – nach einem halben Jahr – sieht man: Panik ist ein schlechter Ratgeber. Fukushima hat sich nicht zu der atomaren Massenvernichtung ausgewachsen, die so viele in Deutschland erwartet hatten. Frau Merkel und ihr Volk sitzen nun in ihrem kleinen Boot und müssen den anderen – bioenergetisch angetrieben – hinterher hecheln. Zurück geht es nicht, dann müssten die Politiker zugeben, dass sie noch ängstlicher als die Bevölkerung waren, die sie vertreten. Und vorwärts, da ist es ungewiss. Da liegt eine Zukunft, bestimmt von ineffizienten und unzuverlässigen Energiequellen.
Weshalb haben andere Regierungen nicht so panikartig reagiert? Sie waren gelassener und dürften wohl Folgendes bedacht haben:
Die Havarie der Reaktoren von Fukushima 1 war Folge eines Jahrhundertbebens und eines Jahrtausend-Tsunamis. Alle KKW in der betroffenen Region, einschließlich Fukushima 1, haben das starke Beben ohne größere Schäden überstanden. Es war die 14 Meter hohe Tsunamiwelle, welche die Reaktoren von Fukushima 1 ausgeschaltet hat. Auslöser war also ein extremes Naturereignis.
Den Tsunami hätte die Anlage ohne größere Schäden überstehen können, wenn die Betreiber bestimmte Vorkehrungen getroffen hätten. [1] In den deutschen KKWs sind entsprechende Einrichtungen vorhanden, wie die Reaktorsicherheitskommission (RSK) in ihrer von der Bundesregierung initiierten Sicherheitsprüfung feststellte: Alle deutschen Kernkraftwerke weisen gegenüber Fukushima zusätzliche Sicherheitseinrichtungen sowie große Sicherheitsmargen auf, die einen Unfallablauf wie in Japan verhindern würden. Sie verfügen z. B. über verbunkerte, gegen Einwirkungen von außen geschützte Notstromeinrichtungen und sind so robust ausgelegt, dass sie das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort überstehen können. Der schwere Unfall in Fukushima 1 war also nicht naturgesetzlich unausweichlich und unvermeidlich. In Fukushima sind vier der sechs Reaktoren von der Katastrophe betroffen; bei drei von ihnen ist die Kernschmelze eingetreten. Für die deutsche Öffentlichkeit war dies der „Supergau“. Tatsache aber ist: Der Atomunfall ist nicht die Megakatastrophe, wie man sie in Deutschland erwartete und wie einige sie vielleicht auch gerne gehabt hätten: „Bis heute liegen keine Berichte vor, dass Menschen gesundheitliche Schäden als Folge von Strahlenbelastungen davongetragen hätten“, schreibt die Internationale Atomenergiebehörde in ihrem vorläufigen Bericht vom Juni des Jahres. [2]
Merkel aber hat nicht abgewartet. Sie legte bereits zwei Tage nach dem Reaktorunfall sieben Reaktoren in Deutschland still – eine absolut unangemessene und nicht begründbare Panikreaktion. Sie hat das Land damit auf einen abenteuerlichen Kurs gebracht, der noch viele Hunderte von Milliarden Euro kosten wird. Alle Parteien und große Teile der Bevölkerung sind bestürzend schnell und willig auf Atomhysterie und Energiewendejubel eingeschwenkt. Ebenso die Medien. Gegenstimmen waren und sind kaum zu hören.

Der Sonderweg

Der deutsche Sonderweg funktioniert nur mit viel Selbsttäuschung. Fukushima habe gezeigt, so der parteiübergreifende Konsens, dass die Kernenergie prinzipiell nicht zu beherrschen sei. Woran macht man das fest? An der Anzahl der havarierten Reaktoren in Fukushima, die trotz Riesenwelle und unzulänglichen Sicherheitseinrichtungen eben nicht „durchgegangen“ sind? Ist Kernenergie tatsächlich „die gefährlichste Technologie aller Zeiten“, wie das Hamburger Abendblatt im Juni schrieb? Was ist dann mit dem Straßenverkehr, der Jahr um Jahr weltweit eine Million Tote fordert? Darf man, wie ein Leitartikler in der Rheinzeitung, von der „menschenverachtenden Atomwirtschaft“ sprechen? Ist das nicht der geistige GAU, der größte anzunehmende Unsinn?
Angela Merkel begründete den Atomausstieg damit, dass im Falle eines Unfalls wie in Fukushima die Folgen „so verheerend und weitreichend [seien], dass sie die Risiken aller anderen Energieträger bei weitem übertreffen.“ Die vielen Toten im Kraftwerk Fukushima kann sie nicht meinen. Die gibt es nicht und wird es auch nicht geben. Meint sie den wirtschaftlichen Schaden durch die Zerstörung des Kraftwerks? Der dürfte sich in der Größenordnung des volkswirtschaftlichen Verlustes bewegen, der durch die Schnellstilllegung der deutschen Reaktoren und den endgültigen Ausstieg entsteht. Oder die Auswirkungen auf die Evakuierungszone um das Kraftwerk? Etwa 80.000 Menschen haben das Gebiet verlassen, Opfer der Strahlenkrankheit gab es nicht. Die frei gesetzten Radionuklide sind sehr ungleich verteilt. Eine beträchtliche Menge konzentriert sich dreißig Kilometer nordwestlich des Kraftwerks, während im größten Teil der evakuierten Zone die Strahlung sich schon im Mai nahe dem Normalwert bewegte. Im Januar nächsten Jahres, so damals die japanische Regierung, könne man vielleicht über eine Rückkehr der evakuierten Menschen entscheiden. [3] In Deutschland sieht man das anders: So war in der FAZ am 11. Juni über Fukushima zu lesen: „Millionen Menschen evakuiert, fast tausend Quadratkilometer Land auf unabsehbare Zeit unbewohnbar.“ [4] Eine derartige Panikmache hatte man bislang den Lobbyisten von Greenpeace überlassen. Das ist schließlich deren Broterwerb.
Inzwischen, Stand vom Juli, setzt die Anlage nur noch den zweimillionstel Teil an radioaktivem Material frei wie auf dem Höhepunkt der Krise am 15. März. Steht man heute direkt an der Kraftwerksgrenze, kann man mit einer maximalen Strahlenbelastung aus der Luft von 1,7 Millisievert pro Jahr (mSv/a) rechnen. Zum Vergleich: Die durchschnittliche Belastung durch die natürliche Hintergrundstrahlung liegt im globalen Mittel bei 2,4 mSv/a. Problematisch sind die Radionuklide, die sich am Boden abgesetzt haben. Etwa 95 Prozent des im März freigesetzten radioaktiven Materials bestanden aus Jod-Isotopen, die aufgrund ihrer geringen Halbwertzeit inzwischen nahezu verschwunden sind. Geblieben ist Cäsium-137, das in vielen Gebieten der evakuierten Zone Jahresdosen von mehr als 20 mSv liefert. 20 mSv ist die Dosis, die Arbeiter in einem Kernkraftwerk pro Jahr erhalten dürfen. Etwa so hoch ist auch die Dosis, die ein Patient bei einer einmaligen Computertomographie erhält. Zudem gibt es eine Reihe von Regionen auf der Erde, wo die natürliche Strahlung aus dem Boden erheblich höher ist – ohne gesundheitliche Schäden für die Bewohner. Soviel zur Unbewohnbarkeit auf unabsehbare Zeit. In Deutschland ist man sehr faktenresistent. Gemessen an den Auswirkungen, die tatsächlich in und um Fukushima zu beobachten sind, sind die hiesigen Katastrophenszenarien grotesk überzeichnet.

Was lässt sich wirklich lernen?

Gibt es etwas Positives an der Reaktorkatastrophe von Fukushima? Ja. Man kann daraus lernen – genauso wie aus Harrisburg und Tschernobyl. Die teilweise Kernschmelze im amerikanischen Kraftwerk TMI bei Harrisburg 1979 gilt als GAU, was eigentlich nur ein Auslegekriterium für den Bau eines Kernkraftwerks darstellt, im Mythenschatz der Kernenergiegegner aber für „größtmögliche Katastrophe“ steht. Und das Ergebnis? Am Reaktor war Totalverlust zu verzeichnen, aber es gab kein Strahlenopfer, kein Mensch wurde geschädigt, weder im Kraftwerk noch außerhalb davon. Vernachlässigbar geringe Mengen an radioaktivem Material gelangten in die Umgebung. Wenn man so will, war das Unglück von TMI ein unfreiwilliges, aber erfolgreiches Experiment, das die Wirksamkeit der Sicherheitseinrichtungen belegte. Wenige Jahre später, im sowjetischen Tschernobyl, kam es zum Supergau, zur „größtgrößtmögliche Katastrophe“. Ein Reaktor explodierte in vollem Betrieb und schleuderte große Mengen an radioaktivem Material in die Atmosphäre. Über die Folgen wird und wurde wüst spekuliert und übertrieben. Lobbyvereine wie Greenpeace sprechen (immer noch) von 100.000en, ja von Millionen Opfern. Tatsächlich liegt die Zahl der Opfer drastisch niedriger, nachzulesen in einer von der UNO veröffentlichten Studie: etwa 50 direkte Tote in der Anlage, einige tausend zusätzliche Krebserkrankungen. Das ist schlimm, liegt aber im unteren Bereich möglicher Zivilisationsrisiken. Und Fukushima? Zeigt dieser Unfall tatsächlich, wie etwa die Grünen meinen, die prinzipielle Unbeherrschbarkeit der Kerntechnik? Bei unaufgeregter Betrachtung lässt sich aus dem „ungewollten Großexperiment“ Fukushima allerdings ein anderer Schluss ziehen: vier havarierte Reaktoren, drei Kernschmelzen – trotzdem, wie gerade bilanziert, kein Megadesaster. Das war keine glückliche Fügung, das lag in der Natur der Dinge: Die Gesetze von Physik und Chemie geben einfach nicht mehr Katastrophe her. [5]
Amerikanische Kernphysiker sind auf diese grundlegende (und beruhigende) Einsicht bereits vor drei Jahrzehnten bei einer Nachbereitung des TMI- Unfalls gestoßen. Sie untersuchten ein „realistisches, aber sehr unwahrscheinliches Ereignis: die gleichzeitige Zerstörung von Systemen außerhalb der Containments, Risse in der Sicherheitshülle; eine Kernschmelze mit ungefilterter Freisetzung von radioaktivem Material“. Das klingt nach Fukushima. Und das Ergebnis dieser Untersuchung? „Selbst ein derartiges Ausnahmeereignis hätte, wenn überhaupt, nur wenige Todesfälle zur Folge. […] Die Freisetzung und die Ausbreitung radioaktiven Materials aus dem beschädigten oder geschmolzenen Brennstoff ist streng durch die physikalischen und chemischen Eigenschaften des Materials beschränkt.“ [6] Wie in Fukushima!

Lebenslüge Atomdesaster

Anfang Juni sagte Bundeskanzlerin Merkel in ihrer Regierungserklärung zur Energiewende, dass Fukushima ihre Haltung zur Kernenergie verändert habe. Ein Restrisiko könne sie nicht mehr akzeptieren. Auch andere haben ihre Haltung geändert, so George Monbiot, einer der prominentesten britischen Umweltschützer. So manchen Leser seiner wöchentlichen Kolumne im Guardian dürfte Monbiots Bekehrung, knapp zwei Wochen nach dem Tsunami, allerdings überrascht haben. „Als Folge des Desasters in Fukushima stehe ich der Kernenergie nicht länger neutral gegenüber. Ich befürworte jetzt diese Technologie.“ [7] Monbiot hat sich nicht aus ideologischen, sondern aus pragmatischen Gründen für die Kernenergie entschieden. Den engagierten Klimaschützer hat vor allem die Aussicht geängstigt, dass die Welt, insbesondere China, nun stärker wieder auf Kohle setzen werde – mit schlimmen Folgen: „In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Unfall- und Todeszahlen, Freisetzung von Radioaktivität)“, bilanziert Monbiot, ist Kohle hundertmal schlechter als Kernenergie.“ In mehreren Kommentaren erläuterte Monbiot seinen Sinneswandel, und er debattierte öffentlich mit Helen Caldicott, der globalen Ikone der Kernkraftgegner. Von ihr verlangte er Belege für die angeblich eine Million Tote durch Tschernobyl und andere gängige Horrorgeschichten. Erhalten hat er sie nicht. [8] Der grünen Bewegung wirft er vor, die Welt über die Gefahren radioaktiver Strahlung in die Irre zu führen. „Ihre Behauptungen […] haben keine wissenschaftliche Grundlage, halten Nachfragen nicht stand und sind fürchterlich falsch.“
Fürchterlich falsch sind auch die Annahmen, die der deutschen Energiewende zugrunde liegen: Es gab keine Strahlenopfer in und um Fukushima, und es wird keine auf immer unbewohnbare Todeszonen geben. Die deutsche Politik ignoriert diese positive Entwicklung, hält stattdessen am Erkenntnisstand vom März, ein paar Tage nach dem Tsunami, fest. Ausgangsniveau der Debatten, in denen Sozialwissenschaftler, Feuilletonisten und Ethiker den Ton angeben, ist immer noch die damals angenommene Megakatastrophe, die selbst die Bevölkerung Tokios dahinraffen könnte. Dass nichts von dem eingetreten ist, wird ausgeblendet. So funktionieren Lebenslügen. Lebenslügen müssen aufrechterhalten werden, damit man weiterleben kann. Bei manchen halten sie ein ganzes Leben, andere zerbrechen daran. Die deutsche Energiewende beruht auf der Lebenslüge „Atomdesaster Fukushima“.

Wie geht’s weiter?

Die Reaktorunfälle in Harrisburg und Tschernobyl hatten einschneidende Wirkung. Danach wurden nur noch wenige Kernkraftwerke gebaut, viele Ausbaupläne wurden auf Eis gelegt. Inzwischen sind allerdings wieder über 60 Reaktoren in Bau. Die Nachwehen von Fukushima sind verhaltener, sieht man einmal von dem „Hals über Kopf“-Ausstieg in Deutschland ab. Die Schweiz baut (vorerst) keine neuen Kernkraftwerke, lässt aber die vorhandenen laufen, Italien, das nie eingestiegen ist, will weiterhin auf Kernenergie verzichten und der vom japanischen Premier Kan vorgeschlagene Ausstieg irgendwann in der Zukunft stellt eine Privatmeinung dar. Andere Staaten haben ihre Ausbaupläne nicht aufgegeben. Im Mai empfahl der Council for Climate Change der britischen Regierung, außer den Erneuerbaren auch die Kernenergie weiter auszubauen. Sie, so der Rat, sei die effizienteste Methode der CO2- Vermeidung. China will bis 2020 60 neue Kernreaktoren in Betrieb nehmen (25 sind derzeit im Bau), Russland plant 35 Anlagen, unsere polnischen Nachbarn zwei Kernkraftwerke, die Niederlande und Litauen je eins. Südkorea wird vier Kernkraftwerke an die Vereinigten Arabischen Emirate liefern und will den eigenen Strombedarf bis 2030 zu über 40 Prozent mit Kernenergie decken. Gegenwärtig sind es 23 Prozent.
Die Liste ließe sich fortsetzen. Offensichtlich ist die Kernenergie kein Auslaufmodell. Analysten der britischen Economist Intelligence Unit, einer zur unabhängigen Economist Group gehörenden Beraterfirma, sehen ein „Jahrzehnt des Wachstums für die Kernenergie voraus, nur geringfügig beeinflusst durch den Fukushima-Unfall.“ Ihr im Juni veröffentlichter Bericht „The Future of Nuclear Energy“ trägt den bezeichnenden Untertitel „Ein Schritt zurück, zwei Schritte vorwärts“.
Deutschlands Energiewende ist emotionsgetrieben, aufgeladen durch die Angst vor Strahlung jeglicher Art. Dabei ist die Furcht größer als die tatsächliche Gefahr. Die Horrorvisionen, die selbst für niedrige Strahlendosen beschworen werden, stammen noch aus den Zeiten des atomaren Wettrüstens. [9] Was damals die Schrecken eines Nuklearkriegs aufzeigen sollte, haben die Grünen in ihren Mythenschatz übernommen und gegen die Kerntechnologie gewendet. Irrationale Ängste lassen sich damit einfach schüren und ausnutzen, wie die vergangenen Monate in Deutschland gezeigt haben. Ist es ethisch vertretbar, dass Politiker und Lobbygruppen zur Verfolgung eigennütziger Ziele weiten Teilen der Bevölkerung Angst einjagen? Merkels Ethikkommission hat dazu leider kein Wort verloren, im Gegensatz zu George Monbiot. Für ihn ist es eine moralische Frage: Darf man Menschen mit vollkommen übertriebenen Aussagen zu den Gefahren radioaktiver Strahlung in Angst und Schrecken versetzen? Man darf es nicht.
Weltweit arbeiten derzeit rund 450 Kernkraftwerke. Sie haben bislang etwa 64.000 Milliarden Kilowattstunden an Strom erzeugt. Dafür hätten sich, bei einer Lebensdauer von 20 Jahren pro Anlage, einige zehn Millionen Windräder drehen müssen. Durch den Nuklearstrom sind 15 bis 20 Milliarden Tonnen an Kohle in der Erde und einige 10.000 Bergleute am Leben geblieben. Rund 14 Prozent des Stroms werden weltweit durch Kernspaltung erzeugt, zwei Drittel durch Kohle und Gas. Kohle ist bei weitem der wichtigste Brennstoff für die Stromproduktion und wird es in den nächsten Jahrzehnten bleiben. Ohne die einheimische Kohle hätten die Milliardenbevölkerungen von China und Indien keine Aussicht, ihre im Schnitt immer noch ärmlichen Lebensbedingungen dem Niveau der reicheren Länder anzugleichen. Wenn man Kohle bei weltweit wachsendem Energiebedarf überhaupt ersetzen kann, wird dies nur allmählich geschehen, und zwar nicht durch Wind und Sonne. Der Ersatz von Kohlekraftwerken (die zuverlässig, effizient und damit billig Strom produzieren) durch Windräder und Solaranlagen (die teuren, nur unregelmäßig verfügbaren Strom liefern) ist eine Ausgabe, aber keine Investition. Davon profitieren einige wenige, aber die Mehrheit verliert. Diesen Luxus kann man sich in Deutschland (noch) leisten, aber nicht in China, Indien und anderen Ländern. Wohin wird sich also die Welt der Energie, realistisch gesehen, in den kommenden Jahrzehnten entwickeln? Sicher nicht in Richtung deutscher Energiewende. Das ist eine Sackgasse. Sie ist teuer, vernichtet Kapital und verschwendet Rohstoffe. Nur die effiziente Kernenergie kann die effiziente Kohleenergie ersetzen. Das wird dauern, denn die kerntechnische Industrie hat nach dreißig Jahren Auszeit viel an Substanz und Schwung verloren.
In gewissem Sinne beginnt die Kernenergie noch einmal neu – mit neuen Partnern und mit neuen Konzepten. Die Neuen im Geschäft sind China, Südkorea und Indien, sie dürften sich zu treibenden Kräften entwickeln. Korea zum Beispiel hat das Ziel, bis 2030 Kernkraftwerke für 400 Milliarden Euro zu exportieren. Schwer vorstellbar, dass Deutschland vergleichbare Summen mit Windrädern und PV-Anlagen verdienen kann. Nach technologischem Stillstand gibt es wieder Entwürfe und Planungen für neuartige Reaktoren. Es gibt neue Sicherheitskonzepte, passive Systeme, die auch funktionieren, wenn der Strom ausfällt und Reaktoren, die inhärent sicher sind, wo die Physik die Katastrophe von vornherein ausschließt. Inhärent sicher ist etwa der Hochtemperaturreaktor, den man in Deutschland schon einmal bis zum industriellen Prototyp entwickelt hatte. Chinesische Wissenschaftler bauen ihn nun neu. Er liefert nicht nur Strom, sondern auch Hochtemperaturwärme – ideal, um fossile Brennstoffe zu ersetzen. Mit seiner Energiewende hat sich Deutschland von diesen technologischen Entwicklungen und vom größten Teil der Welt abgekoppelt. Für einen solchen Sprung ins Ungewisse müsste es schon sehr, sehr gute Gründe geben. Das Reaktorunglück von Fukushima liefert diese nicht.
Anmerkungen
[1] Siehe Eike Roth: „Fukushima und was wir daraus lernen können. Versuch einer Bewertung nach 80 Tagen“ in: Energie-Fakten.de,, 1. 6.11 und IAEA: „International Fact Finding Expert Mission of the Fukushima Dai-ichi NPP Accident. Following the Great East Japan Earthquake and Tsunami: Mission Report“, 16. 7. 11, pub.iaea.org.
[2] Siehe auch J. Nakosko, T. Lazo: „Fukushima.“ NEA News, 2011, Nr. 29.1, oecd-nea.org. Die Autoren stellen u. a. fest, dass in dem Kraftwerk acht von 2400 Arbeitern eine Strahlendosis von mehr als 250 MilliSievert (mSv) erhalten haben. Und was ist mit der „radioaktiven Wolke“? Im Bezirk Ibaraki, auf halbem Weg zwischen Tokio und Fukushima, lag der Höchstwert bei 0,35 Mikrosievert (μSv) pro Stunde. Erreicht wurde er am 22. März. Hätte diese Belastung ein Jahr lang angedauert, wäre die Bevölkerung mit etwa 3 mSv belastet worden, soviel wie die durchschnittliche natürliche Hintergrundstrahlung, die jeder Mensch erhält.
[3] World Nuclear News: „Cold shutdown a must for Fukushima return“ in: World Nuclear News, 19.5.11 world-nuclear-news.org.
[4] Joachim Müller-Jung: „Atompolitik nach Fukushima. Die nukleare Selbstdemontage“ FAZ 25.6.11, faz.net. Jung leitet übrigens die Wissenschaftsredaktion der FAZ.
[5] Auch dem Chef-Wissenschaftler der britischen Regierung, Sir Beddington, war diese grundlegende Einsicht vertraut. Damit konnte er die versammelten Mitglieder der britischen Botschaft in Tokio davon überzeugen, dass eine Flucht aus der japanischen Hauptstadt unnötig wäre. Da hatten sich die Angehörigen der deutschen Botschaft in Tokio bereits nach Osaka abgesetzt. Siehe: Heinz Horeis: „Fukushima 1: Worst case scenario German angstNovoArgumente Online 18.3.2011
[6] radscihealth.org/RSH/Realism/WP-Annex1.htm. An dieser Untersuchung war neben amerikanischen Forschungszentren auch das Kernforschungszentrum Karlsruhe beteiligt. Eine ausführliche Zusammenfassung durch milton levenson und frank rahn erschien 1981 in Nuclear Technology (Vol 53, May 1981). Das Papier wurde in die jeweilige Sprache aller Mitgliedsländer der Internationalen Atomenergiebehörde übersetzt. Ernsthafte Einwände gegen diese Ergebnisse gab es nicht.
[7] George Mobiot: „Going Critical“ The Guardian, 22 03.2011.
[8] monbiot.com/2011/04/04/evidence-meltdown/. Monbiot hat von Caldicott wissenschaftlich fundierte („peer reviewed“) Belege für 14 ihrer Horror-Behauptungen verlangt. Sie konnte keine ihrer Aussagen belegen.
Sehr lesenswert dazu die Korrespondenz.
[9] 1959 hat sich die Internationale Kommission für Strahlenschutz (ICRP) auf das LNT-Modell geeinigt (LNT ist die Abkürzung für „linear no threshold“). Es besagt, kurz gefasst, dass jede noch so geringe Strahlendosis gesundheitsschädlich ist. Die Summe mehrerer kleiner Strahlendosen hätte demnach die gleiche Wirkung wie eine einmalige große Dosis. In den Alltag übersetzt hieße das: An neun Tagen hintereinander jeweils 20 Minuten Sonnenbad zur Mittagszeit hätte die gleichen Folgen wie vier Stunden Sonnenbad am Stück. Namhafte Radiobiologen und Nuklearmediziner lehnen das LNT-Modell ab. Dagegen sprächen etwa Untersuchungen zur natürlichen Strahlenbelastung wie auch Erfahrungen aus der Strahlenmedizin. Siehe dazu zum Beispiel das Buch des britischen Nuklearmediziners wade allison, Radiation and Reason, 2009.
Heinz Horeis
Dieser Artikel ist zuerst in der aktuellen Printausgabe von NovoArgumente (#112 – II/2011) erschienen. Die Online-Version bei NovoArgumente finden Sie hier in drei Teile aufgeteilt.
Heinz Horeis ist freier Wissenschaftsjournalist. Mit dem Thema Energie befasst er sich seit der ersten großen Energiedebatte in den 1980er Jahren. Er ist Mitautor eines Buches über Strahlung und Radioaktivität, das jüngst in einen japanischen Verlag erschienen ist. Heinz Horeis prägte den Begriff “NIEs” für “Neue Ineffziente Energien” 




Politisch korrekte Wettervorhersagen

Viele Abonnenten (Kopp Exklusiv) werden sich noch an unseren Bericht über die verschwiegenen Ursachen für die immer ungenauer werdenden Wetterprognosen erinnern: Weil nicht nur vor der Küste Somalias, sondern in immer mehr internationalen Gewässern Piraten die Wetterfunksprüche der Frachtschiffe auffangen. werden diese zusammen mit den Positionsangaben seit einigen Jahren nur noch zeitversetzt gesendet. Die Piraten können die Frachtschiffe nun zwar mit deren für die Meteorologen gesendeten Wetterdaten nicht mehr orten, aber zugleich haben die Meteorologen Daten, bei denen Wetterdaten und Positionsdaten in der Realität nicht übereinstimmen. 
Dennoch gehen sie in die Wetterprognosen ein – und führen zu Vorhersagen. die eben immer öfter mit der Realität nichts mehr zu tun haben. 

Interkulturelle Sensibilität

Die Wettervorhersagen werden immer unzuverlässiger. Zugleich werden sie im deutschsprachigen Raum politisch immer korrekter. Man sieht das etwa an der Benennung der Hochs und Tiefs. Damit Hochdruckgebiete nicht nur mit weiblichen Namen und Tiefdruckgebiete nicht nur mil männlichen Namen verknüpft werden. düfen in geraden Jahren Hochdruckgebiete nur männliche und Tiefdruckgebiete nur weibliche Namen tragen. Und in ungeraden Jahren ist es genau umgekehrt. Aus dem Tiefdruckgebiet Andreas im Jahre 2011 würde 2012 das Tiefdruckgebiet Andrea. Und ein Tief, das 2011 Christian genannt worden wäre. müsste 2012 Christiane heißen. Nun kann man im deutschsprachigen Raum Namenspate eines Hochs oder Tiefs werden. Doch wenn es um Geld geht, da endet die Gleichheit: Während man für 199 Euro beim Institut für Meteorologie Namenspate eines Tiefdruckgebietes werden kann, kostet ein Hoch dort gleich 299 Euro. Allerdings erfolgt die Vergabe der Namen nach den Regeln der »interkulturellen Sensibilität«. Ein Tiefdruckgebiet hat im deutschsprachigen Raum beispielsweise noch nie einen islamischen Namen wie Mohammed, Ahmed oder Yussuf getragen, weil das Muslime oder den Islam »beleidigen« könnte. Ein christlicher oder jüdischer Vorname für das Tiefdruckgebiet stellt demgegenüber kein Problem dar. Das ist allerdings nur die Spitze der politischen Korrektheit der Wettervorhersage. Denn es gibt viele neue Sprachregelungen, die Meteorologen der Politik zuliebe verwenden sollen.

Sprachregelung im öffentlich rechtlichen Rundfunk

Die Wettermoderatoren der öffentlich-rechtlichen Sender sind dazu angehalten, möglichst haufig auf etwaige Abweichungen von Durchschnittstemperaturen nach oben hinzuweisen, 
Im Klartext: Ist ein Monat gegenüber Vergleichsmonaten der Vorjahre beispielsweise ein Grad wärmer, dann soll darauf hingewiesen und zugleich an den angeblichen Klimawandel als mögliche Ursache erinnert werden. Die Tatsache, dass Wetter keiner Norm unterliegt. gerät so bei den Bürgern in Vergessenheit. Noch einprägsamer ist allerdings die Aufforderung, moglichst häufig vor Unwettern zu warnen. Ein ganz normaler Wintersturm wird heute als Orkan höchster Gefahrenklasse angekündigt. Nie zuvor hat es mehr Unwetterwarnungen im deutschsprachigen Raum gegeben als in den vergangenen Monaten. Dabei hat sich die Zahl der Stürme. von Starkregen, Hagelschauern und Trockenperioden aus der Sirht der Versicherer in den letzten Jahrzehnten in Deutschland nicht verändert. Und die müssen es schließlich wissen. Ohnehin kann man viele neue Wetterphänomene ganz natürlich erklären und muss nicht gleich den Klimawandel als Kronzeugen anführen.
Ein Beispiel, das Meteorologen gern verschweigen: Nach Angaben der wissenschaftlichen Fachzeitschrift "Science" regnet und schneit es in der Umgebung von Flughäfen öfter und stärker als vor einigen Jahrzehnten. Die Meteorologen begründen das mit dem Klimawandel. In Wahrheit reißen die vielen startenden und landenden Flugzeuge Löcher und Kanäle in die Wolkendecken und lassen sie abregnen oder abschneien. Man kann das auch dem Laien ganz einfach erklären. Doch das ist politisch nicht erwünscht. 
Udo Ulfkotte; erschienen 2/12 bei "Kopp Eclusive" , mit freundlicher Genehmigung




Mr. Spock übernehmen Sie: Über die Bearbeitung der Daten der ARGO-Bojen

Die Behauptungen und Schlussfolgerungen der H2011-Studie beziehen sich hauptsächlich auf den Wärmegehalt der Ozeane (OHC), großenteils von den ARGO-Bojen gemessen, also dachte ich, dass ich mir diese Daten mal ansehen sollte. Die Messungen der Wassertemperatur und des Salzgehaltes mit einer großen Datenmenge geben uns viele wertvolle Informationen über den Ozean. Das H2011-Papier wendet die jüngsten Ergebnisse der Studie von K. von Schuckmann und P.-Y. Le Traon an (SLT2011).
Abbildung 1 rechts:
Schema einer Argo-Boje. Sie ist insgesamt etwa 2 m hoch. Quelle: Wikipedia
Die Argo-Bojen sind Treibbojen, die selbständig arbeiten. Jede Boje misst alle zehn Tage ein komplettes vertikales Temperaturprofil. Das Profil reicht bis in eine Tiefe von 1000 oder 2000 m. Sie sendet alle Messergebnisse via Satellit vor der nächsten Messung.
Unglücklicherweise sind die in H2011 verwendeten Argo-Daten mit einigen Problemen behaftet. Die Zeitspanne des Datensatzes ist sehr kurz. Die Änderungen sind ziemlich klein. Die Genauigkeit wird überschätzt. Schließlich und am Wichtigsten, die Untersucher benutzen die falsche Methode bei der Analyse der Daten.
Erstens ist da die Länge des Datensatzes. Die von Hansen benutzten Daten überdecken nur eine Zeitspanne von 72 Monaten. Dies begrenzt die Schlussfolgerungen, die wir aus diesen Daten ziehen können. H2011 drückt sich davor, wenn er nicht nur für diese Daten, sondern für alle Daten lediglich ein gleitendes Mittel über sechs Jahre zeigt. Ich kann es wirklich nicht leiden, wenn Rohdaten nicht gezeigt werden, sondern nur die mit der Hansen-Methode bearbeiteten Daten.
Zweitens, die Unterschiede sind ziemlich klein. Abbildung 2 zeigt eine Aufzeichnung, wie sie in SLT2011 zu finden ist. Sie zeigt die Daten als jährliche Änderungen des Wärmegehalts im oberen Ozean (OHC) in der Einheit Joule. Ich habe diese OHC-Änderungen (Joules/m²) für das Wasser, das sie vermessen, in Änderungen mit Celsius-Graden übertragen. Das gilt für eine ein Quadratmeter große Wassersäule mit einer Tiefe von 1490 Metern.  Wie man erkennt, behandelt die SLT2011-Studie sehr kleine Temperaturvariationen. Dies gilt auch für die H2011-Studie.

Abbildung 2 : Temperatur des oberen Ozeans nach Schuckmann & Le Traon, 2011 (SLT2011). Graue Balken zeigen einen Sigma Fehler in den Daten. Die rote Linie steht für eine 17-Punkte-Gaussverteilung. Die vertikale rote Linie zeigt den Fehler des Gauss’schen Mittels an den Rändern des Datensatzes (95% CI). Digitalisierte Daten aus SLT2011, Abb. 5b, erhältlich als durch Kommata getrennte Textdatei hier.
Einige Dinge in diesem Datensatz sind bemerkenswert. Zunächst haben wir es hier mit winzigen Temperaturänderungen zu tun. Die Länge der grauen Balken zeigt, dass SLT2011 behauptet, dass man die Temperatur der oberen 1½ Kilometer des Ozeans mit einem Fehler von nur ±acht tausendstel eines Grades…
Nun hasse ich es, aus Unglauben zu argumentieren, und ich werde ausführlich statistische Gründe weiter unten anführen, aber, meiner Treu… ein Fehler von acht Tausendstel Grad bei den Messungen der monatlichen Mitteltemperatur in der obersten Meile Wasser von fast dem gesamten Ozean? Wirklich? Sie glauben, dass sie die Temperatur des Ozeans bis zu diesem Grad an Präzision messen können, geschweige denn Genauigkeit?
Das zu glauben fällt mir sehr schwer. Ich verstehe die Gesetze der Zahlen und das zentrale Begrenzungstheorem und wie es uns zusätzliche Hebelwirkung gibt, aber der Gedanke, dass wir die Temperatur von 400 Millionen Kubikkilometer von Ozeanwasser mit einer Genauigkeit von acht Tausendstel Grad messen können, ist… nun, nennen wir es unbegründet. Andere, die mit Temperaturmessungen in Flüssigkeiten mit weniger als ein Hundertstel an Genauigkeit Erfahrung haben,  mögen sich hierzu äußern, aber für mich sieht es wie eine viel zu weit entfernte Brücke aus. Ja, es gibt etwa 2500 ARGO-Bojen dort draußen, und auf einer Karte des Ozeans sieht die Verteilung ziemlich dicht aus. Abbildung 3 zeigt die Position der Bojen im Jahr 2011.
 
Abbildung 3: Position der ARGO-Bojen. Quelle
Aber das ist nur eine Karte. Die Welt ist unvorstellbar groß. Im echten Ozean, bis zu einer Tiefe von eineinhalb Kilometern, das heißt ein ARGO-Thermometer für jedes der 165.000 Kubikkilometer Wasser… Ich weiß nicht, wie man sich klar machen kann, wie viel das wirklich ist. Versuchen wir es mal so: Der Obere See ist der größte Binnensee Amerikas, der selbst in der obigen Karte noch erscheint. Wie akkurat kann man die mittlere monatliche Temperatur der gesamten Wassermenge im Oberen See mit einer einzigen ARGO-Boje messen? Sicher kann man sie auf und ab tauchen oder sie rund um den See treiben lassen, sie wird drei vertikale Profile pro Monat messen. Aber selbst dann deckt jede Messung nur einen kleinen Teil des gesamten Sees ab.
Aber für ARGO sieht es noch schlimmer aus. Jede einzelne Boje, jeder Punkt in Abbildung 3 repräsentiert ein Volumen, das 13 mal so groß ist wie der Obere See … mit nur einem ARGO-Thermometer…
Oder wir betrachten es auf andere Weise. In der von SLT2011 abgedeckten Zeitspanne waren 2500 ARGO-Bojen in Betrieb. Das Gebiet des Ozeans umfasst etwa 360 Millionen Quadratkilometer. Also repräsentiert jede ARGO-Boje eine Fläche von etwa 140.000 Quadratkilometer, d. h. mit einem Quadrat von etwa 380 km auf jeder Seite. Eine ARGO-Boje für das alles! Zehn Tage für jeden Tauchzyklus, wobei die Boje tausend Meter absinkt und dort neun Tage lang verharrt. Dann steigt sie wieder auf, entweder von diesem Punkt, oder sie sinkt erst in eine Tiefe von 2000 Meter, um danach mit einer Geschwindigkeit von etwa 10 cm pro Sekunde an die Oberfläche zu steigen, wobei sie ununterbrochen Temperatur und Salzgehalt misst. Auf diese Weise erhalten wir drei vertikale Temperaturprofile von 0 bis 1000 oder 0 bis 1500 oder 0 bis 2000 Metern jeden Monat, abhängig von der Drift im Einzelnen, um ein Gebiet von 140.000 Quadratkilometern abzudecken… Tut mir leid, aber drei vertikale Temperaturprofile pro Monat, um ein Gebiet von 60.000 Quadratkilometern und einer Tiefe von 1 Kilometer abzudecken, das klingt in meinen Ohren ganz und gar nicht nach „einer Genauigkeit von acht Tausendstel Grad“.
Hier habe ich noch einen dritten Weg, um sich die Herausforderung dieser Messungen klarzumachen. Wenn man je mal in einem kleinen Boot gesessen und kein Land mehr gesehen hat – weiß man dann, wie groß der Ozean von Deck aussieht? Nehmen wir an, das Deck befinde sich 3 Meter über dem Wasser und man steht an Deck und schaut sich um. Nichts als der blanke Ozean erstreckt sich ringsum bis zum Horizont, eine riesige Menge Wasser auf allen Seiten. Wie viele Thermometermessungen würde man brauchen, um die monatliche Mitteltemperatur nur des in diesem Falle sichtbaren Ozeans bis zu einer Tiefe von eineinhalb Kilometern brauchen? Ich würde sagen… mehr als eine.
Nun führe man sich vor Augen, dass jede ARGO-Boje ein Gebiet zu überdecken hat, das 2000 mal so groß ist wie die Fläche, die man auf dem Deck des Schiffes stehend überblicken kann… und die Boje nimmt drei Tauchdurchgänge pro Monat vor… wie gut passen die Messungen, wie gut repräsentieren sie die Wirklichkeit?
Es gibt noch eine weitere Schwierigkeit. Abbildung 2 zeigt, dass sich der größte Teil der Änderung während der Zeitspanne innerhalb eines Jahres ereignete, etwa von Mitte 2007 bis Mitte 2008. Die Änderung des notwendigen Antriebs, die Temperatur von Wasser bis zu einer Tiefe von eineinhalb Kilometern zu ändern, liegt etwa bei 2 W/m² für diese Periode eines Jahres. Das „Ungleichgewicht“, um Hansens Term zu benutzen, ist sogar noch schlechter, wenn wir die Menge Energie betrachten, die nötig ist, um den oberen Ozean von Mai 2007 bis August 2008 zu erwärmen. Dies erfordert ein globales „Ungleichgewicht“ von etwa 2,7 W/m² während dieser Zeit.
Weiter! Wäre dies mein Datensatz, wäre das Erste, was ich mir ansehe, was sich Mitte 2007 verändert hat. Warum sprang das globale „Ungleichgewicht“ auf einmal auf 2,7 W/m²? Noch mehr auf den Punkt gebracht, warum hat sich der obere Ozean erwärmt, nicht jedoch die Lufttemperatur?
Ich habe keine Antworten auf diese Fragen, mein erster Gedanke waren „Wolken“… aber bevor ich mit diesem Datensatz arbeitete, wollte ich hingehen und nachschauen, warum es 2007 diesen großen Sprung gab. Was hat sich verändert und warum? Wenn das globale „Ungleichgewicht“ in unserem Interesse liegt, gibt es hier ein Ungleichgewicht zu studieren.
 (Lassen Sie mich im Vorübergehen anmerken, dass es eine nicht korrekte vereinfachende Annahme ist, den Wärmegehalt der Ozeane zu eliminieren, um zur kanonischen Klimagleichung zu kommen. Diese kanonische Gleichung lautet:
Temperaturänderung = Sensitivität x Änderung des Antriebs.
Der Fehler liegt darin anzunehmen, dass die Änderung des ozeanischen Wärmegehalts (OHC) eine lineare Funktion der Temperaturänderung ∆T ist. Das ist sie nicht, wie die ARGO-Daten bestätigen… diesen Fehler habe ich in einem früheren Beitrag hier (auf Deutsch bei EIKE hier) beschrieben. Aber ich schweife ab…
Die ARGO-Aufzeichnungen bei SLT2011 haben auch eine Eigenart, wie sie auch bei einigen anderen Temperaturaufzeichnungen vorkommt. Die Schwingung während des gesamten Zeitraumes beträgt etwa ein Hundertstel Grad. Der größte Sprung innerhalb eines Jahres in den Daten liegt auch etwa bei einem Hundertstel Grad. Wenn sich in lang- und kurzfristigen Zeiträumen die gleiche Schwingung zeigt, kann man kaum noch viel über die Daten sagen. Das macht es sehr schwierig, die Daten zu interpretieren. Zum Beispiel beträgt das notwendige Ungleichgewicht zur größten Änderung innerhalb eines Monats etwa 24 W/m². Bevor wir fortfahren – Änderungen des OHC die zu betrachten sich lohnen würde, um zu sehen, a) ob sie real sind und b) falls ja, was hat sich verändert…
In jedem Falle, das war mein zweites Anliegen, die Kleinheit der gemessenen Temperaturunterschiede.
Als nächstes zur Abdeckung. Die ARGO-Analyse bei SLT2011 verwendet lediglich Daten bis zu einer Tiefe von 1500 Metern. Sie sagen, dass der Datenumfang von ARGO in noch größeren Tiefen zu dünn ist, um von Bedeutung zu sein, aber die Lage verbessert sich. Außerdem überdeckt die ARGO-Analyse nur den Bereich zwischen 60° Nord und 60° Süd. Der arktische bzw. antarktische Ozean bleibt also außen vor, ebenfalls wegen der unzureichenden Datenlage. Als nächstes fängt sie erst in einer Tiefe von 10 Metern an, lässt also die entscheidende Oberflächenschicht außen vor, obwohl die, wiewohl klein im Volumen, große Temperaturveränderungen erfährt. Schließlich fehlen in ihrer Analyse die Kontinentalschelfe, weil nur Gebiete betrachtet werden, in denen der Ozean über 1000 m tief ist. Abbildung 4 zeigt den Anteil der von den ARGO-Bojen tatsächlich vermessenen Gebiete in SLT2011, nämlich etwa 30%.
 
Abbildung 4: Anteil der Weltozeane, in denen die ARGO-Bojen messen, wie in SLT2011 verwendet.
Zusätzlich zu den Messungen der ARGO-Bojen zeigt Abbildung 4, dass es noch eine Anzahl anderer Messungen gibt. H2011 enthält Daten für einige davon, einschließlich der Südlichen Ozeane (= der antarktischen Gewässer)  des Arktischen Ozeans sowie Tiefengewässer. Hansen verweist auf seine Quelle (Purkey und Johnson,   hier PJ2010 genannt) und sagt, dass es in einer Tiefe von 2 bis 4 km keine Temperaturänderung gegeben hat. Dies gilt für das meiste des Wasseranteils auf der rechten Seite der Abbildung 4. Es ist unklar, wie sich das Wasser am Grund erwärmt, ohne dass die mittleren Wasserschichten das auch tun. Ich kann mir nicht vorstellen, wie das möglich sein soll, aber PJ2010 zufolge ist es so, dass das blaue Gebiet rechts das die Hälfte des Ozeanvolumens repräsentiert, keinerlei Temperaturänderung aufweist.
Weder H2011 noch SLT2011 bieten eine Analyse des Effekts an, den das Auslassen der Kontinentalschelfe oder der dünnen Oberflächenschicht hat. In dieser Hinsicht ist es bemerkenswert, dass sich in einer zehn Meter dicken Schicht wie in Abbildung 4 gezeigt die Temperatur problemlos um ein ganzes Grad ändern kann… und wenn sie das tut, wäre das etwa die Größenordnung der gleichen Änderung des ozeanischen Wärmegehaltes wie die 0,01°C der Erwärmung des gesamten Volumens, wie es von den ARGO-Bojen gemessen worden ist. Also ist diese Oberflächenschicht ein viel zu großer Faktor, um einfach bei der Analyse nicht berücksichtigt zu werden.
Es gibt noch ein anderes Problem mit den Abbildungen, die in H2010 als Beleg für die Änderung des Wärmegehalts des Tiefenwassers (unter 4 km) herangezogen werden. In der zitierten Studie, PJ2010, heißt es:
Schließt man den arktischen Ozean und die Nördlichen Ozeane aus, ist die Änderung des Wärmegehalts in Tiefengewässern (unter 4000 m) global in den neunziger Jahren und der ersten Dekade dieses Jahrhunderts äquivalent mit einem Wärmefluss von 0,027 (± 0,009) W/m², angewendet auf die gesamte Erdoberfläche. QUELLE: PJ2010.
Das läuft auf eine behauptete Erwärmungsrate der Tiefengewässer von 0,0007°C pro Jahr hinaus, mit einem behaupteten 95%-Intervall einer Standardabweichung von ±0,0002°C pro Jahr… Es tut mir leid, aber das nehme ich ihnen nicht ab. Ich akzeptiere nicht, dass wir den jährlichen Temperaturanstieg der Tiefengewässer auf zwei tausendstel eines Grades pro Jahr kennen, egal was PJ2010 behaupten. Die Tiefengewässer werden einmalig oder zweimal pro Dekade mit einem Profil vermessen. Ich glaube nicht, dass unsere Messungen ausreichend sind.
Wie es in der Klimawissenschaft häufig der Fall ist, ist unser Problem hier, dass als Einziges die strikte mathematische Unsicherheit hinsichtlich der Zahlen selbst berücksichtigt wird, losgelöst von der realen Welt. Es gibt eine damit verbundene Unsicherheit, die manchmal unberücksichtigt bleibt. Diese besteht darin, wie sehr unsere aktuelle Messung das gesamte Gebiet repräsentiert.
Das zugrunde liegende Problem ist, dass die Temperatur von „intensiver“ Qualität ist, während so etwas wie Masse von „extensiver“ Qualität ist. Diese beiden Arten, intensive und extensive Parameter, zu messen ist sehr, sehr unterschiedlich. Eine extensive Qualität ändert sich mit der Menge („extent“) dessen, was gemessen wird, was auch immer das ist. Die Masse von zwei Gläsern Wasser mit einer Temperatur von 40° ist zweimal die Masse eines Glases Wasser mit einer Temperatur von 40°. Zur Bestimmung der Gesamtmasse addieren wir einfach die beiden Massen.
Aber addieren wir zweimal 40°C, um eine Gesamttemperatur von 80° zu erhalten? Nein, so funktioniert das nicht, weil die Temperatur von intensiver Qualität ist. Sie ändert sich nicht auf Basis der Menge, die wir messen.
Extensive Qualitäten sind generell einfach zu messen. Wenn wir eine große Badewanne voll Wasser haben, können wir dessen Masse leicht bestimmen. Man bringe eine Skala an und mache eine einzige Messung – fertig! Eine Messung ist alles, was man braucht.
Aber die mittlere Temperatur des Wassers ist viel schwerer zu ermitteln. Es erfordert simultane Messungen der Wassertemperatur an genauso vielen Stellen wie verlangt. Die Anzahl der erforderlichen Thermometer hängt von der Genauigkeit ab, die man braucht, und von der Größenordnung der Änderung der Wassertemperatur. Wenn es warme und kalte Stellen des Wassers in der Wanne gibt, braucht man sehr viele Thermometer, um einen Mittelwert zu erhalten, der, sagen wir, auf ein zehntel genau ist.
Nun rufen Sie sich ins Gedächtnis zurück, dass wir hier anstelle einer Badewanne mit vielen Thermometern für die ARGO-Daten ein Ozeangebiet haben mit einer Seitenlänge von 380 km mit einer einzigen ARGO-Boje darin, die die Temperatur misst. Wir messen bis zu einer Tiefe von eineinhalb Kilometern, und wir erhalten drei vertikale Temperaturprofile pro Monat… wie gut charakterisieren diese drei Profile die tatsächliche Temperatur von 140.000 km² Ozean?
Man beachte ferner, dass es in den Tiefengewässern viel, viel weniger Messungen gibt… und doch wird behauptet, dass man eine noch größere Genauigkeit erreichen kann als mit den ARGO-Daten.
Bitte seien Sie sich darüber im Klaren, dass meine Argumentation nicht auf den Möglichkeiten einer großen Anzahl von Messungen basiert, um die mathematische Präzision des Ergebnisses zu verbessern. Es gibt etwa 7500 vertikale ARGO-Profile pro Monat. Die Einteilung der Ozeanoberfläche in 864 Gitterpunkte ist ausreichend, um uns mathematische Präzision in der von ihnen behaupteten Größenordnung zu geben, falls die Standardabweichung (SD) des tiefenintegrierten Gitterpunktes  etwa 0,24°C beträgt. Die Frage ist, ob die SD der Gitterpunkte so klein ist, und falls ja, warum sie so klein geworden ist.
Sie diskutieren, wie sie ihre Fehleranalyse durchgeführt haben. Ich habe den Verdacht, dass ihr Problem in zwei Gebieten liegt. Eines ist, dass ich keine Fehlerabschätzung für das Entfernen der „Klimatologie“ aus den Daten, der historischen monatlichen Mittelwerte sehe. Das andere Problem enthält die verwendete geheimnisvolle Methode der Datenanalyse durch die Gittereinteilung der Daten horizontal und vertikal. Ich möchte mich zuerst mit der Klimatologiefrage befassen. Sie beschreiben ihre Methode wie folgt:
2.2 Methode der Datenbearbeitung
Eine ARGO-Klimatologie (hiernach ACLIM, 2004 – 2009 von Schuckmann et al., 2009) wird zunächst an jeder Stelle des Profils interpoliert, um lückenhafte Profile für die Tiefe jeder Temperatur und jeden Salzgehaltes zu vervollständigen. Diese Prozedur ist erforderlich, um die tiefenintegrierten Quantitäten zu berechnen. OHC (ozeanischer Wärmegehalt), OFC (ozeanischer Frischwassergehalt) und SSL (räumlicher {temperaturabhängiger} Meeresspiegel) werden dann für die Position jedes ARGO-Profils berechnet, wie es von Schuckmann et al. (2009) beschrieben worden ist. Schließlich wurden noch Anomalien der physikalischen Gegebenheiten an jedem Ort eines Profils berechnet, relativ zu ACLIM.
Terminologie: Ein „Temperaturprofil“ ist ein Strang von Messungen mit zunehmender Tiefe durch eine ARGO-Boje. Die „Position des Profils“ liegt auf einem vorher festgelegten Druckniveau, bei dem die ARGO-Bojen ausgesetzt werden, um eine Messung durchzuführen.
Dies bedeutet, wenn Daten in einem gegebenen Profil fehlen, wird die Lücke mit Hilfe der „Klimatologie“ gefüllt, d. h. den langzeitlichen Mittelwerten für den Monat und den Ort. Nur führt dies dazu, dass ein Fehler eingebracht wird, kein sehr großer, aber einer, der sich bemerkbar macht.
In Bezug auf den letzten Satz des vorigen Absatzes kann ich jedoch in ihrer Fehlerberechnung keinerlei Fehlerabschätzung finden. Jener Satz beschreibt die Subtraktion der ACLIM-Klimatologie von den Daten. ACLIM ist eine ARGO-Klimatologie, und zwar ein Mittel Monat für Monat aus jedem Tiefenniveau.
SLT2011 weist bzgl. dieser Frage auf eine frühere Arbeit der gleichen Autoren hin, SLT2009, worin die Bildung der ACLIM-Klimatologie beschrieben wird. Ich sehe dort über 150 Niveaus der ACLIM-Klimatologie, wie sie von den Autoren beschrieben werden:
Die Konfiguration wird definiert durch das Gitternetz und den Satz von mutmaßlichen Informationen wie der Klimatologie und deren mutmaßliche Abweichungen und Kovarianzen, die erforderlich sind, um die Kovarianzmatrix zu berechnen. Das analysierte Feld wird definiert auf einem horizontalen isotropischen Gitter im Abstand von ½° einer Mercator-Projektion und ist begrenzt auf den Bereich zwischen 77°S bis 77°N. Es wurden 152 vertikale Schichten zwischen 0 und 2000 m Tiefe definiert… und zwar mit einem Abstand von jeweils 5 m von der Oberfläche bis zu einer Tiefe von 100 m, 10 m von 100 bis 800 m und 20 m von 800 m bis 2000 m.
Sie haben also die oberen Ozeanschichten in Gitterwürfel eingeteilt und jeden Gitterwürfel in Schichten, um Gitterzellen zu erhalten. Wie viele Gitterzellen? Nun, 360 Längengrade x 2 x 180° Grad Breite x 2 x 70% der Erde sind Ozeane x 152 Schichten = 27.578.880 ozeanische Gitterzellen. Dann haben sie das Temperaturmittel Monat für Monat für jede einzelne dieser 25 Millionen Gitterzellen ozeanischen Volumens berechnet… ein netter Trick. Klarer Fall, sie interpolieren wie die Verrückten.
Es gibt etwa 450.000 einzelne Werte der Ozeantemperatur pro Monat, ermittelt durch die ARGO-Bojen. Dies bedeutet, dass jede ihrer 25 Millionen Gitterzellen im Mittel nur alle 5 Jahre einmal mit [gemessenen] Temperaturwerten gestützt werden.
Dies ist die “Klimatologie”, die sie an jeder „Profilstelle“ bei jedem ARGO-Tauchgang abziehen. Angesichts der kurzen Geschichte des ARGO-Datensatzes, die Abdeckung von 140.000 Quadratkilometern Ozeanfläche und die Kleinheit der Gitterzellen sind große Unsicherheiten in der Klimatologie offensichtlich.
Wenn sie also eine Klimatologie von einer aktuellen Messung subtrahieren, enthält das Ergebnis nicht nur einen Fehler in der Messung. Es enthält auch den Fehler in der Klimatologie. Wenn wir etwas subtrahieren, addieren sich die Fehler „quadratisch“. Dies bedeutet, dass der resultierende Fehler die Quadratwurzel der Summe der Fehlerquadrate ist. Es bedeutet auch, dass die großen Fehler bestimmend sind, vor allem, wenn ein Fehler viel größer ist als der andere. Die Temperaturmessung an der Stelle des Profils enthält lediglich den Instrumentenfehler. Für die ARGO-Werte beträgt dieser ± 0,005°C. Der klimatologische Fehler? Wer weiß das schon, wenn die Volumina nur alle 5 Jahre einmal mit Messungen belegt werden? Aber es steckt viel mehr dahinter als der Instrumentenfehler…
Das also ist das wesentliche Problem, das ich ihren Analysen entnehme. Sie machen es auf eine schwer nachvollziehbare, geheimnisvolle und plumpe Art und Weise. Argo-Daten und Temperaturdaten allgemein kommen in einer irgendwie genetzten Welt nicht vor. Wenn man die Dinge macht, die sie mit den Gitterquadraten und den Schichten machen, schleichen sich Fehler ein. An einem Beispiel will ich das verdeutlichen. Abbildung 5 zeigt die Tiefenschichten von 5 m, verwendet in der oberen kleineren Sektion der Klimatologie zusammen mit den Aufzeichnungen eines Temperaturprofils einer ARGO-Boje.
 
Abbildung 5 ACLIM-Klimatologieschichten (5 Meter). Rote Kreise zeigen die aktuellen Messungen eines einzelnen ARGO-Temperaturprofils. Die blauen Karos zeigen die gleiche Information nach der Mittelung in Schichten. Quelle
Vieles kann man hier erkennen. Erstens gibt es keine Daten für drei der klimatologischen Schichten. Ein größeres Problem ist Folgendes: wenn wir eine Einteilung in Schichten vornehmen, verweisen wir den Mittelwert in den Mittelpunkt der Schicht. Das Problem damit ergibt sich, weil die ARGO-Bojen im Flachwasser in Intervallen messen, die etwas weniger als 10 m dick sind. Also sind die oberen Messungen gerade über der unteren Grenze der Schicht. Im Endergebnis ist dies gleichbedeutend, dass man das Temperaturprofil bei der Einteilung in Schichten ein paar Meter nach oben verschiebt. Dies führt zu einer großen Verzerrung bei den Ergebnissen. Zusätzlich ist diese Verzerrung abhängig von der Tiefe, weil die oberen Schichten aufwärts, die tieferen Schichten aber abwärts bewegt werden. Der Fehler ist unter 100 Metern am kleinsten, wird aber danach wegen der Änderung der Schichtdicke zu 10 Metern rasch größer.
SCHLUSSFOLGERUNGEN
Zuletzt kommen wir zur Frage nach der Analysemethode und der Bedeutung der Überschrift zu diesem Beitrag*. Im SLT2011 lesen wir weiterhin:
Um die globalen ozeanischen Indizes (GOI) mit Hilfe der unregelmäßig verteilten Profile abschätzen zu können, wird der globale Ozean in Rechtecke mit 5° Breite, 10° Länge und 3 Monate Zeit eingeteilt. Dies gewährleistet eine ausreichende Anzahl von Beobachtungen pro Rechteck. Um falsche Daten zu entfernen wurden Messungen, die um mehr als das Dreifache von der Standardabweichung entfernt liegen, ausgeschlossen. Die Information bzgl. der Varianz für dieses Kriterium wird aus ACLIM abgeleitet. Dieser Prozess schließt etwa 1% der Daten unserer Analyse aus. Nur Datenpunkte über einer gemessenen Tiefe über 1000 m wurden dann behalten. Rechtecke mit weniger als 10 Messungen wurden als eine Messlücke betrachtet.
Tut mir leid, aber das ist eine dumme Methode, diese Art von Daten zu analysieren. Sie haben die aktuellen Daten verwendet. Dann haben sie Lücken mit „klimatologischen“ Daten gestopft, so dass alles nett und ordentlich aussah. Dann haben sie die „Klimatologie“ von dem Ganzen subtrahiert, mit einem Fehler in unbekannter Größe. Dann wurden die Daten in ein Gitternetz gemittelt mit einem Abstand der Gitterpunkte von 5 mal 10 Grad sowie 150 Schichten unter der Oberfläche mit variierender Schichtdicke, dann haben sie das gemittelt über einen Zeitraum von drei Monaten… das ist alles unnötige Komplexität. Dieses Problem zeigt erneut, wie isoliert die Gemeinschaft der Klimawissenschaftler in der Welt etablierter Methoden ist.
Dieses Problem, über vertikale ARGO-Temperaturprofile zu verfügen und diese zur Abschätzung der Temperatur in den nicht gemessenen Gebieten zu nutzen, ist keineswegs neu. Tatsächlich ist es genau die Situation, der sich jede Bergbaugesellschaft gegenüber sieht hinsichtlich der Ergebnisse ihrer Testbohrungen. Genau wie bei den ARGO-Daten haben die Bergbauer vertikale Profile der Zusammensetzung der unterirdischen Wirklichkeit an verschiedenen Stellen. Auch wie bei ARGO müssen die Gesellschaften aus diesen Informationen die Verhältnisse in den Gebieten abschätzen, die sie nicht sehen können.
Aber dabei handelt es sich dann nicht um AGW stützende Wissenschaftler, für die fehlerhafte Behauptungen nichts bedeuten. Für diese Leute geht es um das große Geld abhängig von den Ergebnissen ihrer Analysen. Ich kann Ihnen versichern, dass sie kein Brimborium veranstalten und das Gebiet in rechteckige Kästen einzuteilen und den Untergrund in 150 Schichten unterschiedlicher Dicke zu zerlegen. Sie würden jeden auslachen, der versucht, mit einer solchen schwerfälligen Methode eine Goldader zu finden.
Stattdessen benutzen sie eine mathematische Methode, “kriging“ genannt. Warum machen sie das? Weil es funktioniert.
Man erinnere sich, die Bergbaugesellschaften können sich keine Fehler leisten. Das Kriging (und daraus abgeleitete Methoden) haben sich jedes Mal dabei bewährt, die besten Abschätzungen des Untergrundes zu ergeben, die man nicht messen kann.
Zweitens ergeben sich aus dem Kriging aktuelle Fehlerabschätzungen und nicht der „acht tausendstel von einem Grad“-Unsinn der ARGO-Analysten. Die Bergbaugesellschaften können sich nicht selbst mehr Sicherheit vortäuschen als die Messungen hergeben. Sie müssen genau über die Risiken Bescheid wissen und nicht irgendwelche optimistischen Berechnungen vornehmen.
Am Ende dieses Tages möchte ich sagen, werfen Sie die Analyse der ARGO-Daten zum Fenster hinaus, zusammen mit all den aufgeblasenen Behauptungen über die Genauigkeit. Hören Sie auf, mit Gitternetzen und Schichten um sich zu werfen, das ist Zeug für die Hochschule. Nehmen Sie sich einen Kriging-Experten und analysieren Sie die Daten ordnungsgemäß. Meine Vermutung ist, dass eine echte Analyse zeigen wird, dass viele Abschätzungen unbrauchbar sind.
In jedem Falle ist dies meine Analyse der Hansen-Studie zum Energieungleichgewicht. Sie behaupten darin eine Genauigkeit, von der ich nicht glaube, dass sie ihrer gewaltig komplexen Methode gerecht wird.
Dies ist ein langer Beitrag, vielleicht haben sich Ungenauigkeiten und Druckfehler eingeschlichen, seien Sie gnädig…
Willis Eschenbach
Link: http://www.columbia.edu/~jeh1/mailings
Übersetzt von Chris Frey für EIKE




Weltweit größter Windkraftanlagenbauer Vestas muss 2300 Jobs streichen

Schon im vergangenen Jahr hatte Vestas 3000 Mitarbeitern gekündigt. Nach dem Stellenabbau wird das Unternehmen weltweit noch rund 20’400 Mitarbeiter haben. Das berichten aktuell der Schweizer Tagesanzeiger [1] und das Schweizer Fernsehen [2].  Windturbinen im Abwind  
»Der weltweit grösste Windturbinenbauer entlässt mehr als 2300 Mitarbeiter. Die dänische Vestas reagiert damit auf die flaue Nachfrage….«. 
Und FinanzNachrichten.de listet Negativmeldungen quasi im Minutentakt. Und wie läuft das mit der deutschen Energiewende?

Aktienkurs der VESTAS Aktie; Quelle Finanztreff
Für den global player Enercon tun sich hingegen bei uns noch ungeahnte Zukunftspotentiale in deutschen Staatsforsten auf. Die "sichtgeschützten Standorte" würden große Chancen für den weiteren Ausbau der Windenergie bergen – so das Magazin Windblatt 04/11.
Na ja, wenn es der Wind entlang der dänischen Küstenlinien mit der Energiewende in dem kleinen Land nicht geschafft hat, wie soll es dann über den deutschen Wäldern besser gehen? Sofern den Waldstandorten keine forstfachlichen Gesichtspunkte entgegenstehen und die Stellungnahme der von einen Projekt betroffenen Gemeinde eingeholt wurde, "ist insbesondere der Landesbetrieb ForstBW grundsätzlich bereit, geeignete Flächen im Staatswald für die Errichtung von Windkraftanlagen zu verpachten" – laut Windenergieerlass Baden-Württemberg [hier]. Jobperspektiven dürften sich in der EE-Szene allerdings noch im Wartungs- und Reparaturdienst und später bei Demontage und Entsorgung entwickeln. Denn viele Anlagen sollen ja noch 20 Jahre laufen. 
Übernommen mit Dank von Wilfried Heck 
Weitere Details hier und hier
Und schlechte Nachrichten auch noch von der Offshore Front: Zeit online schreibt

Offshore-Ziele kaum noch zu schaffen

Jahrelange Planung, komplizierter Netzanschluss, schwierige Finanzierung: Die Windenergie auf See kommt angesichts der vielen Probleme nicht in Schwung….

….Stromnetzbetreiber Tennet ist überfordert

Erst vor wenigen Wochen warnte daher der Stromnetzbetreiber Tennet in einem Brandbrief an die Bundesregierung, dass der Anschluss der Windparks unter den derzeitigen Umständen nicht möglich sei. Das mittelständische Unternehmen ist überfordert, egal, ob es um die Finanzierung, das Personal und das Material geht. Allein den Netzanschluss muss der Konzern eigentlich binnen 30 Monaten gelegt haben, so sieht es die Bundesnetzagentur vor. Doch was tun, wenn Firmen wie ABB dafür 40, wenn nicht 50 Monate benötigen?
Es sind solche Probleme, die viele Experten inzwischen pessimistisch stimmen. 10.000 Megawatt Offshore-Kapazitäten will die Bundesregierung bis 2020 ans Netz bringen – theoretisch entspricht das der Leistung von zehn Atomkraftwerken. "Das ist unwahrscheinlich", sagt Verbandspräsident Hermann Albers. Eher würden es wohl nur 6.500 bis 7.000 Megawatt bis 2020. Auch innerhalb der Bundesregierung wachsen die Zweifel an den ambitionierten Plänen. Im aktuellen Energiekonzept spricht die Bundesregierung denn auch lieber vom Ziel "25.000 Megawatt in 2030"….
Die Redaktion




Windkraftstrom-SPIEGEL-Wind-Ei der Woche: Trotz “harter Fakten” keine Substanz

“8 Mrd. Kilowattstunden Strom haben deutsche Windräder im Dezember (2011; Anm. des Autors) erzeugt. Der Rekord entspricht fast der monatlichen Leistung aller deutschen Atomkraftwerke.”

Wer es noch nicht gemerkt hat – die Botschaft lautet: dank der deutschen Windkraftwerke können wir den Verzicht auf Kernkraft locker wegstecken.

Faktencheck: 

– im Dezember 2011 lag die Windstromerzeugung in der Tat bei knapp 8 Mrd. kWh – damit war dieser Monat auch wirklich der mit Abstand ertragreichste des Jahres 2011 (insges. wurden etwa 44,3 Mrd. kWh erzeugt – eine Auslastung von satten 18% der installierten Leistung) – laut Wikipedia waren in Deutschland acht Kernkraftwerke mit neun Reaktorblöcken und einer installierten Bruttogesamtleistung von 12.676 MW am Netz (bzw. hätten am Netz sein können). Mulipliziert man dies mit den 744 Stunden des Monats Dezember, landet man etwas oberhalb von 8 Mrd. kWh. Das lassen wir mal durchgehen.
Warum die SPIEGEL-Meldung trotzdem unsinnig ist, erläutert Wilfried Heck http://wilfriedheck.de/ im Blog-Beitrag vom 10. Januar im Detail

Maßeinheiten: Reihe 2 = Strommengen in MWh;
Reihe 3 = höchster und Reihe 4 = niedrigster Leistungswert in MW  

 
Nicht nur war der “Rekord"-Dezember 2011 der einzige Monat mit einer vergleichsweise “steitigen” Windstromerzeugung – in zehn von zwölf Monaten des vergangenen Jahres lag die minimale Tages-Erzeugung bei zum Teil deutlich weniger als 250 Mio. kWh. 
Da für eine einigermaßen sichere Energieversorgung immer eine sofortige Deckung des aktuellen Bedarf nötig ist, können wir also gar nichts abschalten. Außer ein paar Klein(st)kraftwerken.
Auf derselben Webseite stellt Herr Heck in einem Beitrag vom 3. Januar die Windstromerzeugung der aus konventionellen Quellen gegenüber.

Wie leicht ersichtlich ist, erzwingt jede Leistungsspitze bei der Windkrafterezeugung einen entsprechenden Einbruch bei der konventionellen Stromproduktion. Dies bedeutet nicht etwa, dass konventionelle Kraftwerke abgeschaltet werden können, wenn der Wind nur ausreichend weht. Sie müssen als Backup natürlich weiterhin mitlaufen, allerdings mit gedrosseltem Output – und damit einem oft drastisch reduziertem Nutzungsgrad des eingesetzten Brennstoffs.
Warum dies in Summe sogar dazu führen kann, dass CO2-Emissionen gerade wegen der Einspeisung von Windenergie höher ausfallen, als ohne diese, erklärt Klaus-Dieter Humpich hier. Ein konkretes Beispiel aus den Niederlanden wird hier beschrieben.
Für solche Feinheiten bieten 24 Quadratzentimeter im Print-SPIEGEL natürlich nicht ausreichend Raum.
Fazit: die “Zahl der Woche” im SPIEGEL grenzt an Desinformation. Von welcher Seite, mag der Leser selbst entscheiden.
Rainer Schulze
Der Beitrag erschien zuerst auf ACHGUT hier
Hier der Beitrag von Wilfried Heck vom 3.1.12
Ein zahlen- und faktenmäßiger Rückblick auf das Jahr 2011 hält immer noch die seit 20 Jahren bestehende Frage offen, was denn die vielen Wind- und Solarstromanlagen für eine verlässliche Stromversorgung taugen. Aus technischer Sicht ließ sich zu Beginn der vorrangigen Stromeinspeisung durchaus noch darüber lächeln. Ihre Wirkung ging schlicht im Netzrauschen unter. Natur- und Landschaftsschützer, welche in den 90er Jahren gegen die im Vergleich zu heute zwergenhaften Riesenpropeller antraten wurden veräppelt, geschmäht und diskreditiert und viele ländliche Dorfgemeinschaften sind deswegen zerbrochen. Städtische Populationen, welche wohl in Umfragen auch immer nach dem ‚Ökstrom‘ aus Sonne und Wind rufen, muss das ja nicht betreffen. 
Mit der Gier nach einer schnellen und sicheren Rendite ließen sich per Erneuerbare-Energien-Gesetz Milliarden an Investitionen aus dem Volk pressen und der technische Klimaschutz bekam seinen unangreifbaren Glorienschein. Nun haben viel Geld, eine teure und weltenrettende Propaganda das Netzrauschen deutlich spürbar überstiegen. Spürbar im Sinne steigender Belastungen für Menschen, Tiere und Umwelt samt den zunehmenden Netzproblemen aus den vielen, volatil und entgegen jeglichem Bedarf einspeisenden EE-Anlagen. Aus der einstigen Bedeutungslosigkeit im allgemeinen Netzrauschen hat sich ein wirtschaftlich hochgerüsteter Störfaktor für die Stromversorgung entwickelt – weil Wind- und Sonne nur unregelmäßig und schwer planbar ihre Energien zur Verfügung stellen. Das Problem war von Anfang an bekannt, wurde aber geflissentlich unter der Decke gehalten. Nun soll es jedoch nicht an seiner Ursache, sondern durch weitere Geschäftsmodelle wie den Netzausbau und Speicherausbauten bis nach Norwegen kompensiert werden. Das skandinavische Land wurde bereits in der Vergangenheit mit kriegerischen Handlungen von der Deutschen Wehrmacht besetzt. Das muss sich mit der Landnahme einer deutschen Ökomacht für den Aus- und Umbau der Speicherseen zu Pumpspeicherkraftwerken und der Errichtung von Höchstspannungstrassen zwecks Sicherstellung unserer Stromversorgung (Energiewende) nicht wiederholen. In der Diskussion um das neue Pumpspeicherkraftwerk Atorf im Schwarzwald rudert der Energieexperte des Sachverständigenrates für Umweltfragen, Prof. Olav Hohmeyer, nun zurück. Aha, zu Hause die ökoheile Heimat – bei anderen ist das ja weniger schlimm, oder?  
  
 Einspeisung der Wind- und Solarstromanlagen im Vergleich zu konventionellen Kraftwerken ab 100 MW LeistungZahlen und Fakten für 2011: Höchstlast der konventionellen Einspeisung über die Strombörse: 62.736,60 MW, Mittelwert: 41.677,54 MW, kleinster Wert: 21.453,40 MW, Strommenge: 365.095.214,30 MWh.Höchstleistung der von der EEX aufgezeichneten Windkrafteinspeisung: 22.869,90 MW, Mittelwert: 5.063,85 MW, kleinster Wert: 88,10 MW; Strommenge: 44.359.340,87 MWh.Höchstleistung der von der EEX aufgezeichneten Solarstromeinspeisung:13.190,90 MW, Mittelwert: 2.118,55 MW, geringster Wert: NULL – jede Nacht. Strommenge: 18.558.528,97 MWh. Die zeitgleiche Addition der Wind- und Solarstromeinspeisung liefert folgende EE-Ergebnisse: Höchster Wert: 27.862,20 MW, Mittelwert: 7.182,41 MW, Minimalwert: 204,30 MW, Strommengen aus Wind- plus Solar: 62.917.869,85 MWh – ergibt 17,23 % Anteil im Vergleich zu der konventionellen Einspeisung aus Kraftwerken ab 100 MW Leistung. Die Höhe der Grundlast ist nicht spezifisch definiert. Beispielhaft läßt sich in der obigen Grafik ein Wert von 25.000 MW ansetzen. Diesen Wert hat die Summe aus Wind- und Solareinspeisung im gesamten Jahr nur 55 mal für jeweils ein Viertelstunde überschritten. Und schon wieder stellt sich die Frage nach einer jederzeit sicheren und bedarfsgerechten Stromerzeugung. Nun bräuchte man das obige 17,23 %-Ergebnis nur mit sechs multiplizieren, und schon hätten wir 100 % der Stromversorgung nur aus Wind- und Sonnenenergie erreicht. Biomassekraftwerke und Speicherseen könnten zusätzlich die Grund- und Regelleistung liefern und das Potential der aktuell einspeisenden, herkömmlichen Kraftwerke mit derzeit 99.451 MW wäre samt Strombörse EEX obsolet. Deutschland könnte sich als autarke Insel aus dem europäischen Netzverbund ausgliedern und seinen eigenen Weg beschreiten. Also packen wir’s an und lasst uns die Anstrengungen und Windräder deutlich erhöhen und die Solarplattenfelder weitest gehend ausdehnen! Die Zeit bis 2050 ist kürzer als man denkt und es gibt noch viel zu tun – für die dafür notwendige Geldbeschaffung und die damit einhergehenden Landschafts- und Natureingriffe (Flora und Fauna) größten Ausmaßes. Die Energiewende kann schließlich nicht kostenlos sein. Damit die erneuerbaren Energien aus der Nord- und Ostsee auch in Süddeutschland ankommen, müssen bis 2030 35.000 km Stromtrassen für die Hoch- und Höchstspannungsebene (110/220/380 kV) gebaut werden – so der Verband kommunaler Unternehmen (VKU) in seiner Präsentation "Energiewende 2011 – Herausforderung für die Stadtwerke und Verteilnetze". Denn in den binnenländischen Zielregionen der Stromautobahnen warten bereits 1,7 Mill. km Mittel- und Niederspannungsleitungen (Verteilnetzebene 20/0,4 kV) auf den notwendigen Infrastrukturumbau zwecks Integration der bereits hier aus EE produzierten Strommengen. Die Höhe des Investitionsbedarfes für die Verteilnetzebene hat der VKU schon mal mit 25 Milliarden Euro angemeldet – jedoch noch ohne die Kosten für die Weiterentwicklung zu den sogenannten intelligenten Netzen.  Es ist schon erstaunlich, wieviel Geld einerseits für die regenerative und für Endverbraucher zunehmend teurer werdende Stromerzeugung und Verteilung eingesetzt werden soll und andererseits das Volk zu immer mehr Stromsparen aufgefordert wird. Wo bleibt dafür der volkswirtschaftliche Nutzen? Auf diesem Weg zur ‚Energiewende‘ bleibt kein Kapital mehr für produktive und nützliche Stromanwendungen übrig und weitere Unternehmen und Industriebetriebe werden sich Standorte in Nachbarländern suchen müssen.