Salzbergwerk „Asse“ ein Desaster – für wen eigentlich?
Im stillgelegten Salzbergwerk "Asse" bei Woifenbüttel wurden über Jahrzehnte, nachdem es dort kommerziell nichts mehr auszubeuten gab, Versuche zur Endlagerung von schwach- und mittelradioaktivem Abfall gemacht. Nun wurde die Offentlichkeit durch Fernsehberichte und Zeitungsartikel aufgeschreckt: ,,Asse stürzt ein", "Asse säuft ab", Asse verseucht das Grundwasser radioaktiv", "Asse als Endlager ungeeignet", "Asse – ein Atomdesaster" lauteten die Schlagzeilen und ich sagte, das will ich selbst sehen. Hier die Ergebnisse:
> "Asse stürzt ein" – Falsch! Salzbergwerke wie die "Asse" können nicht einfach einstürzen. Salz verhält sich geologisch nämlich wie Knetmasse ("Viskoplastizität"), die verschoben werden kann, ohne dabei einzustürzen
> "Asse säuft ab" – Falsch! Die Kaverne des Wassereintritts befindet sich in 658 m Tiefe. Die Flüssigkeit ist gesättigte Salzlauge. Es wird gesammelt und einmal pro Woche, nach "Freimessung zur Unbedenklichkeit" mit einem Tankwagen in die 100 Kilometer entfernte Grube "Maria Glück‘ gefahren. In Norddeutschland werden ausgebeutete Salzbergwerke oft durch Fluten mit Wasser still gelegt. Das Wasser macht sie geologisch stabil. Anfangs löst das Wasser noch etwas Salz auf, bis es gesättigt ist. Danach ist die gesättigte Lauge sogar weniger kompressibel als das etwas poröse Salzgestein.
> "Asse verseucht das Grundwasser radioaktiv" – Falsch!
Das ist völlig absurd. Es wurde der bergmännische Begriff "Grundwasser" (Wasser am Grunde des Bergwerkes), mit dem hydrologischen Begriff "Grundwasser" verwechselt. Das hydrologische Grundwasser gehört nach EU Wasserrahmenrichtlinie zum Oberflächenwasser eines Flussbassins, nicht aber Tiefenwasser 638 m unter der Erde.
> "Asse als Endlager ungeeignet" Falsch!
Der Abraum wurde nicht oberirdisch auf Halde gefahren, sondern unter Tage belassen, indem die ausgeräumten rechteckigen Kavernen ( 60x40x20 Meter) größtenteils gleich wieder mit Abraum verfüllt wurden. Um die "Bergmechanik" und die Eignung zur Endlagerung zu untersuchen, wurden dreizehn leere Kavernen mit radioaktivem Abfall gefüllt, eine in 490 Meter Tiefe mit mittelaktivem und zwölf in 7~ Meter Tiefe mit schwachaktivem. Alles wurde in 125000 Fässern von jeweils 200 Litern Inhalt angeliefert. Einmal stürzte eine Ladung Fässer vom Transporffahrzeug. Ein Teil davon platzte auf. Das kontaminierte Material hatte eine Radioaktivität von maximal 8000 Becquerel Cs-137/kg. Er war noch nicht einmal schwachaktiv, weil damals die Untergrenze für schwachaktiven Abfall bei 10000 Becquerel/kg lag. Heute liegt sie bei 1000 Becquerel/kg. Seinerzeit brauchte die Asse GmbH keine Genehmigung, um das Unfallmaterial in 1000 Meter Tiefe beim Wiederauffüllen der Forschungsstrecken zu verfüllen.
> "Asse- ein Atomdesaster" – Falsch!
Die Kaverne mi t dem höchsten Dosiswert wurde genau beobachtet. Eine Schautafel zeigt den Verlauf ihrer Dosiswerte in den vergangenen Jahrzehnten. Sie nahmen erst jahrelang stark ab. Danach fielen sie viele Jahre linear ab und waren damit für die Zukunft voraus berechenbar. Deshalb wurden die Messungen eingestellt. Eine andere Kaverne wurde nur teilverfüllt und durch ein Eisengitter gesichert, damit Besucher noch etwas sehen und eigene Messungen machen können. Einmal hat ein Besucher mit seinem eigenen hochempfindlichen Geigerzähler tatsächlich vor dem Eisengitter erhöhte radioaktive Strahlung gemessen.
Es zeigte sich aber, dass die Strahlung von Kobaltspuren (Co-60) im Eisengitter stammte. Hinter dem Gitter war nur die extrem schwache Strahlung (des K-40) vom Füllmaterial zu messen. Bezüglich der Grenzwerte sollte man wissen: Der deutsche Grenzwert für Milch mit der wissenschaftlichen Bewertung "absolut unbedenklich" ist 500 Becquerel Cs-137/l. Rheumapatienten im Wannenbad in Bad Schlema legen sich in Badewasser mit 2000 Becquerel Ra-222/l. Demgegenüber sind 8000 Becquerel Cs-137/kg Salzmasse noch nicht einmal radiotherapeutisch nutzbar, weil niemand einfach so ein paar Gramm Salz mit dem Löffel essen würde. Übrigens, kann jedermann, Kleinkinder und Schwangere ausgenommen, nach Anmeldung bei "Info Asse" in das Bergwerk einfahren, seine eigenen Messgeräte mitnehmen und sich vor Ort kundig machen. Um mit den Worten von Jacques Delors, französischer Sozialist und dreifacher Präsident der Europäischen Union, zu enden: "Angstmachen ist ein Verbrechen an der Demokratie."
Dr. Gerhard Stehlik
Related Files
Drei Anmerkungen zum zwei Grad Ziel, z.B. Es gibt keine „mittlere globale Temperatur“
Es gibt keine „mittlere globale Temperatur“
Die uns umgebende Luft wird nicht von oben, von der Sonnenstrahlung erwärmt, sondern von unten, vom Boden aus. Denn diesen erreicht das Sonnenlicht fast ungehindert, um in Teilen absorbiert und als infrarote Wärmestrahlung wieder emittiert zu werden. Was man „Erderwärmung“ nennt, ist also lokal, je nach Beschaffenheit der Oberfläche, völlig unterschiedlich. Die Kugelgestalt der Erde, als deren Folge die einfallende Energiedichte pro Fläche in hohen Breiten im Mittel deutlich geringer als in äquatorialen Regionen ist, trägt das ihrige dazu bei. Zwei beliebige Thermometer an verschiedenen Orten auf diesem Planeten bzw. die sie umgebenden Luftreservoirs stehen daher nicht im thermischen Gleichgewicht miteinander (denn sie sind einem ständig differierenden Wärmezustrom ausgesetzt). Die Angabe eines mittleren Temperaturwertes zwischen diesen beiden Reservoirs ist also physikalisch sinnlos, sie entspricht keinem in der Realität feststellbaren Aspekt. Man kann es aber auch einfacher erläutern, angepaßt an die Möglichkeiten der Laien in der Politik und in den Medien.
Man betrachte zwei Menschen. Der eine habe eine Masse von 70 kg, der andere eine von 90 kg. Offensichtlich wiegen beide zusammen 160 kg. Eine Waage, auf die sich beide gleichzeitig stellen, würde das jedenfalls anzeigen. Und dieser Waage ist es nun gleich, ob sich diese beiden, oder zwei andere Personen mit jeweils einem Gewicht von 80 kg auf ihr tummeln. Es ist also sinnvoll, in diesem Beispiel von einer mittleren Masse von 80 kg zu sprechen. Nun habe der eine mit einer Körpertemperatur von 34° eine Unterkühlung. Der andere wiederum habe Fieber mit 40°. Haben beide zusammen eine Temperatur von 74°? Und welches Meßgerät könnte diesen Wert wiedergeben, welchen Effekt hätte dieser Wert also in der Realität? Wäre es zweitens nützlich, den Durchschnitt zu bilden? Sind ein Mensch mit einer Unterkühlung und einer mit Fieber äquivalent zu zwei anderen Menschen, die jeweils eine Körpertemperatur von 37° aufweisen und keiner Behandlung bedürfen?
Zwei Orte auf diesem Planeten mit Temperaturen von 10° und 20° entsprechen eben in ihrer Addition nicht einem Ort, an dem es kuschelige 30° hat. Und man kann sie auch nicht mit zwei anderen Orten mit jeweils 15° gleichsetzen. Aber genau dieser Unfug geschieht, wenn Klimaforscher Kurven der globalen Mittelwerte absoluter Temperaturen oder Temperaturanomalien berechnen. Natürlich, das mathematische Schema zur Berechnung eines Mittelwertes existiert. Ob seine Anwendung aber auch ein sinnvolles Resultat liefert, entscheidet die Physik, und nicht die Mathematik.
Und die Physik spricht hier ein klares Urteil: Die Temperatur ist eine innere Zustandsvariable eines Systems und sie darf nicht räumlich über mehrere getrennte Systeme hinweg gemittelt werden, die miteinander nicht im thermischen Gleichgewicht stehen. Es existiert daher weder ein globaler Mittelwert der Temperatur in bodennahen Schichten, noch ein solcher der Temperaturanomalie. Daß man ihn berechnen kann, ändert nichts an seiner Irrelevanz.
Es gibt kein qualitätsgesichertes und valides Meßverfahren
Aber seien wir gnädig und nehmen an, „globale Mittelwerte“ könnten zumindest ein valider Index für reale Vorgänge sein. Sie könnten es sein, gäbe es denn ein qualitätsgesichertes und standardisiertes Verfahren für die zugrundeliegenden Meßwerte. Und genau dieses existiert nicht. Vielmehr verfügt man über ein ungleich über die Landoberfläche verteiltes Sammelsurium von Thermometern unterschiedlichster Bauart. Die noch dazu von irgendwelchen Personen irgendwann und irgendwie abgelesen werden, ganz nach persönlicher Befindlichkeit. Gut, auf dem Land sind diese „Ableser“ in der Regel Meteorologen, von denen man Gewissenhaftigkeit und Seriosität bei der Erledigung ihrer Arbeit erwarten kann. Aber gemeinhin wurden ein Ortswechsel der Station selbst (und sei es nur um wenige hundert Meter wegen eines Bauvorhabens), eine Änderung der Instrumentierung, eine Änderung der Bodenbeschaffenheit und der Umfeldbebauung nicht ausreichend (wenn überhaupt) dokumentiert. Und die Bestimmung von Temperaturen auf den Meeren, die immerhin 2/3 der Erdoberfläche ausmachen, oblag und obliegt immer noch in großen Teilen meteorologischen Laien auf allerlei Schiffen und Booten, die mehr oder weniger zufallsgesteuert herumfahren und dabei kaum die gesamte Fläche der Ozeane gleichmäßig in Raum und Zeit erfassen. Natürlich, heute kann man Bojen verwenden, Satelliten und gar eine Roboterflotte, die im Meer treibt. Aber entscheidend zur Interpretation der Messungen sind nicht aktuelle Wert der vergangenen Jahre. Sondern die lange Zeitreihe der vergangenen 100-150 Jahre. Denn nur diese gestattet die Ableitung statistisch signifikanter Trends. Und die Ungenauigkeiten, denen man sich in der Vergangenheit schuldig gemacht hat, sind rückwirkend nicht mehr korrigierbar.
Obwohl genau dies versucht wird. All die vielen schönen Kurven stellen ja nicht wirklich gemessene Werte dar. Sondern Temperaturen, von denen die Forscher glauben, daß sie mit einem perfekten Netzwerk perfekter Stationen bei ordnungsgemäßer Ablesung gemessen worden wären. Die realen Werte gehen dazu in ein Computermodell ein, mit dem die verschiedenen Korrekturen angebracht werden. Nun wissen wir spätestens seit den Arbeiten von Anthony Watts, wie gering die Qualität der Messungen tatsächlich ist. Und wir wissen spätestens seit Climategate, wie wenig Sorgfalt auf die Rechenmodelle verwendet wurde. Nicht nur die Vernichtung von Rohdaten, auch die schlechte Programmierung und Dokumentierung der Analysesoftware, von der heute keiner mehr weiß, was sie eigentlich genau treibt, sind bemerkenswert.
Wir leben in einer Zeit, in der in industriellen Maßstäben Qualitätssicherung auf einem hohen Standard etabliert wurde. Es gibt ein strukturiertes Umfeld von Zertifizierung, Validierung und Normung, in der jedes Produkt eine Vielzahl exakt dokumentierter und von Prüfbehörden ständig überwachter Tests und Messungen über sich ergehen lassen muß. Und in dieser Zeit glauben Politiker weitreichende Entscheidungen auf der Basis von Werten treffen zu können, die keinen solchen Standards unterliegen? Die in keiner Weise qualitätsgesichert und von unabhängigen Dritten überprüfbar sind?
Es gibt keine wissenschaftliche Grundlage
Wie ist eigentlich dieses strategische Ziel der Klimapolitik unter diesen Voraussetzungen zustande gekommen? Spätestens seit den offenen Worten Herrn Schellnhubers im Spiegel weiß man es ganz genau. Die “zwei Grad” beruhen nicht auf wissenschaftlichen Arbeiten, die bei einer Überschreitung dieser Grenze Katastrophen vorhersagen. Faktisch ist heute unklar, was die globale Erwärmung mit sich bringt. Denn auch die extremsten Wetterereignisse sind letztendlich Vorgänge auf lokaler Ebene und diese entziehen sich bislang den Möglichkeiten der Klimamodellierer und der Rechenkraft ihrer Supercomputer. Wenn aber Mikroklimata auf regionalen und lokalen Skalen nicht simuliert werden können, dann gibt es keine Rechtfertigung, von erheblichen, durch menschliches Verhalten minimierbaren Risiken auszugehen.
Nein, Schellnhuber und seine Kollegen haben es sich ausgedacht. Weil die Politik eine griffige Formel haben wollte, eine einfach kommunizierbare Zahl. Und so haben sich die Wissenschaftler einer simplen Schätzung bedient. Zu Zeiten der menschlichen Zivilisation, so ihre auf ebenfalls nicht qualitätsgesicherten Erkenntnissen basierende Annahme, habe sich die „mittlere globale Temperatur“ nie um mehr als 2 Grad nach oben bewegt. Allein diese verdrehte Logik schon ist es, die der Faustformel von den 2 Grad den Boden unter den Füßen wegzieht. Denn erstens hat sich die Menschheit aus einer Eiszeit erhoben und somit schon Temperaturdifferenzen weit größeren Ausmaßes überstanden. Und zweitens räumt Schellnhuber indirekt ein, auch durch natürliche Variabilitäten des Klimas könnte die gedachte Grenze erreicht werden. Und wer will heute behaupten, vom Menschen nicht beeinflußbare Klimaschwankungen könnten es nicht auch noch wärmer gestalten?
Zusammenfassend hat die deutsche Klimapolitik auf internationaler Ebene versucht eine strategische Vorgabe zu etablieren, die
- physikalisch aussagelos ist,
- nicht qualitätsgesichert ist und damit nicht valide überprüft werden kann,
- nicht auf wissenschaftlichen Erkenntnissen, sondern auf wilden Spekulationen beruht.
Und dieses „Zwei Grad Ziel“ ist ausgerechnet dem Land der Dichter und Denker entsprungen, mit einer Physikerin als Regierungschefin. Es wird wirklich Zeit, diese Peinlichkeit zu beenden.
Eine ausführlichere Darstellung dieser Thematik meinerseits finden Sie in Novo Argumente, Ausgabe 103, 11/12-2009. Der dortige Artikel (“Diagnose Klimafieber”) wurde noch vor Climategate geschrieben und durch dieses nachträglich mehr als bestätigt.
Autor: Peter Heller, Science Sceptical, zuerst erschienen ebendort
ÄHNLICHE BEITRÄGE (BETA):
Das wissenschaftliche Ende der Klimakatastrophe – Fortsetzung
Insbesondere die ursprüngliche Arbeit von Lindzen et al., die inzwischen im Internet verfügbar ist und daher hier als pdf-File beigefügt werden darf, war unmittelbar nach ihrem Erscheinen heftiger Kritik ausgesetzt. So schrieb beispielsweise der dem IPCC nahe stehende Klimaforscher Kevin Trenberth in http://www.realclimate.org/index.php/archives/2010/01/lindzen-and-choi-unraveled/:
– die Arbeit sei nicht robust,
– sie missinterpretiere die Luft-Wasser Interaktionen in den Tropen,
– robustere Methoden zeigten keine Diskrepanzen zwischen IPCC-Modellen und Messungen,
– die Arbeit hätte Messungen mit Modellen verglichen, die unvollständige „Forcings“ aufwiesen und
– die Arbeit würde die Klimasensitivität falsch berechnen.
Lindzen/Choi sahen sich mit dem offenen Eingeständnis, dass diese Kritik tatsächlich zu großen Teilen berechtigt ist, veranlasst, auf die Einwände von Trenberth im Detail einzugehen und eine Erwiderung/Ergänzung zu veröffentlichen, in der lückenlos auf alle Kritikpunkte eingegangen wird. Angesichts dieser Ergänzung darf indes ein in den inzwischen zahlreichen „Für-und-Wider-Blogs“ völlig übersehener Umstand nicht unerwähnt bleiben: die Arbeit von Paltridge, die leider nur als Abstract im Internet zugänglich ist, der hier als pdf-File angefügt ist und die auf Ballonmessungen der atmosphärischen Feuchte basiert, wurde bisher nicht kritisiert. Sie wies ebenso wie auch die Arbeit von Lindzen/Choi, aber auf einem anderen Wege, nach, dass Gegenkoppelungen überwiegen, konnte aber hierzu keine quantitativen Angaben machen. Aus diesem Grunde ist zumindest einmal zutreffend zu konstatieren:
Von einer gefährlichen Rückkoppelung, die die Klimasensitivität über die o.g. 1 Grad hinaustreibt, kann definitiv keine Rede mehr sein. Und da CO2-Verdoppelung grob mit dem Verbrennen aller fossilen Brennstoffressourcen der Erde gleichgesetzt werden kann, ist das Thema einer „globalen Klimakatastrophe infolge ansteigender anthropogener CO2-Emissionen“ wissenschaftlich jetzt wohl endgültig erledigt. Die Politik und industrielle Interessengruppen an einer gefährlichen globalen Erwärmung infolge anthropogener CO2-Emissionen werden sicher noch etwas länger brauchen, bis sie von dieser Wahrheit eingeholt werden.
Die Erwiderung/Korrektur von Lindzen und Choi liegt als pdf-File bei. Es erscheint wenig sinnvoll, auf die z.Teil sehr technischen Ausführungen hier in allen Einzelheiten näher einzugehen, der einschlägig klimawissenschaftlich gebildete Leser möge sich an die Originalarbeit halten. Nur das Wichtigste in Zusammenfassung:
– die zu starke Glättung der 36-Tage Präzession des ERBE Satelliten wurde durch eine bessere Auflösung ersetzt.
– zu den Daten des ERBE Satelliten wurden nunmehr auch Daten des CERES Satelliten von 1985-1999 ergänzend hinzugezogen.
– Rauschen der ausgehenden Strahlung sowie Strahlungsänderungen, die Oberflächen-Temperaturänderungen der Ozeane bewirken, wurden sorgfältig von den Strahlungsänderungen unterschieden, die durch Rückkoppelungseffekt infolge Änderungen der Oberflächen-Temperaturänderungen der Ozeane bewirkt werden.
– Eine genauere Näherung für die Strahlungsbilanz ohne Rückkoppelungen wurde aufgestellt.
– An der zulässigen Extrapolation der Ergebnisse von den Tropen auf gemäßigte Breiten wurde nicht abgegangen, da sie gemäß einer früheren Veröffentlichung des Autors (Lindzen, R.S., M.-D. Chou, and A.Y. Hou (20019, Does the Earth have an adaptive infrared iris?, Bull. Amr. Met. Soc., 82, 417-432) abgesichert ist.
Und um das Wichtigste nicht zu vergessen: Das Ergebnis der Erwiderung/Ergänzung von Lindzen/Choi unterscheidet sich um nichts von dem der ursprünglichen Originalarbeit. Somit ist das wissenschaftliche Ende der anthropogenen Klimakatastrophe wiederholt und definitiv zu bestätigen. Wer jetzt noch von einem „Zwei Grad Ziel“ spricht, macht eine rein politische Aussage und nimmt dabei billigend die Unterschlagung wissenschaftlicher Erkenntnisse in Kauf.
Prof. Dr. Horst-Joachim Lüdecke, Physiker
EIKE-Pressesprecher
Dr. Rainer Link, Physiker
Related Files
Wind”park” Alpha Ventus: Ohne Wärmekraftwerke läuft nichts!
Autor Manfred Knake vom Wattenrat.
Ohne ein stabiles Stromnetz kann keine Windkraftanlage Strom ins Netz einspeisen. Dieser Wind“park“ kann also nicht eine einzige Glühbirne erhellen, wenn kein oder nur wenig Wind weht. Der Geschäftsführer der „Deutschen Offshore-Testfeld und Infrastruktur-GmbH & Co. KG“ (DOTI) brachte es auf den Punkt: «Für jedes Megawatt Windstrom muss auch ein Megawatt an Land als Ausgleich bereit stehen» (dpa/lni vom 27. April 2010).
Dieser bemerkenswerte Satz wurde in der Jubel-Berichterstattung vieler Medien einfach unterschlagen, Selbstzensur ist möglich. Und dieser „Ausgleich“ wird von Gas-, Kohle-, und Atomkraftwerken geleistet; Wind- und Atomenergie sind also „heimliche Schwestern im Netz“, die Windkraft keine Alternativ- sondern eine sehr teure Additivenergie, für den imaginären „Klimaschutz“ also völlig untauglich.
Für die Finanzierung hat man die haushaltsneutrale Subventionierung aus der Zwangsabgabe für alle Stromkunden mit dem „Erneuerbaren Energiengesetz“ erfunden, eine Lizenz zum Gelddrucken für Windkraftbetreiber. Der Offshore Boom begann erst richtig im Jahre 2008, als sich die Windlobby durch den Bundestag die Einspeisevergütung von 9ct auf 15ct/kWh erhöhen ließ, nun erst rechnete sich das Geschäft (siehe auch “Investitionsruinen auf See”). Einer der Lobbyisten der innigen Verflechtungen von Politik und Wirtschaft ist Wolfgang von Geldern (CDU), Vorsitzender des Wirtschaftsverbandes Windkraftwerke. Von Geldern war von 1983 bis 1991 Parlamentarischer Staatssekretär beim Bundesminister für Ernährung, Landwirtschaft und Forsten in der Regierung Kohl. Von 1998 bis 2008 war er Vorstandsvorsitzender der Plambeck Neue Energien AG, ebenfalls ein Offshore-Betreiber.
„Umweltfreundlich” ist diese Art der Stromerzeugung auf See ohnehin nicht. Bei den Seekabelverlegearbeiten 2008 entstanden erhebliche Schäden in einer Schutzzone des Nationalparks Niedersächsisches Wattenmeerzwischen der Insel Norderney und dem Festland.
Für ziehende Seevögel sind Offshore-Windparks gerade bei unsichtigem Wetter Todesfallen; diese künstlichen Riffe am stark befahrenen Verkehrstrennungsgebiet der südlichen Nordsee können auch zu Havarien mit Schiffen und dann zu großflächigen Öleinträgen in die Nordsee und das Wattenmeer führen.
DOTI: Für die Realisierung des ersten deutschen Offshore-Windparks Alpha Ventus wurde 2006 die „Deutsche Offshore-Testfeld und Infrastruktur-GmbH & Co. KG“ (DOTI) gegründet. Die EWE AG ist mit 47,5 Prozent Führungsgesellschaft und realisiert das Projekt mit weiteren Partnern aus der Energiebranche. Unter der Bezeichnung „Borkum West“ hat DOTI die Genehmigungsrechte an dem Testfeld von der Stiftung der Deutschen Wirtschaft für die Nutzung und Erforschung der Windenergie auf See (Stiftung Offshore-Windenergie) gepachtet. Unternehmenssitz der DOTI GmbH ist Oldenburg.
Wir zitieren:
dpa/lni vom 27. April 2010
[…]Auch Minister Röttgen und die Chefs der drei beteiligten Energiekonzerne sind optimistisch: «Bis zum Jahr 2050 klimaneutraleStromerzeugung, also praktisch CO2-frei», gibt Röttgen das Ziel der Bundesregierung vor. Allein bis 2030 sollen bereits mehrere 1000 Anlagen mit einer Leistung von 25 000 Megawatt installiert sein. Die Hürden bis dahin sind noch hoch: Umweltfragen beim Bau sind noch ungelöst, und bei Flaute fließt kein Strom durch die Seekabel an Land. «Für jedes Megawatt Windstrom muss auch ein Megawatt an Land als Ausgleich bereit stehen», sagt Lamsbach. […]
stern.de vom 27. April 2010
Kritik von Umweltschützern
[…] Kritik gab es anfangs nach Schäden im Watt bei der Verlegung des tonnenschweren Seekabels. Es endet auf einem auf Stelzen gebauten Umspannwerk im Windpark, wo auch ein Hubschrauber landen kann.
Naturschützer wie der regionale Wattenrat in Ostfriesland sehen zudem Gefahren für Schweinswale und Zugvögel. Ein Untersuchungsbericht von der benachbarten Forschungsplattform Fino 1 zeigt eine hohe Gefährdung beim Vogelzug in der Nacht. Ornithologen hatten bereits während des Baus zum Schutz der Tiere und der Anlagen ein Frühwarnsystem in Kombination mit einem Beleuchtungs- und Abschaltkonzept vorgeschlagen. Denn bei schlechtem Wetter fliegen die Vögel niedrig und werden mangels anderer Rastplätze auf See durch beleuchtete Objekte angezogen. Die Beleuchtung wiederum ist aus Gründen der Schiffs- und Flugsicherheit vorgeschrieben.
Skeptiker befürchten aber auch Gefahren für die Schifffahrt, wenn sich weitere Windparks in der dicht befahrenen Deutschen Bucht drängeln.[…]
Handelsblatt, online, 28. April 2010
Offshore-Windpark: Brüssel prüft Zuschuss für Alpha Ventus
Der gerade eröffnete Offshore-Windpark Alpha Ventus könnte zum Zankapfel zwischen Bundesregierung und EU-Kommission werden. Brüssel blockiert einen Zuschuss in Höhe von 30 Millionen Euro für das Projekt.
NORDDEICH. Blauer Himmel, dazu eine leichte, aber stetige Brise: Die Bedingungen für die Eröffnung des ersten deutschen Offshore-Windparks schienen am Dienstag ideal. Doch aus Sicht des Unternehmenskonsortiums, das den Windpark Alpha Ventus 45 Kilometer nördlich von Borkum hochgezogen hat, ziehen dunkle Wolken auf: Die EU-Kommission blockiert einen Zuschuss für das Projekt. […]
Ähnliche Beiträge:
Als Ergänzung eine überschlägige Kosten/Nutzen Rechnung von Michael Krüger Science Sceptical hier zu lesen