Saturnmond TITAN enthält mehr Kohlenwasserstoffe auf der Oberfläche als die Erde Öl-Reserven hat!

Mit seinen milden minus 179 Grad Celsius ist TITAN ganz anders als die Erde. Anstelle von Wasser befinden sich flüssige Kohlenwasserstoffe in Form von Methan und Ethan auf der Oberfläche des Mondes und THOLINE bilden vermutlich die Dünen.

Die Bezeichnung THOLIN wurde 1979 von Carl Sagan zur Bezeichnung der komplexen organischen Moleküle geprägt, die den Kern der präbiotischen Chemie bilden. CASSINI hat etwa 20 Prozent der TITAN-Oberfläche mit Radar erfasst. Hunderte von Seen und Ozeanen wurden beobachtet, von denen mehrere Dutzend mehr flüssigen Kohlenwasserstoff enthalten als alle irdischen Öl- und Gas-Reserven.

Die dunklen Dünen entlang des Äquators enthalten eine viel hundertmal größere Menge von organischem Material als alle Kohlereserven der Erde. Die nachgewiesenen Erdgas-Reserven der Erde betragen 130 Mrd. Tonnen. Das entspricht der 300fachen Energiemenge, die in den USA jährlich für Heizung, Kühlung und Beleuchtung der Wohnungen verbraucht wird. Unter Dutzenden von TITAN-Seen enthält jeder einzelne diese Energiereserven in Form von Methan und Ethan.

Dieser Film, der aus einzelnen Radarbildern CASSINI zusammengesetzt ist, zeigt Mengen von Flüssigkeit in der Gegend des Norpols. Video mit voller Abdeckung. „Diese grobe Abschätzung beruht auf den Bildern der Seen in der Norpol-Region. Wir nehmen an, dass der Südpol ähnlich ist, aber wir wissen noch nicht, wieviel Flüssigkeit dort ist,“ sagte Lorenz.

Das CASSINI-Radar hat die Südpolregion erst einmal beobachtet und da waren nur zwei kleine Seen zu sehen. Weitere Beobachtungen sind für die vorgeschlagene erweiterte CASSINI-Mission geplant. Die Tiefe der TITAN-Seen wurde aufgrund von Annahmen geschätzt, die auf irdischen Seen beruhen. Man nahm die durchschnittliche Fläche und Tiefe von Seen auf der Erde unter Berücksichtigung der angrenzenden Umgebung, wie auch der Berge. Auf der Erde ist die See-Tiefe meist 10 mal geringer als die Höhe der umliegenden Berge. „Wir wissen auch, dass einige Seen mehr als 10 Meter tief sind, weil sie rabenschwarz auf dem Radar aussehen. Wenn sie flach wären, würden wir den Grund sehen, was nicht der Fall ist,“ sagte Lorenz. Die Frage zur Menge der Flüssigkeit auf der Mond-Oberfläche ist wichtig, weil Methan ein starkes Treibhausgas auf TITAN ist, wie auch auf der Erde. Aber auf TITAN ist viel mehr davon. Wenn alle beobachtete Flüssigkeit auf TITAN Methan ist, würde sich das nur ein paar Millionen Jahre halten, weil es sich in der TITAN-Atmosphäre verflüchtigt und in den Weltraum verschwindet. Falls das Methan ausginge, würde TITAN viel kälter.

Die Wissenschaftler nehmen an, dass Methan vom Inneren durch kryo-vulkanische Eruptionen in die Atmosphäre geblasen wird. Falls das zutrifft, hätten der Methan-Anteil und die Temperatur dramatisch während TITANs Vergangenheit geschwankt. „Unser Leben beruht auf Kohlenstoff,“ fügte Lorenz hinzu, „und zu wissen, wie weit die chemische Komplexitätskette zum Leben in einer Umgebung wie auf TITAN gehen kann, ist wichtig für unser Verständnis von der Entstehung des Lebens im Universum.“ 

Der nächste Radar-Überflug auf TITAN ist am 22. Februar. Dann wird das Radar den Landeplatz des Huygens-Raumfahrzeugs inspizieren. 

Wer mehr sehen und erfahren will, sei auf http://www.nasa.gov/cassini und  http://saturn.jpl.nasa.gov verwiesen.

Den Originalartikel finden Sie hier 

Die CASSINI-Huygens Mission ist ein Gemeinschaftprojekt der NASA, der ESA und der Italienischen Raumfahrtbehörde. JPL, eine Abteilung des California Institute of Technology in Pasadena steuert die Cassini-Huygens Mission im Auftrag des NASA Science Mission Directorate, Washington. Das Cassini Raumfahrzeug ist bei JPL entworfen, entwickelt und gebaut worden. Das Radargerät wurde von JPL und der Italienischen Raumfahrtbehörde in Zusammenarbeit mit den USA und anderen Europäischen Ländern gebaut. 

Carolina Martinez 818-354-9382 Jet Propulsion Laboratory, Pasadena, Calif. carolina.martinez@jpl.nasa.gov 2008-025

Mit Dank an Spürnase Ferner!

Man sehe auch hier: Scinexx Wissensmagazin (mit Dank an Spürnase Olaf Köhler)

Erdöl und -gas aus dem Erdmantel?
Experiment belegt Entstehung von Ethan, Propan und Butan auch ohne organische Relikte



„Erneuerbare“ werden in UK zu einer Erhöhung von Strom-Rechnungen um £880 führen

Mal ins Blaue gesagt: Es gibt nicht die geringste Chance, irgendeines der von der Regierung verkündeten Ziele zu erreichen, Energie aus Erneuerbaren zu erzeugen!

Gibt es irgendein Thema, bei dem von der Regierung mehr Unsinn erzählt wird und mehr abstruse Vorschläge verbreitet werden, wie unsere von der EU vorgegebenen Ziele der Energieerzeugung zu erreichen sind, als da wäre, die Energiegewinnung auf 30% aus Erneuerbaren innerhalb von 10 Jahren umzustellen? (Dies würde etwa die sechsfache Menge der gegenwärtigen Kosten verursachen, was bedeutet, dass wir die größte Herausforderung im Vergleich zu anderen europäischen Staaten haben).

Beispielsweise hat der Industrieregulator Ofgem [?] kürzlich verkündet, dass wir bis zum Jahre 2020 £40 Milliarden ausgeben müssen, um unsere erneuerbaren Energiequellen in das nationale Netz zu integrieren – £4 Milliarden pro Jahr. Alistair Buchanan, der Vorsitzende von Ofgem, behauptete in der Sendung BBC Today und auch anderswo vergnügt, dass dies lediglich zu einer Erhöhung des Strompreises um £6 für die 25 Millionen Haushalte in Großbritannien führen würde. Jedoch zeigen zehn Sekunden mit einem Taschenrechner, dass sich die zusätzlichen Kosten dieser £4 Milliarden pro Jahr aufgeteilt auf jeden Haushalt auf £160 belaufen dürften.

Als ob das noch nicht genug wäre, will die Regierung bis 2020 Windfarmen im Meer mit einer Kapazität von 33 Gigawatt (1 Gigawatt = 1000 Megawatt) errichten. Legt man die gegenwärtigen Kosten von £3 Millionen pro Megawatt an Kapazität zugrunde, würde das weitere £100 Milliarden kosten (£10 Milliarden pro Jahr, oder £400 für jeden Haushalt). Dies müsste mit unseren Stromrechnungen bezahlt werden. Und dennoch, selbst wenn man diese Windfarmen alle errichten könnte, würden sie trotzdem im Mittel nur etwa ein Viertel dieses Stromes erzeugen.

Hinzu kommen laut Vorhersage der Regierung £8 Milliarden pro Jahr (oder £320 pro Haushalt) für den albernen, freigiebigen Einspeisungstarif für Solarenergie sowie, nur für dieses eine Ziel, unsere totale jährliche Zahlung für den Traum, die Vorgaben der EU zu erreichen, in Höhe von mindestens £22 Milliarden. Das ist erheblich mehr als die gesamten Kosten der Energieerzeugung im vergangenen Jahr, die sich auf £18,6 Milliarden beliefen.

Mit anderen Worten, diese Maßnahmen allein würden unsere Stromrechnung mehr als verdoppeln, und zwar für die Erzeugung von etwa so viel – und sehr unzuverlässiger – Energie wie von einer Handvoll herkömmlicher Kraftwerke.

In der Realität gibt es nicht die geringste Chance, dass die Regierung irgendeines dieser Ziele erreichen wird. Aber die massive Umverteilung der Energiequellen, die umzusetzen die Regierung alles tut, wird nicht helfen, die drohende Lücke der Stromversorgung zu füllen, wenn 17 der älteren Kohle- und Kernkraftwerke geschlossen werden müssen. Dann gibt es nahezu nichts in diesen Plänen, um sicherzustellen, dass die Lichter in Britannien nicht ausgehen.

 Christopher Booker

Veröffentlicht: 16. Oktober 2010 in [der britischen Zeitung Telegraph]

Übersetzt von Chris Frey für EIKE

Link: Den Originalartikel finden Sie hier




Solare Konfusion: Die Klima-Lügner tappen in ihre eigene Falle

Nach der lange anhaltenden Hitzewelle in diesem Sommer bereiten sich die Russen auf einen außerordentlich kalten Winter vor. Beide auf den ersten Blick widersprechende Entwicklungen scheinen eine gemeinsame Ursache zu haben: Eine Blockade der in West- und Osteuropa normalerweise vorherrschenden Westströmung. So blockierte das im September über Skandinavien nach Osteuropa gelangte Kältehoch „Marcel“ mehrere Wochen lang mächtige, vom Atlantik heranziehende Tiefdruckgebiete, die es gerade noch schafften, Westeuropa mit ihren schwachen Ausläufern zu streifen. Inzwischen ist „Marcel“ durch neue Kaltluftmassen aus dem Norden abgelöst worden. Hält diese Blockade an (was zurzeit mit Gewissheit niemand voraussagen kann), dann müssen wir uns auf einen sehr kalten Winter gefasst machen. In der Tat wurden sowohl in Russland als auch in Großbritannien bereits entsprechende Warnungen ausgesprochen. Im Sommer führte eine vergleichbare Blockade der West-Ost-Strömung in Russland zu einer wochenlang andauernden Hitzewelle und in deren Gefolge zu riesigen Waldbränden.  

Jedes Schulkind kann verstehen, warum die gleiche Blockadesituation zu so unterschiedlichen Lufttemperaturen führen kann: Setzt sich ein Hoch im Sommer fest, dann sorgt die lange hoch am Himmel stehende Sonne für eine rasche und anhaltende Aufheizung der ursprünglich kühlen Polarluftmasse. Gleichzeitig bleibt deren nächtliche Abkühlung gering. Im Winter ist es umgekehrt: In den langen Nächten wird bei klarer Luft viel Wärme in den Weltraum abgestrahlt und die kurze Sonnenscheindauer am Tage setzt der Wiedererwärmung der Luft enge Grenzen. Macht also die bodennahe Temperatur das Wetter oder ist sie nicht vielmehr das Resultat bestimmter Verhältnisse von Wind- und Sonneneinstrahlung? Die Antwort liegt nach dem oben gesagten auf der Hand. Dennoch haben es so genannte Klimaforscher in Zusammenarbeit mit gedankenlos abschreibenden Journalisten-Kollegen in Massenmedien geschafft, die Verhältnisse buchstäblich auf den Kopf zu stellen: Sie gehen in ihren „Klimamodellen“ unausgesprochen davon aus, dass die Temperatur das Wetter macht. Zu dieser sonderbaren Annahme gelangen sie, weil sie den Gegenstand ihrer Forschung, das „Weltklima“, gar nicht definieren können. Zur Erinnerung: Der Begriff „Klima“ bezeichnet die durchschnittliche Wetterneigung einer bestimmten Region im Unterschied zu einer anderen. So zeichnet sich das in Deutschland vorherrschende gemäßigt ozeanische Klima dadurch aus, dass hier die jährlichen Temperatur- und Niederschlagsmaxima zeitlich zusammenfallen. Im südlich angrenzenden mediterranen Klima ist es genau umgekehrt. Dort sind trocken-heiße Sommer und feucht-kühle Winter die Regel. Für die jeweils dort lebenden Pflanzen und Tiere ist dieser Unterschied von entscheidender Bedeutung. So lassen sich alle Klimazonen der Erde durch einen charakteristischen Jahresgang von Lufttemperatur und Niederschlagsmenge definieren. Ein „Weltklima“ lässt sich nicht definieren.

Das wissen auch jene vom Staat ausgehaltenen Eierköpfe, die „Klimaforschung“ nahezu ausschließlich am Computer betreiben. Statt von einem „Weltklima“ reden sie deshalb meistens von der globalen Durchschnittstemperatur. Doch diese gibt es ebenso wenig wie ein „Weltklima“. Das statistische Konstrukt muss aus Tausenden von Einzelmessungen errechnet werden. Dabei gelten Satellitenmessungen als zuverlässiger als die Messungen von Bodenstationen, die oft auf städtischen Wärmeinseln stehen. Die „Klimamodelle“ des „Weltklimarates“ IPCC gehen jedenfalls davon aus, dass die errechnete Durchschnittstemperatur der unteren Luftschicht in erster Linie abhängig sei von der Höhe des Ausstoßes von CO2 und anderer so genannter Treibhausgase durch Fabrikschlote, Hauskamine und Kfz-Auspüffe. Doch diese Annahme widersprach dem Augenschein: Die vom IPCC veröffentlichte Kurve des Temperaturanstiegs in den letzten 100 oder 150 Jahren zeigt wenig Ähnlichkeit mit der Kurve des Anstiegs der CO2-Konzentration in der Atmosphäre. Dagegen muss ihre Übereinstimmung mit dem Auf und Ab bekannter Sonnenzyklen jedem ins Auge springen, der nicht blind ist. Obendrein war schon lange bekannt, dass die so genannte Kleine Eiszeit des 17. und 18. Jahrhunderts mit einem Minimum der Sonnenaktivität (gemessen an der damals mithilfe des Fernrohres schon feststellbaren Zahl der Sonnenflecken) einherging. Es war also schwierig, den engen Zusammenhang zwischen Sonnenaktivität und Erdtemperatur anzuzweifeln. Der IPCC musste zu einer ganzen Reihe von Hilfsannahmen wie dem möglichen Einfluss von Ruß und Vulkanasche greifen, um den historischen Temperaturverlauf erklären zu können.

Umso mehr erleichtert werden seine Mitglieder und Helfershelfer nun gewesen sein, als „nature“ nun die Ergebnisse von Strahlungsmessungen eines von Joanna Haigh geleiteten Teams am Londoner Imperial College veröffentlichte. Diese beziehen sich auf die kurze Periode zwischen 2004 und 2007, in der die Sonnenaktivtät abnahm. In dieser Zeit habe die UV-Strahlung der Sonne viel stärker abgenommen als angenommen. Die sichtbare Strahlung und die Wärmestrahlung (IR-Strahlung) habe jedoch entgegen der Erwartung zugenommen. Also könne die Abschwächung der Sonnenaktivität nicht die Ursache irdischer Abkühlungsphasen sein, schlussfolgerte Haigh und mit ihr die ganze Gemeinde der Warner vor einer globalen Überhitzung der Erde. Der britische „Daily Telepraph“ schrieb daraufhin zum Beispiel: „A stronger Sun actually cools the Earth“. In Deutschland titelte SPIEGEL-Online: „Sonne wärmt stärker während Schwächephase“. Und der britische „Daily Mail“ erklärte einen Tag später, die Messergebnisse des Teams um Haigh habe die Theorie der globalen Erwärmung ins Chaos gestürzt.

Dabei hatte Haigh verschwiegen, dass schon längst bekannt war, dass die UV-Strahlung im Laufe eines Sonnenzyklus viel stärker schwankt als die totale Sonnenhelligkeit. Der bekannte britische Wissenschaftspublizist David Whitehouse verweist darauf, dass die US-Forscherin Judith Lean schon im Jahre 2000 Messwerte publiziert hatte, die zeigen, dass die UV-Strahlung der Sonne zehnmal stärker schwankt als die sichtbare Strahlung. In Deutschland hat der heute im (Un-)ruhestand lebende Physiker Dr. Horst Borchert seit den 80er Jahren des letzten Jahrhunderts im Auftrag des Bundeslandes Rheinland-Pfalz mithilfe eines aufwändigen Messnetzes die UV-Strahlung, den damit zusammenhängenden Ozon-Gehalt der Luft, den Sonnenmagnetismus und die von ihm beeinflusste irdische Höhenstrahlung aufgezeichnet. Er fand, dass der mit der Sonnenaktivität schwankende Partikelstrom (Sonnenwind) auf der Nordhalbkugel der Erde die Wolkenbildung und die Nordatlantische Oszillation (NAO) zwischen dem so genannten Island-Tief und dem Azoren-Hoch beeinflusst (Korrelation bis zu 0,8). Bei einer Abschwächung der Sonnenaktivität, wie sie seit Dezember 2006 zu beobachten ist, geht die NAO in einen Modus über, der so genannte meridionale Luftströmungen anstelle der sonst vorherrschenden Westströmung begünstigt und es kommt öfters zu Blockadesituationen, wie wir sie zurzeit erleben.

Es ist also klar, dass Schwankungen der Sonnenaktivität nicht direkt auf die irdische Lufttemperatur wirken, sondern Muster der Luftzirkulation beeinflussen. Das kann dazu führen, dass sich eine Region aufheizt oder abkühlt, während in einer benachbarten Region das Gegenteil zu beobachten ist. Bekanntlich ging die Hitzewelle in Russland mit einem außerordentlich kühlen Augustwetter in Westeuropa einher. Ob es dabei unterm Strich global wärmer oder kälter wird, ist gar nicht so leicht feststellbar. Hätte Joannna Haigh nicht Klima und Temperatur gleichgesetzt, wäre ihr das auch aufgefallen. Aber das ist nicht das erste Mal, dass Weltverbesserer die Welt auf den Kopf stellen.

Internet:

A stronger Sun actually cools the Earth http://www.telegraph.co.uk/earth/environment/climatechange/8046586/A-stronger-Sun-actually-cools-the-Earth.html

Sonne wärmt stärker während Schwächephase http://www.spiegel.de/wissenschaft/natur/0,1518,721715,00.html

Die Original-Veröffentlichung in „nature“: http://www.nature.com/nature/journal/v467/n7316/full/nature09426.html

Global Warming Theory in Chaos http://www.dailymail.co.uk/sciencetech/article-1318425/Global-warming-theory-chaos-Increased-solar-activity-COOL-Earth.html#

David Whitehouse: Solar Speculation http://thegwpf.org/the-observatory/1662-solar-speculation.html

Vortrag Dr. Borchert http://www.fin.ucar.edu/UCARVSP/spaceweather/abstract_view.php?recid=1149

Edgar L. Gärtner EIKE

Hier der –  „Nature“ Artikel 

An influence of solar spectral variations on radiative forcing of climate




Ausgewogenere Berichterstattung der BBC?

Der BBC wurde wiederholt vorgeworfen, über Belange des Klimawandels verzerrt berichtet zu haben.

Im vorigen Jahr wurde einer ihrer Reporter, Paul Hudson, kritisiert, weil er nichts über die hoch kontroversen „Klimagate“ – e-mails berichtet hat, obwohl er einige davon für längere Zeit besessen hatte.

Skeptiker des Klimawandels haben der BBC auch vorgeworfen, nicht neutral über “Gletschergate” berichtet zu haben, als eine Studie die Aussage des IPCC, dass die Gletscher des Himalaya bis 2035 geschmolzen sein werden, als völlig haltlos entlarvt hat.

Aber die neuen Richtlinien der BBC, die gestern nach einer extensiven Beratung, die über 1600 Einwendungen aus der Öffentlichkeit berücksichtigt hatte, veröffentlicht wurden, legen erstmals explizit fest, dass die Berichterstattung über wissenschaftliche Themen der Verpflichtung zur Unparteilichkeit der BBC unterliegt.

 „Die BBC muss umfassend berichten, alle äußeren Perspektiven berücksichtigen und sicherstellen, dass auch die Vielfalt anderer Meinungen angemessen dargestellt wird”, sagt der BBC-Treuhänder Alison Hastings.

„Zusätzlich erweitert die neue Richtlinie die Definition von ‚kontrovers’ auch auf Bereiche jenseits öffentlicher politischer bzw. industrieller Kontroversen einschließlich von Kontroversen in den Bereichen Religion, Wissenschaft, Finanzen, Ethik und anderes“.

Jedoch erklärte gestern James Delingpole, ein prominenter Skeptiker des Klimawandels, dass er nur wenig Bewegung der BBC bei der Berichterstattung über Umweltthemen erwartet.

„Es ist sehr unwahrscheinlich, dass ihre Berichterstattung ausgewogener wird”, sagte er.

„Es hat bei der BBC Kultstatus – dass Leute, die nicht gläubig sind, die ‚Erde als Scheibe’ sehen. Wann immer sie Dissidenten wie mich zu Diskussionen einladen, umgeben sie uns mit ‚Alarmisten’. In der Sendung Any Questions [etwa: irgendwelche Fragen] zum Beispiel tat Jonathan Dimbleby sein Bestes, unparteiisch zu sein, aber es ist ein Mann mit einer Windturbine in seinem Garten“.

Im Jahre 2007 hieß es in einer Reportage der BBC unter dem Titel Sicherstellung der Objektivität im 21. Jahrhundert [Safeguarding Impartiality in the 21st Century]: „Der Klimawandel ist ein anderes Thema, bei dem Abweichler unpopulär sein können… Die BBC hat ein hochrangiges Seminar mit einigen der besten wissenschaftlichen Experten veranstaltet. Dabei kam sie zu der Schlussfolgerung, dass es angesichts des Gewichtes der Beweise nicht länger gerechtfertigt ist, Gegnern des Konsens’ genauso breiten Raum einzuräumen. Aber diese Abweichler (oder sogar Skeptiker) werden immer noch zu hören sein, was sie auch sollten, denn es ist nicht die Aufgabe der BBC, diese Diskussion zu schließen“.

Die Anstalt BBC führt gegenwärtig auch eine Untersuchung über die Objektivität der Berichterstattung über wissenschaftliche Themen durch, die von Professor Steve Jones vom University College London geleitet wird. Die Ergebnisse dieser Untersuchung werden im nächsten Frühjahr veröffentlicht.

Professor Jones wurde insbesondere gebeten zu überprüfen, ob die BBC „angemessen über wissenschaftliche Schlussfolgerungen berichtet einschließlich anderslautender Theorien und auch die Ansichten derjenigen erwähnt, die skeptisch hinsichtlich der Wissenschaft sind und wie sie durchgeführt oder bewertet wird“.

Eine weitere neue Richtlinie religiöse Themen betreffend besagt, dass „alles, was sich mit religiösen Angelegenheiten befasst und was Menschen mit anderen religiösen Ansichten und Überzeugungen vermutlich beleidigen würde, redaktionell vor allgemein akzeptierten Standards gerechtfertigt sein muss“.

Jedoch wandte der Präsident der National Secular Society [nationale weltliche Gesellschaft (?)]Terry Sanderson ein: „Dies ist ein total nach hinten gerichteter Schritt, der ernste Restriktionen für Komiker, Dokumentatoren, Satiriker und Kommentatoren nach sich ziehen dürfte, die sich kritisch mit der Religion auseinandersetzen. Fast alles, was nicht ehrfürchtig von religiösen Dingen berichtet wird, kann von einigen Gläubigen als anstößig empfunden werden“. 

Von Neil Midgley

Veröffentlicht: 13. Oktober 2010




SRU (Sachverständigenrat für Umweltfragen) legt Gefälligkeitsgutachten zur 100% Versorgung mit „Erneuerbaren“ vor!

Das Ergebnis fiel entsprechend aus. Eine Durchsicht der Ergebnisse zeigt, dass wieder einmal die leider sehr in Mode gekommenen Methoden der falschen Annahmen, Rechnen mit unrealistischen Hoffnungstechniken, Kleinrechnen massiver Defizite der Erneuerbaren, Schönrechnen der Kosten und Unterschätzen der Widerstände – insbesondere seitens der Bürger – zu den gewünschten Ergebnissen führen kann. (Originalbeitrag der SRU hier)

Im Einzelnen:

Das Traumziel einer "komplett regenerativen Stromversorgung" sei erreichbar, "sofern die notwendigen Kapazitäten zur Speicherung und zum weiträumigen Ausgleich der Elektrizität geschaffen werden". So ist es und deshalb ist das Ziel illusionär, da prinzipiell unerreichbar. Sämtliche Physiker und Chemiker wissen, dass alle möglichen Speicherungsprinzipien für Strom lange bekannt sind und dass ebenfalls ihre physikalischen und ökonomischen Limitierungen Fakten sind, die auch durch politisch korrekte Prognosen nicht verändert werden können. Auch können die in vielen Jahrzehnten errungenen und jetzt möglichen  technischen Leistungen dieser Speicher nur noch in kleinen, teuren Schritten weiter getrieben werden, was jegliche großartigen  technologischen Durchbrüche ausschließt. Wir müssen mit den vorhandenen Systemen und Verfahren leben; neue sensationelle, in wenigen Jahrzehnten marktfähige Speichertechniken wird es nicht geben.

Die effizientesten Systeme, die Pumpspeicherwerke, sind bereits ausgelastet. Die an den Horizont projizierte Hoffnungstechnik – Pumpspeicherwerke in Norwegen, die über Seekabel an unser Netz angeschlossen werden – ist ebenfalls bald ausgebucht, wobei das erste geplante Seekabel gerade einmal 1,4 GW Übertragungsleistung haben soll – eine kaum ins Gewicht fallende Größe. Um die norwegischen Speicherkapazitäten werden übrigens sämtliche Nord- und Ostseeanrainer mit Windkraftanlagen konkurrieren. Die weiteren genannten Speichertechniken führen uns in die teure Welt der Science Fiction: Druckluftspeicher, die bisher als Prototypen Wirkungsgrade unter 50% haben – und mit den Erdgasspeichern um die Kavernenstandorte konkurrieren. Dann die Methanerzeugung mit Strom und dessen  Rückumwandlung in Strom – eine Energievernichtung großen Ausmaßes. Schließlich wird auch noch die Vision eines "größeren europäisch-nordafrikanischen Stromverbundes" angerufen,  das mit zahllosen Risiken behaftete Projekt DESERTEC, das selbst bei seiner äußerst unwahrscheinlichen Realisierung seinen überaus teuren Strom niemals nach Europa liefern würde.

Eine weitere, das gewünschte Ergebnis fördernde Annahme ist , daß "bei erneuerbaren Energien im Gegensatz zur konventionellen Stromerzeugung keine steigenden Preise für Brennstoffe zu berücksichtigen sind." Daß man nur von Brennstoffen spricht, ist ein Trick. Wie steht es denn mit den Gesamtkosten der Erneuerbaren ? Die weisen leider beträchtlich steigende Preise auf, wie man bereits an den kürzlich erhöhten Einspeisevergütungen für Offshore-Windkraft sieht,. Die besonders ungünstigen Bedingungen für die deutschen Offshore-Windparks schlagen sich in besonders hohen Kosten nieder: Für Land-Anlagen betragen die Stromerzeugungskosten 8 – 9,5 Cent/KWh, für Offshoreanlagen aber 15 –20 Cent/KWh. Und gerade die Offshoreanlagen sollen ja  künftig den Hauptanteil des Windkraft-Zubaus leisten. Das allein bedeutet bereits drastische Kostensteigerungen der erneuerbaren Stromquellen. Dazu kommen die weiter steigenden Kosten für Rohstoffe, Energie, Ersatz, Anlagenwartung, Transport der Biomasse, Löhne, Inflation.

Den Beweis für die stark kostensteigernde Wirkung der Erneuerbaren  liefert schon die Betrachtung der monatlichen Stromkosten für einen Haushalt mit 3500 KWh Jahresverbrauch: 1998 betrugen die reinen monatlichen Stromerzeugungskosten ohne Steuern 37,60 Euro. 2010 betrugen sie 40,53 Euro – also nur 7,8% mehr – aber es kommen jetzt 12 Euro für die durch das EEG verursachten Kosten hinzu; damit ist der Strompreis durch die Zwangssubventionierung der Erneuerbaren bereits jetzt um 41% angestiegen. Und dieser Anstieg wird beschleunigt weiter gehen.

Mit seinen irrealen Speicher-Spekulationen und Netzausbau-Träumen für seine Kohle- und Kernkraftfreie Stromvollversorgung einerseits und mit seinen geschönten Kostenrechnungen andererseits  kommt dann der SRU auf seine Bewertung "bezahlbar".

Mehrfach wird "Biomethan" als Energiequelle zur Stromerzeugung angeführt. Was nicht diskutiert wird, ist der enorme Flächenverbrauch, der mit dieser Technik verbunden ist, und der sie – im Gegensatz zu den SRU-Behauptungen – alles andere als nachhaltig erscheinen läßt. Allein der Ersatz der deutschen Kernkraftwerke durch die Stromerzeugung mittels Biomasse würde 75% der gesamten deutschen Agrarfläche beanspruchen. Von der ethischen Bewertung eines Ersatzes von Lebensmittelproduktion durch Energieerzeugung einmal ganz abgesehen – was den Sachverständigenrat für Umweltfragen aber nicht interessiert.

Schließlich wird der bereits jetzt sehr spürbare Widerstand der Bürger, die nun den reichlich unnachhaltigen Charakter der Erneuerbaren leidvoll erfahren,  gegen neue Stromtrassen, CO2-Speicher und Windmühlen vom SRU ignoriert. Er wird sich jedoch im leichthin betrachteten 40-Jahre-Zeitraum nicht gerade verringern.

 

Im Übrigen fehlt dem rein politischen Ziel eines möglichst hohen Anteils der Erneuerbaren an der Stromerzeugung von vornherein eine einleuchtende Begründung: Der VGB, der Verband der Energiewirtschaft, betonte soeben, daß Wind und Sonne zwar Brennstoffe einsparen, nicht aber Kraftwerksleistung. Aufgrund der fluktuierenden Verfügbarkeit von Wind und Sonne und weiterhin fehlender Stromspeicher erfordert deren Ausbau umfangreiche Kapazitäten an gesicherter Kraftwerksleistung – im Wesentlichen Erdgas-, Kohle- und Kernkraftwerke. Der Ausbau der Erneuerbaren führt also nur zu einer unsinnig doppelten Bereitstellung von Stromerzeugungsanlagen und damit zu einer sinnlosen, teuren  Kapitalinvestition bei nur geringfügiger Brennstoffeinsparung. Und im Falle des teilweisen Ersatzes von Kernkraft tritt nicht einmal eine CO2 – Einsparung ein.

Der Sachverständigenrat für Umweltfragen hat sich in unbegreiflicher Selbstüberschätzung auf fachliches Glatteis begeben und das erwartete blamable Ergebnis abgeliefert. Aber wenigstens ist es politisch korrekt. Nur mit Sachverstand hat es nichts zu tun.

 

EIKE Gastautor Dr.-Ing. Günter Keil, Sankt Augustin