Ein skeptischer Blick auf „alternative Energie“

Ich sagte, dass da ein Fehler vorliegen muss. Ich bin nicht weit von diesem Gebiet aufgewachsen, gerade hinter der Grenze zur Tschechischen Republik, und ich werde niemals die endlosen Sommertage vergessen, die ich wegen des ständigen Regens drinnen verbringen musste. In Bayern ist es ähnlich wie in Seattle in den USA oder der Provinz Sichuan in China. Man möchte nie ein Solarkraftwerk in Bayern bauen, aber genau dorthin haben es die Deutschen gepackt. Das Kraftwerk mit einer Spitzenleistung von 10 Megawatt wurde im Juni 2005 in Betrieb genommen.
Und zwar aus dem besten Grund, den es in der Politik gibt: Geld. Willkommen in der Welt neuer erneuerbarer Energien, in der die Subventionen regieren – und die Verbraucher zahlen.
Ohne diese Subventionen könnten die Erneuerbare-Energien-Kraftwerke im Gegensatz zu hydroelektrischen oder geothermischen Kraftwerken nicht mit konventionellen Erzeugern konkurrieren. Dafür gibt es viele Gründe, zuallererst die geringe Kapazität – die meiste Elektrizität, die ein Kraftwerk tatsächlich erzeugen kann geteilt durch das, was es erzeugen könnte bei ständiger voller Auslastung. Der Kapazitätsfaktor eine typischen Kernkraftwerkes liegt bei über 90%; für ein Kohlekraftwerk bei 60 bis 75%. Eine Photovoltaik-Installation kann es nahe 20 Prozent bringen – im sonnigen Spanien – und eine Windturbine, gut aufgestellt auf dem Festland, 25 bis 30 Prozent. Man errichte sie offshore, und sie könnte sogar 40 Prozent erreichen. Um beide der letztgenannten Technologien nutzen zu können, muss man sich aber auch der Notwendigkeit stellen, jeweils vollständig neue Überlandleitungen zu spannen an Orte, wo Sonne und Wind vorhanden sind, ebenso wie der Notwendigkeit, wegen der unsteten Natur der Energie eine sehr variable Spannung zu managen.
Alle diese Komplikationen sind wohlbekannt, und alle wurden von den Unterstützern der alternativen Energie und der Medien viel zu wenig beachtet. Am schlimmsten jedoch ist, dass man seitens der Antreiber die Zeit nicht berücksichtigt hat, die es braucht, um zu einer neuen Energiequelle überzugehen, egal wie überzeugend die Argumente dafür auch sind.
Ein Beispiel ist der vom früheren Vizepräsidenten Al Gore befürwortete Plan aus dem Jahr 2008, dem zufolge alle fossil betriebenen Kraftwerke in den USA innerhalb eines Jahrzehnts ersetzt werden sollten. Ein weiterer ist Googles Plan, der im Jahr 2008 verkündet und im Jahr 2011 aufgegeben worden war, dem zufolge die Erzeugung mit Kohle bis zum Jahr 2030 ganz aufhören sollte. Alle diese Pläne wurden aber noch übertroffen durch einen Artikel aus dem Jahr 2009 im Scientific American von Mark Jacobsson, einem Bauingenieur-Professor an der Stanford-University, und Mark Delucchi, einem Forscher für das Transportwesen an der University of California. Sie schlugen vor, die Energiewirtschaft  in der ganzen Welt bis zum Jahr 2030 auf erneuerbare Quellen zu konvertieren.
Die Historie und eine Betrachtung der technischen Erfordernisse zeigen, dass das Problem viel größer ist als diese Befürworter gedacht hatten.

Was hat sich die deutsche Regierung im Jahr 2004 gedacht, als sie eine Einspeisetarif genannte Subvention angeboten hat, die Investoren bis zu 0,57 Euro pro Kilowattstunde für die nächsten 20 Jahre der Stromerzeugung durch Photovoltaik garantiert? Zu der Zeit lag der Strompreis aus anderen Quellen um 0,20 Euro pro kWh. Zum Vergleich: der mittlere Strompreis in den USA lag im Jahr 2004 bei 7,6 Cent oder 0,06 Euro pro kWh. Angesichts solcher Subventionen ist es kein Wunder, dass der Solarpark in Bayern nur der Anfang eines Booms war, um in ganz Deutschland Solarparks zu errichten. Bis Ende 2011 besaßen die PV-Installationen in Deutschland eine Kapazität von fast 25 Gigawatt, also mehr als ein Drittel der gesamten globalen Kapazität. Subventioniert man irgendetwas nur ausreichend genug, kann es auf den ersten Blick vernünftig aussehen; erst später kommt die Realität ins Spiel. Aufgeschreckt durch die Nachricht, dass die Deutschen den zweithöchsten Strompreis in Europa bezahlen, hat der Bundestag im vergangenen März dafür gestimmt, die verschiedenen Solarsubventionen um bis zu 29 Prozent zu kürzen.

So generöse Subventionen sind in keiner Weise eine deutsche Eigenart. Sie waren in der neuen Welt der erneuerbaren Energien die Norm; lediglich die Ziele unterscheiden sich. Spanien hat die Energieerzeugung durch Wind und PV ebenfalls subventioniert, bevor der Einspeisetarif dort für große Installationen um fast 50 Prozent im Jahr 2010 gekürzt worden war. Die Vorteile Chinas für die dortige Industrie zur Herstellung von Windturbinen waren so gewaltig, dass sich die USA 2010 darüber bei der Welthandelsorganisation beklagt hatten. In den USA haben weder Wind- noch Solarkraftwerke, sondern Biomasse am meisten profitiert – besonders Mais zur Herstellung von Ethanol.
Dem Accountability Office der US-Regierung zufolge kostet den Steuerzahler die Steuer auf die Ethanolherstellung im Jahr 2011 6,1 Milliarden Dollar. Zusätzlich du diesen direkten Kosten kommen noch drei indirekte: einmal Kosten in Zusammenhang mit der Bodenerosion, dem Abfluss von Wasser mit übermäßigem Nitratgehalt durch die Düngemittel (welche im Golf von Mexiko enden und dort in küstennahen Gebieten Todeszonen erzeugen) und die steigenden Lebensmittelpreise, die sich ergeben, wenn der größte Getreideexporteur der Welt 40 Prozent seines Mais’ zur Ethanolherstellung abzweigt. Und die Krone des Ganzen ist, dass der so hergestellte Treibstoff meistens in energieineffizienten Fahrzeugen verbraucht wird.
Nun könnte man einwenden [PDF] , dass Subventionen nicht per se schlecht sind; tatsächlich gibt es eine lange Geschichte, wie sie zur Entwicklung neuer Energiequellen eingesetzt worden sind. Die Öl- und Gasindustrie haben von Jahrzehnten mit Steuererleichterungen profitiert, die darauf abzielten, die Erschließung zu stimulieren. Die Kernkraftindustrie ist auf dem Rücken direkter und enormer Unterstützung der Forschungs- und Entwicklungsabteilung [R&D, Research and Development] gewachsen. In den USA hat sie zwischen 1948 und 2007 fast 54 Prozent aller öffentlichen Forschungsgelder empfangen. In Frankreich erhielt sie umfassende Unterstützung der staatlichen Stromerzeugungsgesellschaft. Ohne diese Subvention hätte diese Industrie es bis heute nicht geschafft, mehr als 75 Prozent des französischen Energiemarktes zu beherrschen. Daher müssen wir uns fragen, ob die Subventionen für alternative Energien halten können, was deren Befürworter versprechen.

Bild Kernenergie: eine Energietechnologie, die angeschoben worden ist. Kernkraft war die erste wesentliche neue Energiequelle, die ihre Entwicklung weitestgehend den Investitionen und Subventionen der Regierung zu verdanken hat, wie man an hand der sehr unterschiedlichen Entwicklungen in diesen drei Ländern erkennen kann.

Man mache sich keine Illusionen: sie versprechen viel. Die leidenschaftlichsten Unterstützer von Sonne, Wind und Biomasse führen an, dass diese Quellen fossile Treibstoffe ersetzen können und hoch zuverlässige, nicht verschmutzende, kohlenstofffreie Systeme sind, die nicht teurer sind als die heute billigste kohlebasierte Stromerzeugung, alles in nur wenigen Jahrzehnten. Das wäre schnell genug um zu verhindern, dass der Anstieg des Kohlendioxids in der Atmosphäre von gegenwärtig 394 ppm auf mehr als 450 ppm steigt – einem Wert, ab dem Klimatologen schätzen, dass die globale Temperatur um 2°C steigen wird. Ich wünschte, dass all diese Versprechen wahr werden würden, aber ich glaube stattdessen, dass ich lieber den Glauben auf eindeutige technische Einschätzungen richten sollte.
Das Ganze zu bezahlbaren Preisen zu bekommen ist das am schwierigsten einzulösende Versprechen, betrachtet man die vielen verschiedenen Subventionen und die kreativen Verrechnungstechniken, mit denen seit Jahren alternative und erneuerbare Erzeugungstechnologien untermauert werden. Sowohl die Europäische als auch die amerikanische Wind Energy Association behaupten, dass Windturbinen schon jetzt billiger Energie erzeugen als Kohlekraftwerke, während es die Solarenthusiasten vorziehen, das Beispiel der beeindruckend zurückgehenden Preise für Photovoltaikzellen anzupreisen, um den Eindruck zu erzeugen, dass wir schon bald erkennen, wie staunenswert niedrig die installierten Kosten liegen.
Andere Analysen jedoch weisen die Behauptungen billigen Windstroms zurück, und wieder andere berücksichtigen die Tatsache, dass Photovoltaik-Installationen nicht nur Zellen, sondern auch Rahmen, Stromumwandler, Batterien und Wartung benötigen. Diese damit verbundenen Kosten sind überhaupt nicht rückläufig, und das ist auch der Grund dafür, dass sich die Kosten der heimischen Solarstromerzeugung in den USA seit dem Jahr 2000 nicht grundlegend verändert haben. Zu jener Zeit lag der Preis im nationalen Mittel nahe 40 US-Cent pro Kilowattstunde in sonnigen Gebieten und bei 63,60 Cent in wolkigeren Gebieten. Das ist immer noch erheblich teurer als der Verbrauch fossiler Treibstoffe, der in den USA im Jahr 2011 zwischen 11 und 12 Cent pro Kilowattstunde teuer war. Das Zeitalter dezentraler umfangreicher Stromerzeugung mittels Photovoltaik ist noch nicht angebrochen.
Dann betrachte man die Frage der Größenordnung. Windkraft ist kommerziell weiter als Sonnenenergie, aber mit 47 Gigawatt in den USA Ende 2011 bringt sie immer noch lediglich 4 Prozent der sommers erzeugten Kapazität in diesem Land. Und weil die Kapazitätsfaktoren der Windturbinen in den USA so niedrig liegen, trug der Wind zu weniger als 3 Prozent zur insgesamt erzeugten Elektrizität im Jahr 2011 bei.

Infographik: Design Bryan Christie; Datenquelle Vaclav Smil: Zwei aufstrebende Mächte, China und Indien, lassen die USA hinsichtlich der Kohlenstoffemissionen hinter sich.

Es dauerte 30 Jahre, – seit dem Einsatz kleiner, moderner Windturbinen im Jahr 1980 – um auch nur diesen geringen Prozentsatz zu erreichen. Zum Vergleich, die Kernkraft erreichte innerhalb von 30 Jahren nach der Einführung 20 Prozent der Gesamtstromerzeugung in den USA, und Gasturbinen 10 Prozent innerhalb von drei Jahrzehnten nach der Inbetriebnahme in den frühen sechziger Jahren.
Projektionen der Stromerzeugung durch Wind in die Zukunft waren irreführend optimistisch, weil sie alle auf der Zunahme von einer sehr geringen Basis ausgingen. Was also ist, wenn die gesamte globale Windkapazität zwischen 2001 und 2011 um das Sechsfache gestiegen wäre? Solche hohen Zuwachsraten sind typisch für frühe Stadien der Entwicklung, besonders wenn – wie in diesem Fall – das Wachstum hauptsächlich durch Subventionen angetrieben worden ist.
Inzwischen gibt es einen neuen Faktor, der die Aussichten für Wind und Sonne verändert: Das Auftauchen umfangreicher Vorräte von Erdgas, dass durch hydraulisches Brechen, oder Fracking, aus Schiefer gewonnen wird. Derzeit ist Fracking außerhalb der USA und Kanada noch nicht üblich, aber es könnte in vielen Ländern in Europa, Asien und Lateinamerika verwendet werden, wo es ebenfalls riesige Vorkommen gibt. Einige Länder wie Frankreich und Deutschland haben die Technologie verbannt, und zwar aus Furcht vor möglichen Auswirkungen auf die Umwelt, aber solche Bedenken begleiten alle neuen Energietechnologien, selbst solche, die überschwänglich für ihre guten Auswirkungen auf die Umwelt angepriesen werden. Und Erdgas kann verwendet werden, um Energie besonders effizient zu erzeugen. Zum Beispiel beuten kombinierte Gaskraftwerke die Abfallwärme der Gasturbine aus, um Dampf zu erzeugen, womit zusätzlich mittels einer Dampfturbine Strom erzeugt werden kann. Was aber noch mehr zählt ist, dass Gasturbinen mit einer Kapazität bis 60 Megawatt innerhalb eines Monats in Betrieb gehen können. Außerdem können sie bequem dort gebaut werden, wo ihr Strom in bereits bestehende Überlandleitungen eingespeist werden kann.
Die Orte, an denen massive Windparks errichtet werden sollen, sind ebenfalls zunehmend umstritten – viele Menschen mögen das Aussehen nicht, lehnen deren Lärm ab oder machen sich Sorgen über deren Auswirkungen auf Zugvögel und Fledermäuse. Dies ist inzwischen sogar für einige Offshore-Projekte zum Problem geworden. Zum Beispiel, ein riesiges Projekt vor der Insel Martha’s Vineyard island in Massachusets, welches das erste Offshore-Windprojekt in den USA sein sollte, liegt seit Jahren wegen der Opposition vor Ort auf Eis. Die Unstetigkeit des Windes macht es schwierig abzuschätzen, wie viel Strom innerhalb weniger Tage erzeugt werden kann, und das Fehlen von Erfahrungen beim Betrieb großer Turbinen führt langfristig zu sogar noch größerer Ungewissheit. Wir müssen einfach abwarten, wie zuverlässig sie während ihrer angenommenen Lebensdauer von 20 bis 30 Jahren sind und wie viel Reparatur- und Wartungskosten anfallen.
Und natürlich kann man Windturbinen nicht nutzen, solange nicht gewährleistet ist, dass sie an ein Netz noch zu bauender Hochspannungsleitungen angeschlossen werden können, ein teures und normalerweise legal herausforderndes Unterfangen.
Unter der Annahme, dass große Windparks in den USA in den Großen Ebenen errichtet werden könnten, wo Wind und Land ausreichend zur Verfügung steht, müssen die Entwickler viele tausend Kilometer Überlandleitungen konstruieren, um diese Windparks mit den wesentlichen Strommärkten an den Küsten zu verbinden. Natürlich ist die Herausforderung der Verbindungen für kleine Länder einfacher (vor allem, wenn sie sich auf ihre Nachbarn verlassen können), was mit ein Grund dafür ist, dass Dänemark führend hinsichtlich der Windkraft geworden ist.
In den USA geht das Problem über den Bau neuer Leitungen hinaus; es ist nötig, diese an ein existierendes Netz anzuschließen, dass schon jetzt angespannt und ungeeignet ist. Der jüngste Bericht zur amerikanischen Infrastruktur, vorbereitet mit den Daten des Jahres 2009 von der American Society of Civil Engineers, erteilt dem heimischen Energiesystem die Bewertung D+ [vergleichbar mit der deutschen Schulnote 4+], hauptsächlich deswegen, weil das Netz relativ alt ist und der Betrieb häufig durch Spitzen hohen sommerlichen Bedarfs angespannt wird [vermutlich wegen der ganzen Klimaanlagen, A. d. Übers.]. Eine Verbesserung dieser Bewertung ist mehr als eine technische Herausforderung, weil Verbesserungen der Infrastruktur oftmals fest verwurzelter politischer Opposition gegenüber stehen – das Nicht-in-meinem-Garten-Syndrom.
In Europa mag es bessere Verbindungen geben, aber hier steht die Hinwendung zu Wind- und Solarenergie anderen Problemen gegenüber. Die ökonomischen Aussichten sind düster, und das wird dessen Fähigkeit, massiv in neue Technologien zu investieren, begrenzen. Selbst Deutschland, die stärkste europäische Wirtschaft und ein großer Faktor bzgl. neuer Energien, hat einen schwierigen Weg vor sich; dort muss man Ersatz für die Kernkraftwerke finden, die man aufgrund der Ereignisse in Fukushima abgeschaltet hat. Das ist keine geringe Herausforderung, wenn Deutschland seine Subventionen für Wind- und Sonnenenergie kürzt und die Wirtschaft einer Rezession nahe steht.
Eingriffe der Regierung sind erforderlich, weil die Chancen schlecht sind, dass irgendein privates Investitionsprogramm umfangreich genug ist, um die Konversion zu neuen Energiequellen zu beschleunigen. Aber selbst Regierungen in den reichen Ländern haben Schwierigkeiten, essentielle Infrastrukturen einzurichten, hauptsächlich wegen wachsender Zweifel. Gründe dafür sind u. A. nicht eingedämmte Gesundheitskosten, Handelsdefizite, nicht wettbewerbsfähige Herstellung und Steuerausfälle. Gleichzeitig haben Subventionen der Regierung für neue Energietechnologien es nicht vermocht, ein oft gemachtes Versprechen einzulösen: Sie haben keine neuen permanenten und gut bezahlte Arbeitsplätze geschaffen, weder in der EU noch in den USA.

Infographik: Design Bryan Christie; Datenquelle: Vaclav Smil Die Windkraft in den USA ist von einer sehr niedrigen Basis schnell gewachsen, und wie die Historie solcher Technologien zeigt, kommt die wirkliche Herausforderung erst später.

Die ultimative Rechtfertigung für alternative Energie hat die Abschwächung der globalen Erwärmung zum Mittelpunkt: Die Erzeugung von Energie aus Wind, Sonne und Biomasse fügt der Atmosphäre weniger Treibhausgase zu. Aber während diese Treibhausgase globale Auswirkungen haben, muss die Wirksamkeit dieser Einsetzung auch global beurteilt werden. Und dann müssen wir erkennen, dass der Beitrag der westlichen Welt zur Reduktion von Kohlendioxidemissionen durch Wind und Sonne bedeutungslos ist gegenüber der zunehmenden Verbrennung von Kohle in China und Indien.
Die Zahlen sind ernüchternd. Zwischen den Jahren 2004 und 2009 sind in den USA etwa für 28 Gigawatt Windturbinen errichtet worden. Das ist äquivalent mit weniger als 10 Gigawatt Kapazität aus Kohle, legt man die sehr unterschiedlichen Ladefaktoren zugrunde. Während der gleichen Zeit ist in China mehr als 30 mal so viel [PDF] Kapazität aus Kohle installiert worden in riesigen zentralen Kraftwerken, Einrichtungen, die eine erwartete Lebensdauer von mindestens 30 Jahren haben. Im Jahr 2010 allein haben in China die Kohlendioxidemissionen um fast 800 Millionen metrischer Tonnen zugenommen, das entspricht etwa der Gesamtmenge in den USA. Im gleichen Jahr wurden in den USA fast 95 Terawattstunden Strom aus Wind erzeugt, was folglich die Emission von etwa 65 Millionen Tonnen Kohlendioxid verhindert hat. Außerdem wird China bis zum Jahr 2015 weitere Kohlekraftwerke mit einer Kapazität von 200 GW bauen, während in den USA lediglich etwa 30 GW Windkapazität hinzukommen, äquivalent mit weniger als 15 GW Kohlestromerzeugung. Natürlich wird sich die rapide Zunahme der Verbrennung asiatischer Kohle irgendwie mäßigen, aber selbst dann kann die Konzentration von Kohlendioxid in der Atmosphäre nicht unter 450 ppm bleiben.
Der vielleicht am wenigsten verstandene Aspekt der Energiewende ist deren Geschwindigkeit. Der Ersatz einer Energieform durch eine andere dauert lange. Strom aus Kernkraft in den USA erzeugte 23 Jahre nach der Inbetriebnahme 10 Prozent des Gesamtstromes, und es dauerte 38 Jahre, bis dieser Anteil auf 20 Prozent gewachsen ist, was im Jahr 1995 der Fall war. Seitdem ist dieser Anteil in etwa gleich geblieben. Stromerzeugung mit Gasturbinen aus Erdgas brauchte 45 Jahre, um einen Anteil von 20 Prozent zu erreichen.
Im Jahr 2025 werden moderne Windturbinen seit etwa 30 Jahren herumstehen, und wenn sie bis dahin nur 15 Prozent der Energieversorgung in den USA decken, würde das ein gewaltiger Erfolg sein. Und selbst die optimistischsten Projekte zur Sonnenkraft versprechen nicht einmal halb so viel. Die Suche nach nicht karbonhaltigen Stromquellen ist sehr wünschenswert, und vielleicht werden solche Quellen irgendwann vorherrschen. Aber dies ist nur möglich, wenn die Planer realistische Erwartungen haben. Der Vergleich mit einem gigantischen Öltanker, so unbequem er ist, passt hervorragend: Ihn zu wenden braucht sehr viel Zeit.
Und das Wenden des auf fossilen Treibstoffen basierenden Energiesystems der Welt ist eine wahrhaft herkulische Aufgabe. Dieses System braucht derzeit jährlich mehr als 7 Milliarden Tonnen Stein- und Braunkohle, etwa 4 Milliarden Tonnen Rohöl und mehr als 3 Trillionen Kubikmeter Erdgas. Dies addiert sich zu 14 Trillionen Watt Energie. Und die Infrastruktur – Kohleminen, Öl- und Gasfelder, Raffinerien, Pipelines, Züge, Lastwagen Tanker, Abfüllstationen Kraftwerke Transformer, Leitungs- und Verteilersysteme sowie hunderte Millionen Benzin, Kerosin, Diesel und Treibstoff verbrauchende Motoren – konstituiert das teuerste und extensivste Netz von Installationen, Netzwerken und Machinen, die jemals in der Welt gebaut worden sind, etwas, das Generationen dauerte und Trillionen Dollar gekostet hat.
Es ist unmöglich, dieses Supersystem in einer oder zwei Dekaden zu ersetzen – oder in fünf, je nachdem. Es mit einer ähnlich teuren und zuverlässigen Alternative zu ersetzen, die auf erneuerbarer Energie basiert, ist eine Aufgabe, die Jahrzehnte langes extensive Hingabe erfordert. Es ist die Arbeit vieler Generationen von Ingenieuren.
Vaclav Smil
Über den Autor
Vaclav Smil, ein angesehener Professor im Department für Umwelt und Geographie an der University of Manitoba, Kanada, datiert den Beginn seines Interesses an diesem Artikel auf seine Studententage an der Prager Carolinum University vor über 50 Jahren. „Im Gegensatz zur gegenwärtig populären Durchsetzung beschleunigter Innovation“, sagt er, „sind die meisten technischen Verbesserungen evolutionär und brauchen Zeit, bis sich ein wirklicher Unterschied zeigt. Folglich halte ich wenig von Behauptungen einer fast sofortigen Transformation irgendeines komplexen Systems“.
Der Originalartikel findet sich auf IEEE Spectrum hier
Übersetzt von Chris Frey EIKE
Die schweizerische Handelszeitung benennt Smil "als einflussreichen Denker der über den Wert der industriellen Forschung, den sinkenden Wohlstand im Westen, den Absturz Chinas – und Mozart" Auskunft gibt. Das Interview hier




Fallstudien aus aller Welt belegen: Keine Beschleunigung des Meeresspiegelanstiegs während der letzten 30 Jahre

Bereits im Jahr 2009 hatte sich eine internationale Forschergruppe aus Frankreich, Spanien und Großbritannien um Guy Wöppelmann mit der Frage beschäftigt, welchen Einfluss Land-Hebungen und -Senkungen auf Meeresspiegelmessdaten von Küstenpegeln haben. In der in den Geophysical Research Letters erschienenen Studie untersuchten die Wissenschaftler weltweit 227 Stationen deren Höhe im Rahmen eines globalen Netzwerks mithilfe des satellitengestützten Global Positioning Systems (GPS) genau erfasst wurde. 160 dieser Stationen liegen in einer Entfernung von höchstens 15 km von Küstenpegeln. Auf diese Weise konnten die Forscher vertikale Bewegungen der Pegel bestimmen und die Meeresspiegeldaten der Pegel entsprechend korrigieren. Für das letzte Jahrhundert konnte auf diese Weise ein mittlerer globaler Meeresspiegelanstieg von 1,61 mm pro Jahr ermittelt werden. Von 1900 bis 1940 stieg der Meeresspiegel etwas langsamer an (Abbildung 1). Um 1940 schaltete der Meeresspiegelanstieg dann auf eine höhere Geschwindigkeitsstufe, die bis heute relativ stabil beibehalten wurde. Eine weitere Beschleunigung war während der letzten 70 Jahre nicht zu verzeichnen. Die Beschleunigung in der ersten Hälfte des 20. Jahrhunderts war dabei zu erwarten und ist in den Übergang von der Kleinen Eiszeit in die Moderne Wärmeperiode einzuordnen (siehe unser Blogartikel „Der Meeresspiegel steigt! Seit 15.000 Jahren“).

Abbildung 1: Meeresspiegelentwicklung der letzten 100 Jahre für Nordeuropa (oben) und Nordwest Amerika (unten) auf Basis von Küstenpegeln. Landhebungen und -Senkungen wurden für die untersuchten Stationen mit GPS bestimmt und bei der Erstellung der Meeresspiegelkurve berücksichtigt. Seit 1940 ist keine Beschleunigung des Anstiegs mehr zu verzeichnen. Quelle: Wöppelmann et al. (2009).
Ein weiteres bedeutendes Paper zur Meeresspiegelentwicklung erschien Ende Juni 2012 in den Geophysical Research Letters. Ein internationales Wissenschaftlerteam um Olivier Henry vom Centre National de la Recherche Scientifique in Toulouse führte für die vergangenen 60 Jahre eine Untersuchung an 62 Küstenpegeln an den arktischen Küsten Norwegens und Russlands durch. Zunächst korrigierten die Forscher Hebungs- und Senkungsbewegungen im Zusammenhang mit der letzten Eiszeit sowie andere Effekte. Die auf diese Weise rekonstruierte Meeresspiegelkurve des Arktischen Ozeans zeigt einige überraschende Merkmale. Zunächst einmal blieb der Meeresspiegel ab 1950 für drei Jahrzehnte relativ stabil und verharrte auf einem Plateau (Abbildung 2). Erst ab 1980 stieg der Meeresspiegel schließlich an und erreichte um 1990 seinen Höhepunkt, der bis heute nicht mehr übertroffen wurde. Im Laufe der 1990er Jahre fiel der Meeresspiegel wieder. Ab 1995 stieg er dann wieder an, erreicht aber nicht mehr das Meeresspiegelniveau von 1990. Von 1995 bis 2009 errechneten die Autoren eine mittlere Meeresspiegelanstiegsrate von 4 mm/Jahr.
Der Meeresspiegelverlauf entwickelte sich dabei über fast den gesamten Untersuchungszeitraum synchron zur Arktischen Oszillation (AO), einem bedeutenden Ozeanzyklus in der Region (Abbildungen 2 und 3). Erst in den letzten 10 Jahren scheint sich der Zusammenhang etwas zu entkoppeln, obwohl die Zeitspanne wohl noch zu kurz ist, um dies mit Sicherheit – auch mit Blick in die Zukunft – sagen zu können. Der synchrone Absturz von Meeresspiegel und Arktischer Oszillation 2009 zeigt, dass die AO wohl auch in Zukunft einen maßgeblichen Einfluss auf das Meeresspiegelgeschehen in der Arktis nehmen wird. 
Ähnlich wie bei der Temperaturentwicklung müssen auch bei der Meeresspiegelinterpretation in einigen Regionen der Erde auf jeden Fall Ozeanzyklen berücksichtigt werden. Ozeanzyklen können den Meeresspiegel nach oben und nach unten drücken, Anstiege beschleunigen, verlangsamen und sogar ins Negative umschlagen lassen. Eine generelle und belastbare Beschleunigung des Meeresspiegelanstiegs durch schmelzende Eismassen während der letzten drei Jahrzehnte lässt sich im Arktischen Ozean nicht belegen.

Abbildung 2: Meeresspiegelentwicklung in der Arktis für die vergangenen 60 Jahre (rote Kurve). Von 1950 bis 2000 verlaufen die Meeresspiegeländerungen weitgehend synchron zur Arktischen Oszillation (AO, schwarze Kurve), einem bedeutenden Ozeanzyklus in der Region. Abbildung aus Henry et al (2012).
 
Abbildung 3: Arktischer Oszillations-Index (Quelle: Wikipedia).
Gehen wir nun auf die andere Seite der Erde, nach Neuseeland. In Neuseeland und anderen Gebieten der südlichen Hemisphäre gibt es nur wenige Küstenpegelmessungen die bis 1900 zurückreichen. Die beiden neuseeländischen Forscher John Hannah und Robert Bell von der University of Otago bzw. dem National Institute of Water and Atmospheric Research veröffentlichten im Januar 2012 im Journal of Geophysical Research zusätzliche historische Pegelmessreihen aus Neuseeland. In den neuen Kurven lässt sich eine zweigeteilte Entwicklung erkennen, wobei sich die Anstiegsgeschwindigkeit um 1940 leicht erhöhte und seitdem stabil blieb (Abbildung 4). Die neuseeländische Entwicklung ähnelt dabei der globalen Situation, wie sie in der zuvor besprochenen Studie der Wöppelmann-Gruppe erarbeitet wurde. Der in Neuseeland ermittelte Langzeittrend von 1,7 mm Meeresspiegelanstieg pro Jahr entspricht dabei in etwa dem globalen Wert. Auch in Neuseeland ist keinerlei Beschleunigung des Meeresspiegelanstiegs in den letzten 30 Jahren zu erkennen.

Abbildung 4: Meeresspiegelentwicklung an vier neuseeländischen Küstenpegeln. Eine Beschleunigung des Anstiegs ist für die vergangenen 70 Jahre nicht zu erkennen. Abbildung aus Hannah & Bell (2012).
Bemerkenswert an der Studie von Hannah und Bell ist auch, dass die neuseeländische Meeresspiegelentwicklung durch Zyklen im Jahrzehnt-Maßstab geprägt ist. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen (Southern Oscillation Index, SOI und andere) (Abbildung 5).
Siehe auch Bericht vom NIPCC.

Abbildung 5: Dargestellt sind vier neuseeländische Meeresspiegel-Pegelmessreihen (dünne graue, schwarze und blaue Linien), die mit dem Südlichen Oszillationsindex, einem pazifischen Ozeanzyklus (SOI, fette schwarze Linie), verglichen werden. Es besteht eine gute Übereinstimmung zwischen Meeresspiegel und Meereszyklus. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen. Abbildungsquelle: Hannah & Bell (2012).
Nicht weit davon entfernt forschte ein internationales Team um Roland Gehrels von der University of Plymouth. Im Januar 2012 veröffentlichte die Gruppe in den Earth and Planetary Science Letters eine neue Studie der Meeresspiegelgeschichte Tasmaniens (einer Insel vor der Küste Südost-Australiens) und Neuseelands. Anhand von Salzmarschablagerungen konnten die Wissenschaftler die Meeresspiegelentwicklung für die vergangen 6000 Jahre rekonstruieren. Besonderes Augenmerk schenkten sie dabei den letzten 200 Jahren. Zur Altersdatierung verwendeten Gehrels und Kollegen Radiokarbonalter sowie andere Isotopenmethoden auf Basis von Cäsium und Blei. Der Meeresspiegel wurde anhand von fossilen Einzellern, sogenannten Foraminiferen bestimmt.
Die Studie zeigte, dass sich der Meeresspiegel während der letzten 6000 Jahre innerhalb eines Bereichs von etwa einem halben Meter bewegte. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an (Abbildung 6). Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg jedoch hingegen merklich und erreichte im Durchschnitt nur noch 0,7 mm pro Jahr. Ähnliche Resultate ergaben sich für das südliche Neuseeland. Eine Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten ist im australisch-neuseeländischen Studiengebiet nicht zu erkennen. Vielmehr ist das Gegenteil der Fall. Der Meeresspiegelanstieg hat sich sogar gegenüber der ersten Hälfte des 2. Jahrhunderts verlangsamt.

Abbildung 6: Meeresspiegelentwicklung von Tasmanien während der vergangenen 200 Jahre. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an. Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg hingegen merklich und erreicht im Durchschnitt nur noch 0,7 mm pro Jahr. Abbildungsquelle: Gehrels et al. (2012).
Auch terradaily berichtete über die Tasmanien-Publikation. Jedoch scheint es den Autor des Terradaily-Berichts kaum zu interessieren, dass die Meeresspiegelanstiegsrate in der zweiten Hälfte des 20. Jahrhunderts so dramatisch abgenommen hat, obwohl doch der CO2-Austoß zeitgleich stetig anstieg. Stattdessen wird auf einen angeblichen anthropogenen Einfluss in den 1990er Jahren verwiesen, der jedoch in den Originaldaten kaum erkennbar ist.
Bleiben wir noch kurz im Pazifik und reisen wir nun im Rahmen unserer Urlaubs-Meeresspiegel-Serie weiter auf das Tarawa Atoll, das Teil der Republik Kiribati ist. Das Atoll ist eines dieser Gebiete, von denen immer gesagt wird, dass der Untergang wegen des unerbittlichen Meeresspiegelanstiegs nur noch eine Frage der Zeit sei. Umweltaktivisten-Organisatione wie Greenpeace verwenden die Kiribati-Atolle gerne, um die angeblich dramatischen Folgen des Meeresspiegelanstiegs zu verdeutlichen, unter anderem auf dem Klimagipfel von Kopenhagen vor einigen Jahren. Nun hat sich Simon Donner von der University of British Columbia die
Meeresspiegelentwicklung des kiribatischen Tarawa-Atolls für die vergangenen 20 Jahre einmal näher angeschaut. Die Ergebnisse hat er im April 2012 in der Fachpublikation Eos veröffentlicht. Und nun halten Sie sich bitte fest: Pegelmessungen zeigen, dass der Meeresspiegel um Tarawa in dieser Zeit überhaupt gar nicht angestiegen ist (Abbildung 7).
Die in der Kurve enthaltenen Schwankungen gehen überwiegend auf El Nino-Effekte zurück. So fiel 1998 der Meeresspiegel um satte 45 cm, im Übergang von einem starken El Nino zu einem La Nina. Meeresspiegelanstiege von bis zu 15 cm ereigneten sich in Tarawa im Zusammenhang mit den El Nino-Ereignissen 2002-2003, 2004-2005 und 2009-2010 (Abbildung 7). Donner weist zudem darauf hin, dass auf Tawara Landgewinnungs- und andere Küstenbaumaßnahmen
stattgefunden haben, die an einigen Stellen des Atolls zu verstärkter Erosion und vermehrten Überflutungen geführt haben. Zudem werden an den Stränden und Korallenriffen der Atolle von den Einheimischen traditionell Baumaterialien gewonnen, was ebenfalls das Überflutungsrisiko erhöht. Donner schreibt in seinem Artikel:
„Das Ignorieren von Meeresspiegelbeiträgen aus der natürlichen Variabilität sowie aus direkten menschengemachten Veränderungen an der Küste kann dazu führen, dass bestimmte Überflutungsereignisse und Küstenveränderungen fälschlicherweise dem Meeresspiegelanstieg zugerechnet werden. Tarawa ist das am leichtesten zu erreichende Atoll der Kiribati-Inselgruppe und stellt ein von Journalisten und Aktivisten gern besuchtes Reiseziel dar, um von dort über die Folgen des Meeresspiegelanstiegs für flache Inseln zu berichten. […] Die Medien verwenden dabei Bilder von überfluteten Häusern und über Dämme spülenden Wellen, welche jedoch während seltener, nicht repräsentativer Ereignisse an einem flutgefährdeten Flecken gemacht wurden, teilweise verursacht durch menschliche Baumaßnahmen. Dies Bilder können den falschen Eindruck erwecken, das Tarawa einer dauerhaften Überflutungsgefahr durch einen steigenden Meeresspiegel ausgesetzt wäre. Das Zuordnungsproblem wird durch die politische Situation weiter verschärft. Die Regierung von Kiribati sieht sich der schwierigen Herausforderung gegenüber, internationale Beachtung für lokale Klimaschäden auf sich zu ziehen, um Hilfe bei Anpassung und Schadensminderung zu erhalten. Die Interpretation der Gründe von Küstenveränderungen und Überflutungsereignissen, sowie die Vorhersage von Folgen des Meeresspiegelanstiegs ist schwierig für ein solches Entwicklungsland mit nur begrenzten Ressourcen für wissenschaftliche Untersuchungen.“ 
Siehe auch Artikel von Mark Lynas und Roger Pielke Sr.

Abbildung 7: Meeresspiegelentwicklung des Tarawa-Atolls in der zentralpazifischen Republik Kiribati auf Basis einer Pegelmessreihe. Schwankungen gehen überwiegend auf El Nino-Effekte zurück. Langfristig ist der Meeresspiegel konstant geblieben. Ein Anstieg ist nicht zu erkennen. Abbildungsquelle: Donner (2012).
Kehren wir nun zurück in heimische europäische Gefilde. Im Mai 2012 erschien in den Quaternary Science Reviews eine Studie eines internationalen Forscherteams um Eduardo Leorri von der East Carolina University. Die Gruppe untersuchte die Meeresspiegelgeschichte in der Bucht von Biskaya während der letzten 10.000 Jahre anhand von Bohrungen. Den Meeresspiegel rekonstruierten die Wissenschaftler auf Basis von Fossilinhalt, Sandgehalt und anderen geologischen Merkmalen.
Die Entwicklung lässt sich in zwei Phasen unterteilen. Ein schneller Meeresspiegelanstieg fand von 10.000 bis 7000 Jahre vor heute statt (Abbildung 8). Der Meeresspiegel stieg damals um etwa 22m an, was einem mittleren Anstieg von über 7 mm pro Jahr entspricht. Vor 7000 Jahren verlangsamte sich dann der Anstieg.

Abbildung 8: Meeresspiegelgeschichte der Bucht von Biskaya. Abbildungsquelle: Leorri et al. (2012).
Die Ergebnisse verglichen Eduardo Leorri und seine Kollegen mit Küstenpegelmessungen der vergangenen 200 Jahre aus der Region. Wie nicht anders zu erwarten, stieg der Meeresspiegel während der Kleinen Eiszeit kaum an, fiel zum Teil sogar. Dies betrifft in der Bucht von Biskaya die Zeit zwischen 1800 und 1900 (Abbildung 9). Eiskappen und Gletscher waren in der Kleinen Eiszeit stabil und wuchsen zum Teil sogar an. Erst zu Beginn des 20. Jahrhunderts, als das Eisschmelzen allmählich wieder begann, zog dann auch der Meeresspiegelanstieg wieder an (Abbildung 9). Eine außergewöhnliche Beschleunigung des Anstiegs während der letzten drei Jahrzehnte ist in den Meeresspiegeldaten aus der Bucht von Biskaya nicht zu erkennen.

Abbildung 9: Küstenpegelmessungen aus der Bucht von Biskaya. Wie auch in anderen Studien ist ab ca. 1900 eine Beschleunigung des Anstiegs zu erkennen, welche den Übergangsbereich der Kleinen Eiszeit zur Modernen Wärmeperiode markiert. Abbildungsquelle: Leorri et al. (2012).
Es ist wahrscheinlich, dass sich der Meeresspiegel während der letzten tausenden von Jahren in Wellen entwickelte, die weitgehend parallel zu den Klima- bzw. Temperaturzyklen abliefen. Während der Kälteperioden wie etwa der Kleinen Eiszeit stagnierte bzw. fiel der Meeresspiegel, während der Wärmeperioden wie etwa der Römischen Wärmeperiode, Mittelalterlichen Wärmeperiode und Modernen Wärmeperiode zog die Anstiegsgeschwindigkeit dann wieder an. Eine umfangreiche Darstellung dieser vorindustriellen Meeresspiegelentwicklung liegt von Tony Brown vor, der seine Ergebnisse auf Judith Curry’s Blog veröffentlicht (Blogartikel, ausführliche pdf-Version). Eilige Leser seien auf die Seiten 23-26 des pdf verwiesen, wo Brown interessante Überlegungen zum Meeresspiegel der letzten 2000 Jahre anstellt. Unter Bezugnahme auf eine Arbeit eines Teams um Aslak Grinsted von der University of Lapland von 2010 im Journal Climate Dynamics wird diskutiert, ob der höchste Meeresspiegel der Nacheiszeit möglicherweise zur Zeit der Mittelalterlichen Wärmeperiode herrschte (Abbildung 10). Danach wäre der Meeresspiegel während der Kleinen Eiszeit wieder abgefallen, um dann im Übergang zur Modernen Wärmeperiode wieder anzusteigen. Möglicherweise wurde das mittelalterliche Niveau heute noch gar nicht wieder erreicht. Ein interessanter Gedanke. Auf jeden Fall müssen diese Effekte bei der Zuordnung von natürlichen und anthropogenen Ursachen des aktuellen Meeresspiegelanstiegs berücksichtigt werden, was leider noch viel zu wenig geschieht. Ähnlich zur Hockey Stick Episode zeigt der historisch-geologische Kontext, dass auch die Meeresspiegelentwicklung keineswegs so ereignislos und monoton war wie von einigen Klimadiskutanten angenommen.

Abbildung 10: Modell der Meeresspiegelentwicklung der letzten 2000 Jahre. Die dicke schwarze Kurve ab 1700 entspricht einer geologischen Rekonstruktion von Jevrejeva et al. (2006). Verändert nach Grinsted et al. (2010).
Eine interessante Diskussion der Frage, ob sich der globale Meeresspiegelanstieg im letzten Jahrzehnt gegenüber dem letzten Jahrhundert beschleunigt hat, führte Paul Homewood im Mai 2012 auf WUWT. Dabei ging er insbesondere der Frage nach, warum Pegelmessungen nur einen Anstiegswert von etwa 2,0 mm pro Jahr oder weniger zeigen (z.B. wie in einer Studie von Douglas), während Satellitendaten mit 2,8 mm/Jahr fast einen Millimeter höhere Wert anzeigen. Homewood überprüfte dazu eine Reihe von Küstenpegelmessungen und kam zu folgendem Ergebnis:
„Meine Analyse ergab keinen Hinweis auf eine kürzliche Beschleunigung der langjährigen Meeresspiegelanstiegsrate. Die Anstiegsrate beträgt noch immer 2 mm pro Jahr oder sogar weniger. Zusätzlich zeigt die Auswertung von Daten aus der südlichen Hemisphäre an, dass sich der Anstieg sogar möglicherweise verlangsamt hat. Die untersuchten Datenserien sind zwar in beiden Fällen statistisch klein und besitzen eine ungenügende geographische Abdeckung. Trotzdem besitzen sie eine ähnliche Datendichte wie die Original-Arbeit von Douglas [mit der Homewood seine Ergebnisse vergleicht], einer Arbeit die allgemein als sorgfältige Abschätzung des Meeresspiegelanstiegs im 20. Jahrhundert angesehen wird (z.B. verwendet der IPCC einen Wert von 1,7 mm/Jahr).  
Die Abweichung der Satellitendaten kann aus logischen Gesichtspunkten nur auf einen oder mehrere der folgenden Gründe zurückgehen: 
1)    Die Original-Douglas Studie könnte auf nicht repräsentativen oder fehlerhaften Daten basieren. Falls dies der Fall wäre, würde die in der Douglas-Studie ermittelte Anstiegsrate von 1,85 mm pro Jahr für das 20. Jahrhundert den wahren Wert signifikant unterschätzen.
2)    Die Satellitenmessungen könnten falsch sein.
3)    Der Zeitraum für den Satellitendaten zur Verfügung stehen (20 Jahre) könnte zu kurz sein, um einen verlässlichen Langzeittrend abzubilden, insbesondere weil der Beginn der Datenreihe an einem Tiefpunkt eines Zyklus liegt.
4)    Der Ausschluss von 11 Meßstationen aus der Rekonstruktion [von Homewood] könnte die Rate des Meeresspiegelanstiegs reduziert haben. Allerdings scheint es unwahrscheinlich, dass diese 11 Stationen einen starken Beschleunigungstrend besitzen, während die 12 verbliebenen keinen Trendwechsel anzeigen. Dies konnte zudem für die Südhemisphäre bestätigt werden.“
Unsere kleine Meeresspiegel-Weltreise war wenig ergiebig – oder sogar äußerst ergiebig, je nachdem wie man es sieht. Anzeichen für eine Beschleunigung des Meeresspiegels während der letzten 30 Jahre haben wir in keiner der Studien gefunden. Es sieht nicht gut aus für die Fans der Beschleunigung.
Dr. Sebastian Lüning; zuerst erschienen auf Kalte Sonne  
english version here at notrickszone




Die deutsche Ökostrom-Trunkenheit

Die deutsche Entscheidung, sich von der Stromerzeugung aus Uran zu verabschieden, die Kernkraftwerke stillzulegen und den Strom (möglichst) nur noch mittels Wind, Sonne und „Bio-Gas“ herzustellen, wird Energiewende genannt und dieser Strom als „Öko-Strom“ heiliggesprochen. Dumm nur, dass Wind und Sonne nicht immer wollen, was sie sollen, gerade auch dann, wenn sie mehr Strom liefern, als gerade gebraucht wird. Dann nämlich wird’s prekär im Stromnetz. Oder sie können Strom überhaupt nicht liefern: Dann braucht man die bisherigen, die herkömmlichen Kraftwerke, die den Strom aus Kohle, Erdgas, Erdöl und (noch) aus Uran herstellen. Sie nämlich bleiben selbst dann unentbehrlich, wenn immer noch mehr Wind- und Sonnenstromanlagen aufgestellt werden. Aber weil sie ein Schattendasein führen sollen und im gedrosselten Betrieb immer längere Stand-by-Zeiten haben, drückt das die Kosten auch für ihren Strom unsinnig nach oben.

Kaufzwang für „Ökostrom“, weil der viel teurer ist

Dumm ist auch dies: Viel Wind und viel Sonne treiben in Deutschland den Strompreis hoch. Denn der mit Wind und Sonnenstrahlen erzeugte Strom ist weitaus teurer als der mit Kohle, Uran, Erdgas, Erdöl und Wasser produzierte, er muss aber trotzdem gekauft und sogar mit Vorrang ins Stromnetz geleitet werden, jedenfalls solange aus Windkraftwerken und Fotovoltaik-Anlagen welcher kommt. Ebenso ist es mit Strom aus „Bio-Gas“. In der Herstellung kostet Strom aus Braunkohle und Uran 2,5 Cent/kWh, aus Steinkohle 5 Cent, aus Erdgas 7 Cent. Und  ganz wichtig: Er ist jederzeit verfügbar. Strom aus Wind und Sonne sind das nicht und dann auch noch viel teurer. Strom mit Windkraft zu produzieren, kostet 10 Cent (an Land) und 18 bis 20 Cent (auf See, einschließlich Transport ans Land), Mittels  Fotovoltaik produziert sind es 30 Cent und mittels „Biogas“ 15 Cent. Alle Angaben ohne Mehrwertsteuer.Bis auf den Strom aus „Biogas“ kommen noch die Kosten für die thermischen Schattenkraftwerke (Kohle, Erdöl, Erdgas, Kernkraft) hinzu, die einspringen müssen, wenn Sonne und Wind nicht mitspielen.

Das staatliche Strom-Preisdiktat im EEG – die Profiteure sind begeistert

Dieser Abnahmezwang ist staatlich verfügt, niedergelegt im Gesetz für den Vorrang Erneuerbarer Energien (kurz: EEG), beschlossen einst vom Deutschen Bundestag. Aber das Gesetz diktiert nicht nur die vorrangige Abnahme, sondern auch den Preis für diesen Strom, harmlos klingend Einspeisevergütung genannt, aber für die Verbraucher ein staatliches Preisdiktat. Ebendas macht ihn so teuer, denn das Gesetz legt den Preis so hoch fest, dass die Betreiber nicht nur auf ihre (zu hohen) Kosten kommen, sondern auch einen ansehnlichen Gewinn einstreichen und sich mit ihm eine goldene Nase verdienen. Ebendeshalb reißen sie sich darum, immer neue Anlagen aufzustellen, und ebendeshalb reißen sich die Industrieunternehmen darum, sie zu bauen. So ist es allenthalben  politisch ausdrücklich gewollt, so wird es von den Profiteuren begeistert betrieben. Doch mit jeder neuen Anlage wird der Strom immer noch teurer.

Warum Ökostrom-Anlagen immer häufiger abgeschaltet werden müssen

Außerdem müssen die Anlagen bei zuviel Sonne und zuviel Wind abgeschaltet werden. Das ist dann nötig, wenn der von ihnen erzeugte Strom zu wind- und sonnenreicher Zeit in dieser Menge nicht nachgefragt wird und dann das Stromnetz ohne Abschalten der Anlagen überlastet und zusammenbrechen würde, mit der Folge, dass die Kundschaft plötzlich dasitzt ohne Strom. 2011 hat es solche Abschaltungen, wie in der FAZ zu lesen war, an 45 Tagen gegeben. Und mit jeder neuen Ökostrom-Anlage – das liegt auf der Hand – werden die Abschaltungen zunehmen. Bei Sturm dürfen die Windkraftanlagen ohnehin nicht betrieben werden. Sie liefern dann ebenfalls keinen Strom. Bei zuviel Wind und Sonne helfen auch intelligente Schaltungen (smart grids) nicht weiter. Es bleibt nur, die Anlagen abzuschalten. Denn Strom ist großtechnisch nicht speicherbar (in Pumpspeicher-Kraftwerken nur indirekt und sehr begrenzt), und leitungsgebunden ist er außerdem. Das  Nichtspeichern-Können bedeutet, dass die jeweilige  Stromerzeugung der Kraftwerke stets dem jeweiligen Strombedarf der Verbraucher entsprechen muss, also nicht höher sein darf als diejenige Strommenge, die gerade gebraucht wird; anderenfalls bräche das Stromnetz zusammen.

Neue Stromleitungen verhindern Stromabschaltungen nicht

Gegen Abschaltungen bei zuviel „Ökostrom“ helfen auch keine neuen Stromleitungen, wie sie für unsinnig viel Geld durchs Land gezogen werden sollen. Dass sie helfen, glaubt auch der neugebackene Bundesumweltminister Peter Altmaier. So drängt er darauf, der Solarausbau müsse stärker mit dem Netzausbau in Einklang gebracht werden, sonst drohe gerade bei viel Sonne die Zwangsabschaltung von Solarparks. Doch das funktioniert nicht. Denn wenn Strom durch die neuen Überlandleitungen gedrückt wird, der keine Abnehmer findet, muss dieser Überschuss-Strom trotz der zusätzlichen Leitungen abgeschaltet werden. Wenn es ginge, ihn im Netz zu speichern und ihn dort darauf warten zu lassen, bis der Strombedarf wieder zugenommen hat, wäre das zwar toll, es geht aber dummerweise physikalisch nicht. Altmaier wird das sicher noch lernen. Aber er ist nicht der einzige, der als möglich verbreitet, was physikalisch nicht geht.

Die neuen Leitungen werden meistens unbeschäftigt sein

Außerdem sind die geplanten zusätzlichen Stromleitungen nur für diejenigen Zeiten erforderlich, in denen der Wind im deutschen Norden sehr stark weht. Das aber ist meistens nicht der Fall. Dann hängen die neuen Nord-Süd-Leitungen unbeschäftigt in der Landschaft herum. Wären die Leitungen Maschinen, würden sie wenigstens länger halten. Das jedoch ist bei unbeschäftigten Leitungen leider nicht so, die rosten,  auch wenn kein Strom fließt.  Auf diesen Aspekt hat der Energiewissenschaftler Helmut Alt, Aachen, aufmerksam gemacht.

Durch „Ökostrom“ immer mehr kritische Situationen

Zusätzlich ist die Unbeständigkeit von Sonne und Wind verantwortlich dafür, dass bei zuwenig Sonne und Wind, blitzschnell die herkömmlichen Stromlieferanten aktiviert werden müssen, um Stromausfälle zu wind- und sonnenarmen Zeiten zu verhindern. Auch steht diese Unbeständigkeit in der Regel überhaupt nicht im Einklang mit dem ständig wechselnden Strombedarf, weil dieser im täglichen Verlauf und jahreszeitlich bedingt erheblich schwankt. Daher ist es im deutschen Stromnetz zum Beispiel von Oktober 2011 bis März 2012 fast täglich zu kritischen Situationen gekommen, die ein schnelles Eingreifen nötig gemacht haben – so durch ein Hoch- oder Herunterfahren von herkömmlichen Kraftwerken. Das war einer Mitteilung der vier Betreiber von Stromübertragungsnetzen (Amprion, 50 Hertz, Tennet und Transnet BW) zu entnehmen. Nach dem Abschalten der Kernkraftwerke und mit der wachsenden Einspeisung schwankender „erneuerbarer“ Energien, las man dort, seien die Netze einer extrem hohen Belastung ausgesetzt.

Atomausstiegs-Euphorie, Ökostrom-Trunkenheit  und CO2-Vermeidungswahn

Müssen die Wind- und Sonnenstromanlagen abgeschaltet werden, weil sie bei zuwenig Nachfrage zuviel Strom liefern, erhalten ihre Betreiber trotzdem die festgesetzte Einspeisevergütung. 2011 sind wegen solcher Abschaltungen bereits 140 Millionen Kilowattstunden nicht in das Netz eingespeist worden. Für diesen nicht gelieferten Strom haben die Anlagenbetreiber eine Vergütung von mehr als 14 Millionen Euro bekommen. Selbst diesen nicht gelieferten Strom müssen wir Verbraucher mit der Stromrechnung bezahlen. Also wird mit jeder neuen zusätzlichen Anlage die Stromrechnung auch dadurch höher und die Strompreisspirale auch dadurch weiter nach oben gedreht. Die politisch herrschenden Kräfte rührt das kein bisschen. Bundesregierung, Länderregierungen, Bundestag, Landtage sowie viele Städte und Gemeinden fordern, planen und unterstützen den immer weiteren Ausbau von „Ökostrom“, als seien sie alle benebelt und als kümmerten sie die Folgen ihrer Atomtausstiegs-Euphorie, ihrer Ökostrom-Trunkenheit  und  ihres CO2-Vermeidungswahns überhaupt nicht. Sie sehen ihre Rolle nur als Profiteure der Wendepolitik, wahlpolitisch und finanziell, aber nicht als Wahrer von Bürger-Interessen.

Ließe sich Strom wirklich speichern, verleitete das zur Überschussproduktion von Strom

Apropos Strom speichern: Seit die Menschen, den Strom nutzen, haben es die Stromhersteller verstanden, stets genau jene Menge an Strom bereitzustellen, die gebraucht und abgenommen wird, also den Strom bedarfsgerecht zu produzieren, also ihr Angebot der Nachfrage exakt anzupassen. Was für ein Idealzustand. Folglich besteht, wenn die Versorgung so reibungslos klappt, überhaupt kein Zwang, Strom zu speichern. Bestünde aber die technische Möglichkeit dazu wirklich, dann wäre die Versuchung groß, Strom über den Bedarf hinaus zu produzieren. Die Begründung dafür würde schnell lauten, man brauche den gespeicherten Strom für Notzeiten, man müsse vorsorgen. Dann würden Politiker das natürlich sofort als zusätzliches Betätigungsfeld für sich selbst entdecken und als staatliche Aufgabe an sich reißen. Die Folge wären staatliche Stromkäufe auf Lager. Wohin das führt, haben wir einst bei den horrenden Agrarüberschüssen und den Butter-, Milchpulver- und Weizenbergen in den Staatslagern gesehen, die allenfalls zu Schleuderpreisen verkäuflich waren.  Staatliche Preis- und Abnahmegarantien verleiten stets zur Überschussproduktion und machen die Nutznießer richtig besoffen vor Glück.

„Ökostrom“ bedeutet Aufbau einer Doppelkapazität der Stromerzeugung

Sowie es also für Strom die Speichermöglichkeit gäbe, würde sie dazu missbraucht werden, Strom weit über den Bedarf hinaus zu produzieren. Die Kapazitäten dafür stehen mit dem Windkraft-, Fotovoltaik- und Biogasanlagen schon bereit und sollen noch weit größer werden. Aller Strom aus diesen Anlagen geht über die mögliche Stromproduktion der herkömmlichen Kraftwerke hinaus und übersteigt den Strombedarf, er ist überflüssig, er ist Überschussproduktion, er ist außerdem viel teurer als der „Ökostrom“. Mit diesen Anlagen baut Deutschland  neben der Kapazität herkömmlicher Kraftwerke, die weiterhin unentbehrlich sind, eine überflüssige und unwirtschaftliche Doppelkapazität der Stromerzeugung auf. Kommt aus ihnen Strom, der trotz EEG-Vorrang im Netz keinen Abnehmer findet, müssen die Betreiber, weil sie ihn nicht speichern können, die Produktion erfreulicherweise stoppen und ihre Anlagen abschalten.

Es ist geradezu ein Segen, dass man Strom nicht speichern kann

Strom auf Halde zu produzieren, geht also nicht. Es ist also geradezu ein Segen, dass man Strom nicht speichern kann. Zwar schützt dieses Unvermögen nicht vor Überschusskapazitäten, aber vor Überschussproduktion auf Lager. Die überschüssigen Kapazitäten lassen sich nur dadurch wegbringen oder zunächst wenigstens dadurch begrenzen, dass der Staat alle weiteren Wind-, Sonnenstrom- und Biogasanlagen nicht mehr subventioniert. Das kann gelingen, wenn wir Bürger uns gegen die jetzt noch programmierte Stromverteuerung auflehnen und der politischen Führung mit Demonstrationen Beine machen. Die „Energiewende“ als Abkehr von der Kernkraftnutzung, obwohl töricht, muss deswegen nicht aufgegeben werden. Wenn Kernkraftstrom von einer Mehrheit der Bürger nicht gewollt ist, weil sie – wie berechtigt oder unberechtigt auch immer – Angst vor Radioaktivität hat, dann ist es vernünftig, ihn durch Strom aus Kohle oder anderen Energieträgern zu ersetzen, aber bitte nicht durch Strom aus Wind, Sonne und „Biogas“.

Viele Menschen können den Energiewende-Strom nicht mehr bezahlen

Wegen des „Ökostroms“ werden die Stromrechnungen immer höher. Das ist kein Wunder, denn die „Energiewende“ bedeutet nichts weiter als die Installation eines zusätzlichen zweiten Systems der Stromerzeugung und des Stromtransports, zusätzlich zum bestehenden und voll funktionierenden System. Die Stromkosten in Deutschland sind inzwischen etwa doppelt so hoch wie in den Vereinigten Staaten, Frankreich und vielen anderen Industrieländern. Immer mehr Menschen können ihren Strom nicht mehr bezahlen. Rund 600 000 Haushalten sei wegen offener Rechnungen der Strom schon gesperrt worden, war in Zeitungen zu lesen, Tendenz steigend. Schon erwägen Politiker, zahlungsschwache von der EEG-Zwangsumlage ebenso auszunehmen wie die die stromintensive Industrie. Das würde den übrigen Verbrauchern dann ebenfalls noch aufgeladen.

Mehr als 40 Prozent des Strompreises sind Steuern, Abgaben und Zwangsumlagen

Zusätzlich verteuert der Staat den Strom durch Steuern und Abgaben. Seit 1998 haben sich diese von jährlich 2,3 auf 23,7 Milliarden Euro verzehnfacht (FAZ vom 24. Mai 2012). Die Kosten durch das EEG entstehen durch die Einspeisevergütung, die Entschädigung für nicht eingespeisten Strom, die Vermarktungshilfe, die zusätzlichen Netzkosten, die Stromverluste beim Transport, die Schattenkraftwerke, die Begünstigungen stromintensiver Industriebetriebe, die Beihilfen für  Einkommensschwache, durch verbilligten Export von Überschussstrom und teuren Stromimport. Dazu kommt die Entschädigung für Unternehmen, die bei Stromengpässen Anlagen vorsorglich abschalten sollen. Nach Angaben des Branchenverbandes BDEW zahlt beispielsweise ein Drei-Personen-Haushalt bei einem Jahresverbrauch von 3500 Kilowattstunden für seinen Strom monatlich insgesamt etwa 75 Euro, davon 34 Euro für Steuern und Abgaben und 41 Euro für  Erzeugung und Transport. Nach einer Faustzahl machen Steuern, Abgaben und Zwangsumlagen gut 40 Prozent aus, Stromerzeugung und Netznutzung knapp 60 Prozent. Weil zuviel Sonne und Wind den Strom wegen des EEG immer teurer machen, ist man doch sehr versucht zu wünschen, es möge nur wenig Wind wehen und die Sonne nur so viel scheinen, wie es für das Wohl von Pflanzen und Menschen gerade unerlässlich ist.

„Ökostrom“ ist unzuverlässig und fünfmal teurer als herkömmlicher

Im laufenden Jahr 2012 werden die staatlich verfügten Entgelte für Strom nach dem Erneuerbaren-Energien-Gesetz (EEG-Strom) wohl 20 Milliarden Euro erreichen. Unausweichlich ist das jedenfalls dann, wenn der Bau von Anlagen zur Stromerzeugung aus Wind, Sonne und Biomasse nach dem Plan der Bundesregierung fortgesetzt wird. Dann kämen schon über 20 Prozent des deutschen Stroms aus dieser unbeständigen Energiequelle. Aber mit diesen rund 20 Milliarden Euro könnten die ohnehin weiter notwendigen Dampfkraftwerke sogar den gesamten deutschen Strombedarf wie zuvor allein decken  – und zwar verlässlich. Denn der EEG-Strom ist mehr als fünfmal so teuer als der konventionelle Dampfkraftstrom und obendrein unverlässlich, weil er nicht beständig hinreichend verfügbar ist.

Wir brauchen die Wende der Wende

Wir brauchen in der Energiepolitik die Wende der Wende. „Ökostrom“ muss ohne Staatshilfe auskommen, ohne Subventionspreis und Zwangseinspeisung, auch ohne staatliche Quote, wie sie Rainer Brüderle propagiert hat. Die Profiteure haben sich lange genug an der Preis- und Abnahmegarantie gelabt. Ohne Staatshilfe ist der „Ökostrom“, weil zu teuer, verloren. Dann werden auch die superteuren neuen Stromtrassen und die Doppelkapazität der Stromerzeugung überflüssig. Dafür tritt auch die Nationale Anti-EEG-Bewegung (NAEB) ein. Sie ist eine Stromverbraucher-Schutzorganisation, geführt als eingetragener Verein (e.V.), in dem auch ich Mitglied bin. Sie ist unabhängig von Interessengruppen, ist besetzt mit Fachleuten in Vorstand und Beirat, verfolgt keine eigenen wirtschaftlichen Interessen, ist steuerlich als gemeinnützig anerkannt, finanziert sich ausschließlich durch Spenden. Nähere Informationen über ihre Tätigkeit finden sich hier: www.naeb.info/ und hier www.windstrom-kosten.de/

Und immer daran denken:

                                                                                                                                          – Nachts scheint keine Sonne, bei Regenwetter und bedecktem Himmel fällt sie ebenfalls aus; Wind weht meist zuviel oder zuwenig; Strom lässt sich nicht speichern; der Acker soll Brot fürs Volk liefern, nicht aber "Biogas" für Strom.

 Dr. Klaus-Peter Krause; zuerst erschienen auf Freie Welt Blog




Climate change is pseudoscience

 
Abbildung 1, Pseudowissenschaft im 19. Jahrhundert.
Wer kennt sie nicht, die Schreckens- und Horrorszenarien, die Medien, aber auch (vermeintlich) wissenschaftliche Institutionen nutzen, um sich am Klimarummel gütlich zu halten.
….
Abbildung 2 links zeigt einen Aufmacher von BILD, welche z.B. 2007 ihre Leser schockierte: “Felder, die aussehen wie Mondlandschaften. Flüsse, die sich in ihrem Bett zusammenkauern. Wälder, die verdursten … Wird es ZU WARM? Leben wir bald in Sahara-Deutschland?“ Na, immerhin haben die verantwortlichen Redakteure nicht vergessen, das Fragezeichen zu setzen. Auch der Wetterdienst (wir kennen alle den DWD und seine Aussagen, EIKE berichtete ausführlich darüber🙂 wurde nicht vergessen, als „Division“ aufzustellen. Dieser warnt schon mal vor einem Hitzetod. Fragt sich nur, was beim Wetterdienst zu Grabe getragen wurde.
Jedoch nicht nur Massenmedien, deren wissenschaftliche Tiefe oft genug an der Oberfläche endet, bedienen sich Wüstenszenarien, um darzulegen, was den Erdenbürgern bevorsteht, wenn sie vom rechten CO2-Glauben abfallen, sogar solch ehrwürdige Institutionen, wie National Geographic bedienen sich plakativer Darstellungsformen (Abbildung 2, rechts). Wie die Realität aussieht, zeigt sich, wenn sich der Betrachter auf den Sahara-Kontinent, also Afrika, begibt.
Im letzten IPCC-Bericht AR4 (2007) der medienwirksam verbreitet wurde, ist die folgende Abbildung zu sehen:

Abbildung 3 zeigt die weltweiten Auswirkungen des Klimawandels nach Ansicht des IPCC, wie sie im AR 4, April 2007, für politische Entscheidungsträger dargestellt sind. Für Afrika wird bis 2020 ein 50%-iger Rückgang der Agrarproduktion wegen des Klimawandels, der zur Austrocknung und damit Erntereduzierungen führen soll, angegeben. Afrika trocknet demnach aus und versteppt/verwüstet. Man beachte: Wegen Austrocknung.
Wie sieht nun die Realität aus, da EIKE-Leser wissen, dass bei Teilen des IPCC zuweilen Realitätsverlust vorliegt (siehe ClimateGate, HimalayaGate, AmazonGate, ArtensterbenGate,…).
Am 28. Juni 2012 erschien die folgende Veröffentlichung der LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt (Goethe Universität), die auch in Nature veröffentlicht wurde:
“Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser“
Dort ist zu entnehmen:
“Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in “Nature” veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid‐ Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2‐Wert überschritten wird. Da sich diese Schwelle jedoch von Gegend zu Gegend unterscheidet, verläuft der Wandel auf regionaler Ebene nicht synchron. Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel.“
Donnerwetter, Afrika wird grüner! Mehr Wälder bedeuten auch mehr Wasserspeicher. Afrika wird fruchtbarer. Welch krasser Gegensatz zu den Horrorszenarien des IPCC. Dabei sagen die Frankfurter Forscher nichts anderes, als dass, was die NASA und die Naturforscher unter den Klimaforschern (einige sagen auch Klimarealisten) schon lange wissen, wie die folgenden Abbildungen belegen.

Abbildung 4: Der positive Einfluss der CO2-Erhöhung wird durch die Satellitenauswertung ersichtlich. Sie zeigt die Vegetationsveränderung über die letzten 20 Jahre vor 2003. Grüne Stellen zeigen Vegetationszuwachs, rote dagegen einen Rückgang. Quelle: NASA, erschienen in Science, 06. Juni 2003.
Dass CO2 Dünger für die Vegetation ist, wissen Gärtner ebenfalls schon lange. Nicht umsonst besteht Dünger zu großen Teilen aus gebundenem CO2. So ist es denn nicht verwunderlich, dass in den letzten 20 Jahren weltweit die Wüsten auf dem Rückzug sind und nicht, wie in diversen Schreckensszenarien bewusst falsch angegeben, auf dem Vormarsch. Die Wüste Sahara schrumpfte im Zeitraum der letzten 20 Jahre um 300.000 km2, ein Gebiet, fast so groß wie Deutschland (357.000 km2).

Abbildung 5 zeigt die Zunahme der Vegetation in der Sahelzone im Zeitraum von 1982 – 1999. Dem Zeitraum, in dem auf der Erde die Mitteltemperaturen leicht angestiegen sind, Quelle: Der Spiegel, 17/2009, S. 137. Die Gleichmäßigkeit der Vegetationsausbreitung lässt nur den Schluss zu, dass es sich um einen positiven Klimatrend handelt, so der schwedische Geograph von der Lundt-Universität, Lennart Olsson.
So zeigen seit langem Studien, den positiven Einfluss von CO2 auf die Nahrungsmittelproduktion (Abbildung 6).

Abbildung 6 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt eindrucksvoll, dass sowohl eine Erhöhung von 295 ppm auf derzeit 383 ppm, sowie eine weitere Erhöhung des atmosphärischen CO2-Gehalts auf z.B. 600 ppm, für die Pflanzen- und somit für die Tierwelt nicht katastrophal, sondern segensreich ist! Dies bestätigt eine Studie von Prof. Hans-Joachim Weigel (Bundesforschungsinstitut für ländliche Räume).
Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: http://www.nhteapartycoalition.org/pdf/LeonAshby.pdf

In der Abbildung 7 links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er heute auf dem Mauna Loa gemessen wird. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Eindrucksvoller kann nicht unter Beweis gestellt werden, dass CO2 Pflanzen und damit Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration für Pflanzen nicht optimal ist.
Die Bilderserie belegt eindrucksvoll, dass zum einen CO2 kein Schadstoff ist und zusätzliches CO2 in der Atmosphäre für Pflanzen und damit natürlich auch für Menschen von großem Nutzen ist.
Zu der Bilderserie oben aus derselben Quelle, die Darstellung, wie sich prozentual das Wachstum der Pflanzen steigern lässt, wenn sich die CO2-Konzentration der Atmosphäre ändert (Abbildung 8). Deutlich ist zu erkennen, dass die gegenwärtige CO2-Konzentartion in der Atmosphäre für Pflanzen alles andere als optimal ist. Es ist demnach weit gefehlt, in Panik zu verfallen, sowie Schreckensszenarien zu entwerfen, wenn der CO2-Pegel weiter ansteigt. Genau das Gegenteil ist für die Biosphäre zutreffend.

Untersuchungen, die zeigen, dass Afrika grüner und damit fruchtbarer wird, passen jedoch so gar nicht in die Schreckensszenarien des IPCC und dessen Anhänger und Nature ist nun nicht dafür bekannt, dem IPCC kritisch gegenüber zu stehen und so ist es den Autoren um Nature gelungen, die positive Nachricht (Afrika wird grüner) in eine negative zu wandeln. Am Schluss steht denn folgendes:
“Sollten Graslandschaften und offene Savannen durch Baumsavannen oder Wälder ersetzt werden, geht zudem eine einzigartige Flora und Fauna verloren, die in diesem Lebensraum heimisch ist. Der Anstieg des Kohlendioxidgehalts in der Atmosphäre ist daher ein weiterer Stressfaktor…“
Aha, die Artenvielfalt (“einzigartige Flora und Fauna“) geht dann also verloren. Nun, aus unseren Breiten wissen wir, dass offene, unbewirtschaftete Flächen eine hohe Artenvielfalt an Gräsern, Kräutern und damit an Insekten, Vögeln und Kleintieren hervorbringen, als dies gegenüber unseren Waldgebieten der Fall ist. Allerdings bestehen unsere Waldgebiete vorzugsweise aus Nutz- und damit Monokulturwäldern. Urwälder gibt es in Europa kaum noch. In der Studie befinden wir uns aber in Afrika. Sind dort nicht die tropischen Regenwälder, von denen wir wissen, dass sie die höchste Artenvielfalt überhaupt beherbergen?

Abbildung 9 (Quelle: Wikimedia Commons) zeigt die Savannengebiete (braun) der Erde (Wüstengebiete: gelb). In Afrika liegen diese demnach angrenzend zum tropischen Regenwald. Der Wald und damit auch der tropische Regenwald breiten sich also aus und dies soll die Artenvielfalt beeinträchtigen?
Es ist doch immer wieder erstaunlich, wie sich die Klimaforscher um das IPCC ihre Welt immer wieder aufs Neue basteln, so, wie sie ihnen gerade gefällt. Aber wie lässt bekanntlich Astrid Lindgren ihre Heldin ausrufen: “Ich mach mir die Welt, widewidewie sie mir gefällt.” Ganz offensichtlich haben die „Helden“ in der IPCC-nahen Klimaforschung, sich diese Parole allzu sehr zu Herzen genommen – völlig losgelöst von der Erde, wie in einem Schlager der 1980-Jahre zu vernehmen.
Nachfolgend sind einige dieser Kommandanten, die nach den Aussagen des Physik-Nobelpreisträger Ivar Giaever als Pseudowissenschaftler bezeichnet werden dürfen, aufgeführt. Die folgende Reihe hat weder den Anspruch auf Vollständigkeit, noch ist sie mit einer Klimaahnenreihe zu verwechseln.
 
BILD vom 05.11.2011 “Klimaforscher warnt vor Sahara-Sommern“ (Anmerkung des Autors: Wir erleben gerade einen. Der Autor wusste bis jetzt allerdings nicht, dass es in der Sahara so viel regnet.) Auch beachte man die Handbewegung und vergleiche sie mit Abbildung 1 (der dortigen rechten Hand), was natürlich rein zufällig ist.
 
Klimaforscher Hansen, diesmal nicht bei einer seiner Sightseeing-Touren in die Arktis/Antarktis.
http://wattsupwiththat.files.wordpress.com/2011/12/james-hansen-arrested.jpg
http://wonkroom.thinkprogress.org/wp-content/uploads/2010/09/hansen_arrest.png
 
Quelle: (http://de.academic.ru/dic.nsf/dewiki/577954)
Das letzte Bild in der Reihe zeigt einen weiteren, solchen Klima(folge)forscher, dem ganz offensichtlich die Arbeit über den Kopf gewachsen ist, zumindest lässt das Bild diesen Schluss zu. Daher kann es nicht weiter verwundern, wenn von dort solche Statements kommen: „„..dann würde die Erde explodieren“ (http://de.youtube.com/watch?v=kqGVNqiwu7w).  Hier wird Wissenschaft mit Science Fiction verwechselt und Pseudowissenschaft mit Damaturgie unterlegt, die einem Edgar Wallace (Die Bande des Schreckensoder „Neues vom Hexer“) gerecht werden kann.
Damit die vor genannten Forscher wieder den notwendigen Überblick und Bodenhaftung gewinnen, empfiehlt der Autor ihnen einen Besuch auf der EIKE-Webseite, dort können die Klimaforscher nachschauen, wie es in der Welt da draußen wirklich aussieht. Gerne nehmen wir uns bei EIKE auch die Zeit, in einem Seminar, die Herren mit den Abläufen in der Klimathematik vertraut zu machen.
Die angesprochene Pseudowissenschaft wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Computermodelle genannt) und Spielplätze nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur, wie sie sich im rituellen Tzolkin-Kalender widerspiegelt.
Raimund Leistenschneider – EIKE




Tödliche Umweltpropaganda

Am 17. 6. 2012 schrieb Alan Caruba auf seine Webseite einen kritischen Kommentar zu den Folgen von Rahel Carsons Buch „Der Stumme Frühling“ (The Silent Spring).
„Der Stumme Frühling“ wird 50 Jahre alt.

Ein todbringendes Erbe

Von Alan Caruba

Es gibt Bücher, die Millionen den Tod gebracht haben. “Das Kapital” von Karl Marx führte zum schlimmsten Wirtschaftssystem unserer Zeit und kostete Millionen von Russen, Chinesen und Anderen das Leben.
Hitlers „Mein Kampf“ stachelte Deutschland auf, das Buch hat in Europa zum 2. Weltkrieg geführt, und es ist für das vorsätzliche Ermorden von 6 Millionen Juden und weiteren fünf Millionen Christen in den Konzentrationslagern verantwortlich, ganz zu schweigen von den vielen Millionen Kriegstoten. Die Nazi-Führer waren glühende Umweltfanatiker.
In diesem Jahr erleben wir den 50. Geburtstag des Buches „Der stumme Frühling“ (The Silent Spring) von Rachel Carson; eines Buches, das überall als Anfang der Umweltbewegung angesehen wird, in Amerika besonders als der Beginn der Furcht vor Pestiziden, vor allem vor DDT.

Briefmarke zu Ehren von Rachel Carson

Acht Jahre mussten zwischen der Buchveröffentlichung und dem ersten „Earth Day“ 1970 vergehen, bis der Umweltbewegung Regierungsmacht verliehen wurde durch die Schaffung der (amerikanischen) Umweltschutz-Agentur EPA.
Im September kommt ein neues Buch heraus: „Silent Spring at 50: The False Crises of Rachel Carson“ (Hrsg.: Cato Institut, $25,95). Angesichts des „Erdgipfels“ vom 20. Juni 2012 in Rio kommt es gerade richtig. In „Silent Spring“ gibt es Kapitel mit Überschriften wie „Elixire des Todes“, „Sinnlose Zerstörung“ und „Tote Flüsse“. Was fehlt, ist Wissenschaftlichkeit und verlässliche Fakten.
DDT war weitbekannt als Schutz für die menschliche Gesundheit zusammen mit einer breiten Palette von Chemikalien zum Schutz der Ernten gegen Insektenfraß, Nagetiere, Unkraut. Zu Recht ist das Buch wegen der Verursachung von wortwörtlich Millionen von Toten verurteilt worden, seit die amerikanische Umweltbehörde EPA im Jahre 1972 das DDT bannte.
Wiederholt hatten viele Verantwortliche für die Öffentliche Gesundheit vor den desaströsen Folgen eines DDT-Bannes gewarnt, auch die Weltgesundheitsorganisation und die Panamerikanische Gesundheitsorganisation.
Noch heute ignoriert die EPA Beweise oder sie manipuliert sie, um ihre damaligen Gesetze zu rechtfertigen.
Der DDT-Erfinder, Dr. Paul Muller, erhielt 1948 einen Nobel-Preis für die Entdeckung der Wirkung des DDT bei die Rettung des Lebens von Hunderttausenden von Soldaten, die gegen die Achsenmächte im 2. Weltkrieg kämpften, und bei der Rettung von Überlebenden der Nazi-Todeslager. DDT tötete die Insekten, die Typhus und andere Krankheiten verbreiten. Und das alles ohne irgendein Anzeichen der behaupteten Krebsgefahren, die von Frau Carson angeführt wurden.
Neun Autoren sammeln in „Silent Spring at 50“ überzeugende Gründe gegen Frau Carsons obsessive Furcht vor den bis dahin als nützlich angesehenen Chemikalien. Das Buch ist ein Klassiker gegen Lügen-Wissenschaft und gegen Angstmacherei, wie sie zum ständigen Repertoire der Umweltbewegung gehört.
„Carson muss die große Auswirkung des DDT auf die öffentliche Gesundheit gekannt haben und dass es ein Lebensretter war,“ schreiben Donald R. Roberts und Richard Tren, Autoren eines Kapitels.
Sie beschreibt in „Silent Spring“ auch einige (Gesundheits-)Programme. Doch der Großteil des Buches ist eine einzigartige Attacke auf DDT und weitere Insektizide. Sie geht überhaupt nicht auf deren tatsächlichen Nutzen ein.“
Im ersten Kapitel von „Silent Spring“ mit der Überschrift „Eine Erzählung von Morgen“ erfindet Carson eine Stadt, die so von Insektiziden verpestet ist, dass dort keine Vögel mehr zwitschern, weil sie alle vernichtet wurden. Das ist reine Fiktion. Studien haben in der Folge gezeigt, dass das von ihr beschriebene Aussterben nie vorkam. Jahrelange Vogelzählungen widerlegen die Anklage. Der Einsatz von Pestiziden in der Landwirtschaft wurde erstmals vom U.S.-Kongress 1910 gesetzlich geregelt und Generationen von Farmern haben auf naheliegenden Gründen sorgfältig darauf geachtet, dass sie ihre Ernten nicht vergifteten
Der Jahrestag der Veröffentlichung jenes Buches ist noch heute für jedermann bedeutend, auch für diejenigen, die erst nach dem DDT-Bann geboren wurden. Seit zehn Jahren gibt es in Amerika eine Bettwanzenplage von der Ostküste bis zur Westküste. Dazu wäre es nicht gekommen, wenn DDT erlaubt wäre. Die Mainstream-Medien haben über die Plage berichtet, aber nie diese offensichtliche Tatsache erwähnt, auch nicht, dass die EPA nur ein einziges Pestizid in ihrem Register hat, das gegen Bettwanzen wirkt, und sie verbietet normalerweise den Kammerjägern dessen Einsatz.
Auf Carson geht das „Vorsorgeprinzip“ zurück, das von Umweltschützern und Regierungsstellen immer gern im Munde geführt wird, das aber tatsächlich die Öffentlichkeit ihres Schutzes vor den Gesundheitsgefahren beraubt, die uns Mutter Natur beschert mit Insekten und Kleinnagern, von denen man weiß, dass sie Krankheiten verbreiten. Auch haben wir keinen Schutz vor Schimmelgiften wie Aflatoxin, viele Male giftiger als die Schwebstoffe, die als Gegenmittel verboten sind.

Malaria war einmal kurz vor dem Aussterben, doch sie ist nach dem DDT-Verbot wiedergekommen. Inzwischen haben einige der am meisten betroffenen Staaten die Erlaubnis erhalten haben, es wieder einzusetzen.
Das ist Rachel Carsons wahres und tödliches Erbe.
Und deswegen führt anscheinend so Vieles, was die Umweltbewegung vertritt, von der UNO, den Nichtregierungsorganisationen wie Greenpeace, Sierra Club, Friends of the Earth, World Wildlife Fund und Dutzenden anderen, schließlich zum Tod von Menschen im Namen der Rettung der Erde.

Übersetzung: Helmut Jäger, EIKE