Energiewende: „Letztlich machen wir der Welt vor, wie man Ressourcen verschwendet“

NovoArgumente: Hauptargument für die Energiewende ist der Klimaschutz. Welche Auswirkungen hat die deutsche Energiewende auf das Klima?

Joachim Weimann: Der Anteil Deutschlands an der weltweiten Emission von CO2 beträgt weniger als 2 Prozent. Das bedeutet, dass selbst dann, wenn wir unsere Emissionen auf Null herunterfahren, kein messbarer Einfluss auf das Klima zu erwarten ist. Deshalb gilt, dass eine Lösung des Klimaproblems, bzw. die Einhaltung des 2-Grad-Ziels, auf das sich die Staatengemeinschaft verständigt hat, nur gelingen kann, wenn sich eine große Koalition von Ländern findet, die gemeinsam in den Klimaschutz investieren. Die eigentlich spannende Frage ist deshalb, ob die deutsche Energiewende dazu beiträgt, eine solche Koalition zusammen zu bekommen. Ich glaube es nicht, denn die Energiewende wird sehr teuer und wird Deutschland stark belasten. Für eine internationale Lösung bräuchten wir aber Mittel, die wir den Ländern anbieten müssten, die weder eine moralische Verpflichtung zum Klimaschutz haben, noch ein nationales Interesse daran. Ohne Kompensationen durch die Industrieländer wird man die Schwellen- und Entwicklungsländer nicht ins Boot bekommen. Ob uns die Energiewende dafür noch Raum lässt, kann man stark bezweifeln.

Hat Deutschland eine Vorreiterrolle? Ist es wahrscheinlich oder wünschenswert, dass andere unserem Beispiel folgen?

Deutschland versucht mit der Energiewende eine Vorreiterrolle einzunehmen. Angesichts des globalen Charakters des Klimaproblems kann man so ein Vorhaben auch nur rechtfertigen, wenn man damit die Hoffnung verbindet, dass andere nachziehen werden. Wenn nur Deutschland Klimapolitik betreibt, werden alle Aufwendungen sowieso umsonst sein. Aber es stellt sich die Frage, ob wir ein gutes Beispiel geben. Das kann man zu Recht bezweifeln, denn Klimaschutz ließe sich mit anderen Instrumenten um ein Vielfaches besser gestalten, als wir es mit unserem EEG tun. Ein konsequenter Ausbau des Emissionshandels und der Verzicht auf die Subvention staatlich festgelegter Techniken würden die gleichen CO2-Vermeidungen zu erheblich geringeren Kosten ermöglichen. Letztlich machen wir der Welt vor, wie man erhebliche Mengen an Ressourcen verschwendet. Wir sollten nicht hoffen, dass uns das allzu viele nachmachen. Aber selbst wenn wir effiziente Klimapolitik machen würden, wäre keineswegs sicher, dass uns andere nachfolgen. Sowohl die empirische als auch die theoretische Forschung zu der Frage, ob „Leadership“ erfolgreich sein kann, kommen zu dem Ergebnis, dass damit wohl nicht zu rechnen ist. Die Erfahrungen, die wir auf den jährlichen Klimakonferenzen bisher gesammelt haben, scheinen das ja auch zu bestätigen. Obwohl wir uns seit Jahren als klimapolitischer Musterknabe herausputzen, ist der Einfluss Deutschlands auf den Klimakonferenzen vernachlässigbar gering.

Selbst unter den Bundesländern scheint es einen Wettstreit der Vorbildlichkeit zu geben. Der Landtag von NRW hat im Januar 2013 das erste deutsche Klimaschutzgesetz mit verbindlichen Zielen verabschiedet, NRW will damit „Vorreiter des Klimaschutzes in Deutschland“ werden, Brandenburg schmückt sich mit dem Leitstern, dem „Bundesländerpreis für Erneuerbare Energien“. Horst Seehofer will Bayern zum „Vorzeigeland für das postfossile Zeitalter“ machen. Was treibt die Politiker an? Der Kampf um moralisches Musterknabentum? Oder um Subventionen? Oder glauben sie wirklich, zu Prosperität oder zur Rettung der Welt beizutragen?

Solche Dinge gewinnen eine manchmal sehr merkwürdige Eigendynamik. Wenn der Anteil derer, die etwas stark befürworten, eine bestimmte Schwelle überschritten hat, dann fällt es Politikern – und übrigens auch Journalisten – sehr schwer, der Versuchung zu widerstehen, auf den fahrenden Zug zu springen und sich dafür feiern zu lassen, dass man ihn dabei auch noch ein bisschen anschiebt. Das funktioniert sowohl bei allgemeiner Zustimmung (alle wollen die Energiewende) als auch bei allgemeiner Ablehnung (niemand will die Atomenergie). Sie finden heute keinen Politiker und fast keinen Journalisten, der sich traut, gegen die Energiewende und für die Nutzung der Kernkraft einzutreten. Was nicht bedeutet, dass es niemanden gibt, der genau das für vernünftig hält. Warum auch, schließlich ist es genau das, was die meisten anderen Länder tun.

Wie lassen sich die Kosten für die Energiewende abschätzen? Inwieweit sind die Erneuerbaren für den Strompreisanstieg der letzten Jahre verantwortlich?

Eine halbwegs verlässliche Abschätzung der Kosten der Energiewende ist zum gegenwärtigen Zeitpunkt nicht möglich. Dazu sind die Unsicherheiten zu groß. Alle bisher vorliegenden Schätzungen gehen von mehr oder weniger unrealistischen und sehr optimistischen Prämissen aus. Dennoch zeichnet sich bereits ab, dass es sehr teuer werden könnte. Wir müssen uns klarmachen, dass wir einen Totalumbau unseres Energiesystems brauchen, um die Stromversorgung zu 80 Prozent aus Erneuerbaren zu sichern. Wind und Sonne richten sich nicht nach der Stromnachfrage und die Speicherung großer Energiemengen zu halbwegs vertretbaren Kosten ist noch in weiter Ferne. Wir müssen deshalb mit sehr großem Aufwand dafür sorgen, dass es möglich wird, bei stark fluktuierender Einspeisung die Netzspannung konstant zu halten und die Leistung der Nachfrage anzupassen. Das wird sehr schwierig und sehr teuer. Die Tatsache, dass wir inzwischen die zweithöchsten Strompreise in Europa haben, ist zu einem erheblichen Teil darauf zurückzuführen, dass wir den Erneuerbaren so viel Raum geben. Es ist nicht davon auszugehen, dass es in Zukunft billiger wird. Beispielsweise zeigt sich immer deutlicher, dass Offshore-Anlagen viel teurer sein werden als bisher gedacht. Ohne Offshore ist aber gar nicht daran zu denken, dass das Ausbauziel der Erneuerbaren erreicht werden könnte.

Wie sieht es bei den Arbeitsplätzen aus? Kann sich die Energiewende wirklich zur Jobmaschine entwickeln?

Bemerkenswerterweise werden von den Verfechtern der Energiewende einfach die Arbeitsplätze gezählt, die im Bereich der Erneuerbaren entstanden sind. So kommt man auf erhebliche Zahlen und damit begründet man die Überlegung, dass es sinnvoll sei, diesen Sektor zu stärken. Leider macht man dabei einen folgenschweren Fehler. Man vergisst nämlich, die Arbeitsplatzverluste abzuziehen, die an anderer Stelle durch die Investitionen in Erneuerbare entstehen. Durch den staatlichen Eingriff werden Investitionen in Bereiche gelenkt, in denen sonst keine stattfänden. Diese Investitionen fehlen dann aber an anderer Stelle. Dazu kommt, dass wir für die Vermeidung von CO2 viel zu viel bezahlen. Eine Tonne CO2-Vermeidung durch Photovoltaik kostet etwa 500 Euro. Im konventionellen Kraftwerkebereich liegen die Kosten bei einem Hundertstel dieses Wertes. Die 495 Euro, die wir zu viel zahlen, fehlen an anderer Stelle als Nachfrage. Auch das hat Arbeitsplatzeffekte. Dazu kommt, dass die höheren Strompreise natürlich ebenfalls negative Effekte haben. Zieht man alle diese „Kosten“ von den Bruttoarbeitsplatzzahlen ab, erhält man den Nettoeffekt, und ob der noch positiv ist, kann man sehr stark bezweifeln. Ein weiterer Punkt kommt hinzu. Im Sektor der Erneuerbaren braucht man vor allem hoch qualifizierte Arbeitskräfte aus dem technischen Bereich. Also genau die Arbeitskräfte, die in der restlichen Industrie schon heute Mangelware sind und in Zukunft erst recht eine solche sein werden. Durch die hohen Subventionen wird der Arbeitsmarkt in einer sehr schädlichen Weise verzerrt. Hoch qualifizierte Arbeit wird nicht dorthin gelenkt, wo sie die höchste Produktivität entfaltet, sondern dorthin, wo es die meisten Subventionen gibt. Vergisst man, alle diese negativen Auswirkungen in Rechnung zu stellen und zählt nur die Bruttoarbeitsplätze und die Bruttoinvestitionen, dann ist das ungefähr so, als verwechsele ein Kaufmann Umsatz mit Gewinn. Es ist schon interessant, dass Roland Berger in seiner „Green Economy Studie“, die er für das Bundesumweltministerium angefertigt hat, genau das tut. Genauso interessant ist, dass das Ministerium eine solche Studie an einen Unternehmensberater vergibt und nicht etwa an ein unabhängiges wirtschaftswissenschaftliches Forschungsinstitut, von denen es genug in Deutschland gibt.

Ein deutsches Spezifikum der Energiewende ist ja, dass gleichzeitig auf fossile Energieträger und auf CO2-freie Atomkraft verzichtet werden soll. Welche Bedeutung hat das komplette Ausblenden der Kernenergie?

Es macht alles deutlich komplizierter und teurer. Atomkraftwerke laufen in der Grundlast. Die Erneuerbaren sind bisher nicht grundlastfähig. Allein daraus ergibt sich bereits ein Problem, denn Braunkohle, die ansonsten in der Grundlast verwendet wird, kommt ja als Ersatz nicht in Frage. Man sollte sich übrigens nicht davon blenden lassen, dass es immer wieder Jubelmeldungen gibt, dass an bestimmten, windreichen Sonnentagen die Erneuerbaren bereits soundso viele Atomkraftwerke ersetzt haben. Es geht nicht darum, diese Kraftwerke an bestimmten Tagen zu ersetzen, sondern an 365 Tagen zu jeweils 24 Stunden! Dafür braucht man ein Vielfaches der bisher vorhandenen Kapazitäten an erneuerbarer Energie und die muss auch noch so verteilt sein, dass sie immer die Atomkraftwerke ersetzen kann, ganz gleich wie stark und wo der Wind bläst!

Allerdings muss man zwei Dinge feststellen. Erstens: Solange bis zu 80 Prozent der Bevölkerung die Atomtechnik ablehnen, muss die Politik sich diesem Willen beugen und aussteigen. Zweitens, der Ausstieg aus der Atomenergie bedeutet nicht, dass man eine Energiewende fahren muss, wie sie die Bundesregierung ausgerufen hat. Das ginge auch deutlich einfacher und ohne die enormen Risiken, die uns aus Gründen der politischen Opportunität auferlegt werden.

Mit welchen negativen Auswirkungen der Energiewende müssen wir rechnen?

Eine offensichtliche Folge wird sein, dass Energie immer teurer werden wird. Man kann nicht auf der einen Seite das Ziel verfolgen, den Stromverbrauch um 20 Prozent zu senken und auf der anderen Seite den Strompreis konstant halten. Dazu kommt, dass der Umbau des Energiesystems per se sehr teuer werden wird. Es ist auch zu befürchten, dass die Versorgungssicherheit, die wir bisher als selbstverständlich hingenommen haben, in Gefahr gerät. Es kann sein, dass es zu Blackouts wegen Überlastung oder wegen mangelnder Kapazitäten bei Spitzenlast kommt. Schließlich kann es passieren, dass unsere Wettbewerbsposition leidet. Schon jetzt zeichnet sich ab, dass die USA einen erheblichen Standortvorteil aus der Gas- und Ölschwemme haben, die sich dort entwickelt. Jedenfalls machen sich schon heute viele energieintensive Unternehmen auf den Weg in die USA. Wir werden den Nachteil hoher Energiekosten nicht durch Export von Energietechnik kompensieren können, denn wie das Beispiel der Solarbrache zeigt, können reife Technologien (und bei Wind und Sonnenkraftwerken handelt es sich teilweise schon jetzt darum) in anderen Teilen der Erde kostengünstiger hergestellt werden als bei uns. Wir fahren unsere Exporterfolge durch Innovationen ein, aber die fördern wir mit dem EEG ja nicht, denn das EEG subventioniert nur den Einbau vorhandener Technik. Insgesamt steht einem ökologischen Scheingewinn des EEGs damit ein erheblicher ökonomischer Schaden gegenüber.

Angenommen, es herrschte Einigkeit, dass CO2-Vermeidung wichtig und richtig ist. Wie könnte dann eine sinnvolle Strategie zur Senkung von globalen CO2-Emissionen aussehen?

Inzwischen glaubt kaum noch jemand daran, dass die großen Klimakonferenzen, die wir jährlich veranstalten, jemals einen Erfolg bringen könnten. Das war auch nie zu erwarten. Die Zahl der Verhandlungsteilnehmer ist zu groß und die Interessen zu heterogen, als dass man eine große Lösung erwarten könnte. Der einzige Weg, der nach meinem Eindruck Aussicht auf Erfolg verspräche, besteht darin, ausgehend von dem europäischen Emissionshandel sukzessive zu versuchen, die Anzahl der am Handel teilnehmenden Länder zu vergrößern. Also statt eines Top-down-Ansatzes einen Bottom-up-Ansatz, bei dem Verhandlungen mit einzelnen Ländern geführt werden, mit denen die Bedingungen einer Beteiligung am Handel auszuhandeln sind. Das würde nur gehen, wenn die reichen Länder dazu bereit wären, die armen Länder zu kompensieren. Beispielsweise könnte dies über die Zuweisung von Emissionsrechten geschehen, die die Industrieländer den Entwicklungsländern abkaufen müssten, wenn sie ihre Emissionen decken wollen. Mit anderen Worten, wir müssten dazu bereit sein, andere Länder für ihre Vermeidungsanstrengungen zu bezahlen. Ein erster Schritt könnte eine Fusion des EU-Handels mit den Handelssystemen in Australien und Kalifornien sein. Wie auch immer: Unter den Ökonomen gibt es einen sehr weitgehenden Konsens darüber, dass nur ein globales Emissionshandelssystem eine vernünftige Lösung des Problems wäre.

Sie haben Ihre Einschätzung im letzten Jahr im Auftrag der Enquete-Kommission „Wachstum, Wohlstand, Lebensqualität – Wege zu nachhaltigem Wirtschaften und gesellschaftlichem Fortschritt in der Sozialen Marktwirtschaft“ zusammengefasst. Haben Sie den Eindruck, dass die Argumente zu einem Umdenken führen?

Um ehrlich zu sein, habe ich den Eindruck, dass die meisten Mitglieder der Unterkommission, in der ich meine Expertise vortragen durfte, diese überhaupt nicht zur Kenntnis genommen haben. Jedenfalls hinterließ die Diskussion, die nach meiner Präsentation geführt wurde, diesen Eindruck. Die mündliche Vorstellung der Expertise fand übrigens unter sehr merkwürdigen Bedingungen statt. Der Vortrag wurde kurzfristig in einen viel zu kleinen Raum verlegt und es gab eine strikte Redezeitbegrenzung, die es unmöglich machte, auch nur die wichtigsten Argumente so vorzustellen, dass sie jemand nachvollziehen konnte, der die Expertise nicht gelesen hatte. Einige Tage nach der Präsentation in Berlin haben sich einzelne Abgeordnete bei mir gemeldet und sich für die Art und Weise, wie mit mir umgegangen wurde, entschuldigt. Das wäre nicht nötig gewesen, aber es war einfach schon sehr klar, dass meine Argumente der Mehrheit der Kommissionsmitglieder nicht willkommen waren und deshalb (erfolgreich) der Versuch unternommen wurde, sie gar nicht erst zur Kenntnis zu bringen. Das sagt viel über das Demokratieverständnis unserer Parlamentarier.

Prof. Joachim Weimann lehrt und forscht an der Fakultät für Wirtschaftswissenschaft der Otto-von-Guericke-Universität in Magdeburg. Zuletzt erschien von ihm gemeinsam mit Andreas Knabe und Ronnie Schöb Geld macht doch glücklich: Wo die ökonomische Glücksforschung irrt (Schäffer-Poeschel 2012, S. 214, EUR 29,95).

Verwandte Artikel

Fred F. Mueller: Energiewende: Durchwursteln bis zum Crash
Gerd Ganteför: Energiewende: Zu langsam und zu teuer
Heinz Horeis: Energiewende: Im Spargang an die Wand

Mit Dank übernommen von NOVO Argumente




Die Klimakatastrophe von 1986 und was daraus wurde Ein kritischer Rückblick zum Klimawandel

Vor fast 28 Jahren (im Januar 1986) gab die Deutsche Physikalische Gesellschaft in einer Pressekonferenz in Bonn eine alarmierende „Warnung vor einer drohenden  Klimakatastrophe“ heraus. Verantwortlich dafür machte die DPG den offensichtlich steigenden Anteil an Kohlendioxid und anderen Spurengasen in der Atmosphäre. Tatsächlich zeigten zwei Kurven, die des CO2 und die der Lufttemperatur, einen parallelen Anstieg seit Beginn der CO2-Messungen 1958 auf dem Mauna Loa (Hawaii). Eine statistisch signifikante Korrelation wurde unter fahrlässiger Missachtung statistischer Grundregeln für einen Kausalzusammenhang gehalten. Korrelation und Kausalität betrachtet der Statistiker allerdings immer mit äußerster Vorsicht, was aber hier ignoriert wurde.  Die DPG verfolgte mit dieser Kampagne noch ein anderes Ziel: Die in dieser Zeit heftig umstrittene Kernenergie, deren fehlende Akzeptanz sich in öffentlichen Krawallen und heftigen Protestdemonstrationen in den 1980er Jahren zeigte, sollte ein positiveres Image bekommen, sind die Kernkraftwerke doch offenkundig CO2-frei.

Schon 1987 wurden dann Grafiken (Abb. 1) veröffentlicht, die – ausgehend von einem steigenden CO2-Gehalt – einen resultierenden Temperaturanstieg um etwa 6°C bis zum Jahre 2100 dramatisch vorführen sollten. Dieser in Deutschland angezettelte Klimaalarm schlug zuerst in den USA hohe Wellen. Im politischen Umfeld der Vereinten Nationen wurde schon im darauffolgenden Jahr 1988 der Weltklimarat (IPCC, Intergovernmental Panel on Climate Change) ins Leben gerufen.

Mit großem finanziellen Aufwand initiierte der Weltklimarat ein Klimaforschungsprogramm, das weltweit mit den größten verfügbaren Rechnern Computermodellierungen zur Simulation einer künftigen Klimaentwicklung auf den Weg bringen sollte. Die in den folgenden Jahren publizierten Klimaszenarien zeigten dann erstaunlicherweise eine unglaublich gute Übereinstimmung mit der historischen Grafik von 1987 (Abb. 1). Selbst die heute aktuellen Klimamodelle erfüllen immer noch die damals postulierten Erwärmungseffekte.

 

Abb. 1:   Historische Grafik aus dem Jahre 1987 zum damals erwarteten Temperaturanstieg. Die Realität (grün) entwickelte sich jedoch anders (ergänzt nach KIRSTEIN).

Auch in Deutschland etablierte sich eine Klima- und Klimafolgenforschung mit starker politischer (und finanzieller) Unterstützung. Auf der Grundlage einer politisch angestoßenen Enquete-Kommission des 11. Deutschen Bundestages „Vorsorge zum Schutz der Erdatmosphäre“1 wurde dann eine Lawine von Forschungsprogrammen ins Rollen gebracht. Zahlreichen Forschungsinstituten in aller Welt wurden in immer größerem Umfang Fördermittel bewilligt, die thematisch im direkten oder mittelbaren Arbeitsfeld einer theoretisch möglichen, anthropogenen Erderwärmung standen.

Damals gab es zunächst wenige Kritiker zu dieser Forschungsrichtung. Einige Jahre später wurden aber zunehmend kritische Äußerungen bekannt, zunächst von Insidern des IPCC. Zum Beispiel schrieb Hartmut Bachmann2, der von Anfang an dem IPCC sehr nahe stand, das Buch: „Die Lüge der Klimakatastrophe“. Die zentrale Frage in seinem Buch lautet: „Cui bono?“ Auf der Grundlage seiner umfangreichen Erfahrungen beim IPCC berichtet er über kriminelle Machenschaften und Manipulationen zur Erzeugung von Angst als Machtmittel. Er zitiert wörtlich einige Vertreter des IPCC: „Um Aufmerksamkeit zu erregen brauchen wir dramatische Statements und keine Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er eher ehrlich oder eher effektiv sein will.“ Oder: „Unless we announce desasters, nobody will listen.“ Diese zutiefst unwissenschaftliche Konzeption, die die mehr politische als wissenschaftliche Tätigkeit des IPCC offenlegte, hat dann auch andere Wissenschaftler bewogen, den Weltklimarat wieder zu verlassen. Vincent Gray3, ehemaliger Expert Reviewer des IPCC, stellte Mitte 2008 fest, dass der Weltklimarat grundsätzlich korrupt sei und daher abgeschafft werden sollte. Und weiter: Dass die Erde durch Kohlendioxid-Emissionen aufgewärmt würde, sei „tödlich“ fehlerhaft. Als weiteres Beispiel sei hier noch der der schwedische Ozeanograph Nils Axel Mörner4 erwähnt. Er war von 2000 bis 2007 beim IPCC Hauptberichterstatter für den Meeresspiegel-Anstieg. Er leitet seit Jahren das Stockholmer Institut für Paläogeowissenschaften. Nach seinem Ausscheiden beim IPCC setzte er sich in einem Interview sehr kritisch mit der beim IPCC geführten Meeresspiegel-Betrachtung auseinander: „I have been the expert reviewer for the IPCC, both in 2000 and last year (2007). The first time I read it, I was exceptionally surprised. First of all, it had 22 authors, but none of them were sea-level specialists…” „If you go around the globe, you find no rise anywhere. But they (IPCC) need the rise.“ – Ein vernichtendes Urteil eines IPCC-Insiders zu allen Überflutungs-Szenarien und letztlich auch zur Arbeitsweise des IPCC.

Auf der anderen Seite sind einige Institute bis heute immer noch der Meinung, der Mensch sei mit seinen CO2-Emissionen tatsächlich verantwortlich für einen eventuellen zukünftigen Temperaturanstieg, obwohl der britische meteorologische Dienst (UK MetOffice)5 erst Anfang 2013 bekanntgab, dass es seit etwa 16 Jahren keine Erderwärmung mehr gibt. Der Deutsche Klimaforscher Hans von Storch, der immer den menschgemachten Klimawandel propagiert hatte, kommt in einem Spiegel-Interview6 zu dem überrachenden Schluss, dass die Modelle die gegenwärtige Temperaturentwicklung nicht erklären können und die Klimawissenschaft vor einem Rätsel steht: „Wenn das so weitergehen sollte, müssten wir uns spätestens in fünf Jahren eingestehen, dass mit den Klimamodellen etwas fundamental nicht stimmt. Ein Erwärmungsstopp, der 20 Jahre andauert, kommt in keinem einzigen Szenario vor. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

Dieser fundamentale Fehler in den Modellen könnte darin bestehen, dass bislang vorrangig immer die steigende Kohlendioxidkonzentration als Motor einer vorhergesagten Erderwärmung angenommen wird. Dies mag auf den ersten Blick auch plausibel erscheinen, wenn  die Ergebnisse der Vostok-Eisbohrkerne (Antarktis) mit einer zu groben Zeitskala wie bei Petit7 betrachtet werden (Abb. 2). Die Parallelität der beiden Kurven verleitet auch zunächst zu der Annahme einer „kausalen“ Abhängigkeit der Lufttemperatur vom atmosphärischen CO2-Gehalt.

 

Abb. 2:   Die Vostok-Eisbohrkerne zeigten einen zunächst falsch gedeuteten Zusammenhang zwischen CO2-Konzentration und Lufttemperatur (nach Petit, 1999)7 

Aber nur wenige Jahre später stellte sich dieser „Beweis“ als grundlegend falsch heraus. Bei Analysen mit genauerer zeitlicher Auflösung wurde klar: Die sich ändernde Kohlendioxidkonzentration folgt mit einer zeitlichen „Verspätung“ bzw. Phasenverschiebung von rund 800 Jahren dem Temperatursignal  (z.B. Mudelsee8). Damit war die bisherige Annahme von der Erderwärmung als Reaktion auf zunehmende CO2-Konzentrationen hinfällig. Umgekehrt: Erst durch die natürlichen pleistozänen Temperaturänderungen wurden die Schwankungen der CO2-Variationen verursacht! Ein logisches Nachvollziehen dieses Umkehrschlusses liegt auf der Hand: Erst wenn die Temperaturen und damit die Meerestemperaturen in einer beginnenden Warmzeit langsam steigen, folgt ein allmähliches Ausgasen des Kohlendioxids aus den großen Ozeanen der Erde mit einer messbaren Verzögerung. Andererseits geht atmosphärisches CO2 beim Übergang in eine Kaltzeit langsam wieder in Lösung der großen Ozeanwassermengen. Für die Klimawandler war ein wichtiges Argument nicht nur verlorengegangen, sondern die Umkehrung der bisherigen Schlussfolgerung wurde nun auch noch erstaunlich plausibel.

Zudem haben sich viele Klimavorhersager in der Vergangenheit durch zahlreiche Aussagen zur globalen Klimaentwicklung absolut unglaubwürdig gemacht. Falschaussagen, die schon bald wieder zurückgenommen werden mussten, waren keine Seltenheit. So wurde zum Beispiel ein Abschmelzen der Himalaya-Gletscher für 2035 vorhergesagt. Auf massive Kritik indischer Wissenschaftler wurde dann ein „Zahlendreher“ eingestanden, der in einer „wissenschaftlichen“ Titelzeile wohl bislang nicht da gewesen ist: Es sollte angeblich 2350 heißen. Glaubt man diesen Irrtum, fragt es sich, welcher seriöse Wissenschaftler heute eine Prognose für genau dieses Jahr mit einem so weiten, aber exakten Zeithorizont trifft? Wem hilft eine solche Aussage?

Im Jahre 2010 deckten zwei US-Wissenschaftler Joseph D´Aleo und Anthony Watts9 auf, dass seit etwa 1990 sehr viele Stationen in ländlichen Regionen, Höhenlagen und in höherer geographischer Breite aus der statistischen Klimatrend-Analyse entfernt wurden. Damit bekam weltweit der Typ des wärmeren Stadtklimas ein weitaus größeres Gewicht. Die gewünschte globale Erwärmung konnte mit dieser spezifischen Stationsauswahl eindrucksvoller vorgeführt werden. Eine nicht nur für die Klimageographie unglaubliche Manipulation.

      

Abb. 3:   Um 1990 wird die Gesamtzahl der betrachteten Klimastationen insbesondere in ländlichen Zonen drastisch gesenkt. Im Ergebnis dominiert nun das Stadtklima und der Mittelwert der Temperatur steigt an.

Unabhängig davon hat das US-Goddard Institute for Space Studies (GISS) nachweislich bei vielen  Klimastationen weltweit einzelne oder eine Gruppe von Messwerten – im Internet dokumentiert -abgeändert. Mehrfach wurden Klimadaten seit 2012 geändert. F.-K. Ewert10 konnte in minuziöser wissenschaftlicher Detailarbeit zeigen, wie die bis 2010 aufgezeichneten Klimadaten von 120 Stationen ab 2012 geändert und verfälscht wiedergegeben wurden, um damit jetzt deutlichere Erwärmungseffekte vorzutäuschen.

Viele weitere Thesen, die die Klimakatastrophe bestätigen sollten, können hier nicht ausführlich vorgestellt werden, sondern nur zum Teil stichwortartig angerissen werden, wie z.B. das ständig sich wiederholende Vorrücken und Zurückweichen der Alpengletscher, die Halbwahrheit über den Rückgang der Eisbärenpopulation in der Arktis, die sich regelmäßig wiederholenden arktischen Polareisschwankungen, die angebliche Beeinflussung des Golfstroms und vieles mehr.

Auch in völlig anderen Klimazonen wird an falschen Vorstellungen vom Klimawandel ernsthaft festgehalten. Die Sahelzone gilt als Inbegriff für Desertifikation, Dürre, Wüstenausbreitung und Hunger. Der Amsterdamer Geograph Chris Reij11 räumt mit diesen populären Mythen einer Katastrophen-Region auf. Seit langer Zeit beobachtet und dokumentiert er die Zunahme der Vegetation im Sahel. Unverständlich bleibt für ihn das Festhalten zum Teil auch seriöser Institute und Kollegen an der Vorstellung von einer sich immer weiter ausdehnenden Trockenzone in der südlichen Sahara. Letzteres verbreiten (wider besseres Wissen?) nach wie vor viele Mainstream-Medien, die immer gerne für Katastrophenszenarien offen sind.

Der Schwerpunkt des Klimaalarmismus wurde wegen des Endes der Erderwärmung vor ca. 16 Jahren nunmehr auf extreme Wetterereignisse „verlegt“. Jedoch muss daran erinnert werden, dass das Klima sich immer aus summierten und gemittelten Wetterabläufen zusammensetzt. Das Wetter wird real in der Natur beobachtet und aufgezeichnet. Das daraus ermittelte Klima ist ein statistischer Rechenwert. Da es keine Wetterdaten für die Zukunft geben kann, bleibt der prognostizierte anthropogene Klimawandel immer noch ein Produkt von Modellrechnungen bzw. Computersimulationen. Schon immer gab es lokal auftretende mehr oder weniger extreme Wetterereignisse. Diese extremen Phänomene können grundsätzlich nicht von Rechnersimulationen prognostiziert werden. Daher können sie praktisch auch nicht beweiskräftig mit theoretisch möglichen Klimaentwicklungen in Verbindung stehen.

In diesem Zusammenhang ist noch auf ein wichtiges Faktum hinzuweisen. Der Weltklimarat stellte 2001 unmissverständlich fest: „In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes nichtlineares chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“12

Fazit

Entgegen dieser eindeutigen und übrigens korrekten Feststellung warnt der Weltklimarat immer wieder, seit nunmehr 28 Jahren, vor einer drohenden Klimakatastrophe. Er handelt damit absolut im Sinne vieler Politiker im In-und Ausland. Der Grund ist die politisch überall gewollte Ankurbelung der wirtschaftlichen Konjunktur. Wirtschaftliche Entwicklung, Innovation mit CO2-armen  Technologien und neue Arbeitsplätze stellt die Wirtschaftpolitik immer in ein positives Licht. Dieses politische Kalkül wird beim Bürger immer Zustimmung finden. Ob dahinter Fakten oder absolute Falschinformationen stehen, spielt für die Instrumente der Politik letztlich keine Rolle. Die zahlreichen Manipulationen an historischen Klimadaten, die die Klimakatastrophe verstärken sollen, sind nicht wissenschaftlich motiviert.

So steht im jüngsten Bericht des IPCC13  (vom September 2013) nicht mehr die Erderwärmung im Vordergrund. Sie soll neuerlich mindestens 0,3 °C betragen bis 2100 – welch ein Hohn! Die Zunahme war in historischer und prähistorischer Zeit – auch kurzfristig – wesentlich höher ohne Einfluss des Menschen. Dramatischer wird aber im neuen IPCC-Bericht der vorhergesagte globale Meeresspiegelanstieg vorgeführt. Dieser soll in den Köpfen der Menschen mit örtlich immer wieder auftretendem Hochwasser vermengt werden. Ein langsamer Anstieg des Meeresspiegels entzieht sich aber einer unmittelbaren Überprüfung und Kontrolle durch den Laien. Auch viele fachfremde Wissenschaftler werden de facto so wieder auf den Weg des Glaubens verwiesen.

 

Literatur

1   Schutz der Erdatmosphäre: Eine internationale Herausforderung (Hrsg.: Dt. Bundestag, Referat Öffentlichkeitsarbeit), Bonn 1988.

2   Bachmann, Hartmut: Die Lüge der Klimakatastrophe und wie der Staat uns ausbeutet. Manipulierte Angst als Mittel zur Macht, 6. Auflage 2010

3     Gray, Vincent: Spinning the Climate: The Intergovernmental Panel On Climate Change (IPCC), (Juni 2008), SPPI: Science & Public Policy Institute, Reprint Series, May 20, 2013

4    Mörner, N.-A.: Meereshöhe Variabilität. Z. Geomorph. NF, Suppl.-Bd., 102, 223-232. 1995

5   http://www.dailymail.co.uk/sciencetech/article-2217286/Global-warming-stopped-16-years-ago-reveals-Met-Office-report-quietly-released–chart-prove-it.html#ixzz2HwerljVw

6     SPIEGEL-GESPRÄCH mit Hans von Storch vom 17.06.2013: „Wir stehen vor einem Rätsel“
7     Petit, J.R. et al.: Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica, Nature (1999) 399: 429-436

8     Mudelsee, M.: The phase relations among atmospheric CO2 content, temperature and global ice volume over the past 420 ka. Quaternary Science Reviews (2001) 20: 583-589.

9     Joseph D´Aleo and Anthony Watts: „Surface Temperature Records: Policy Driven Deception?“   Science & Public Policy Institute, 26. Jan. 2010

10   Ewert, F.-K.: Langzeit-Temperaturreihen widerlegen menschengemachten Klimawandel. Fusion 32, 2011, Nr. 3, S.31- 61, 29 Abb., 14 Tab. oder

     http: //www.eike-klima-energie.eu/uploads/media/EW_GISS_2010_Teil_1_Deu.pdf

11   Reij, Chris im Internetvideo: “Die Wüste lebt: Katastrophengebiet Sahelzone ergrünt“, vom 23.04.2009.

12   Intergovernmental Panel on Climate Change (IPCC) Third Assessment Report, 2001, Section 14.2.2.2, p 77.

13   Intergovernmental Panel on Climate Change (IPCC): UN-Klimabericht vom 27. September 2013.

Der Autor:

Prof. Dr. Werner Kirstein, Hochschullehrer i.R., war bis 2011 an der Universität Leipzig am Institut für Geographie tätig. Neben Arbeiten in der Fernerkundung und Geoinformatik in Forschung und Lehre war ein langjähriger Schwerpunkt die Klimageographie. Die Themen der Promotionsarbeit (1981) und der Habilitationsschrift (1991) lagen im Arbeitsbereich der globalen bzw. kontinentalen Klimavariabilität.




Klaus-Eckart Puls EIKE: CO2 – Gift oder Lebenselixier?

Nur in  Klimamodellen wird ein dominanter Einfluß des anthropogenen CO2 angenommen und in Szenarien öffentlich zu "Vorhersagen" hoch stilisiert. Im Gegensatz dazu hat sich mittlerweile heraus gestellt: Die Natur macht ganz was anderes. Keines dieser Modelle hat den Stillstand der globalen Mitteltemperatur über die letzten 15 bis 17 Jahre vorhergesagt, obwohl die CO2 Konzentration in dieser Zeit stetig mit ca. 2 ppm/Jahr anstieg. Der Erde kam dieser Anstieg aber zugute, denn sie ist nach Satelliten-Auswertungen der NASA in den vergangenen 20 Jahren insgesamt deutlich grüner geworden. Auch ist CO2 ist ein ausgezeichneter "Pflanzen-Dünger", wie die im Vortrag zitierten Untersuchungen im Freiland und in Gewächs-Häusern beweisen.

Video des Vortrages von Klaus Puls anlässlich des 1. Hamburger Klima- und Energiegespräches am 14.6.13

Der Vortrag ist als pdf im Anhang herunterladbar

Related Files




Atlantische Hurrikan-Saison 2013: die ruhigste seit 45 Jahren

Bild rechts: US-Extremwetter-Index von der National Oceanic and Atmospheric Administration (NOAA) – National Climatic Data Center (NCDC)

Bislang jedoch war es US-Wetterexperten zufolge eine der schwächsten Saisons seit Beginn moderner Aufzeichnungen vor etwa einem halben Jahrhundert. Außer dem Tropischen Sturm Andrea, der das westliche Florida [the Florida Panhandle] im Juni betroffen hatte, hat keiner der diesjährigen Zyklone auf das US-Festland übergegriffen.

Jeff Masters, Hurrikan-Experte und meteorologischer Leiter bei Weather Underground, sagt: „Es war ein sehr merkwürdiges Jahr. Wir befanden uns in dieser multidekadischen Aktivitätsperiode, aber in diesem Jahr passierte gar nichts“. Damit bezog er sich auf die verlängerte Hurrikan-Saison seit 1995. „Dem National Hurricane Center NHC zufolge gab es zwei kurzlebige Hurrikane der Kategorie 1 in diesem Jahr, das heißt wir hatten die erste atlantische Hurrikan-Saison seit 1968 ohne einen Sturm, der sich über das erste Intensitätsniveau hinaus entwickelt hat.

Es war auch ein Jahr, das durch die geringste Zahl von Hurrikanen seit 1982 gekennzeichnet war und das erste Jahr seit 1994 ohne die Bildung eines großen Hurrikans“.

„Hinsichtlich der so genannten ‚Accumulated Cyclone Energy (ACE)‘, einer allgemein gebräuchliche Maßzahl für die Unwetterschäden während einer Saison, rangiert das Jahr 2013 an zehntschwächster Stelle seit Beginn des Satellitenzeitalters Mitte der sechziger Jahre“, sagte Dennis Feltgen, ein Sprecher des NHC in Miami. „Die ACE in diesem Jahr 2013 liegt bislang bei 33% des Normalwertes“.

Phil Klotzbach, Klimatologe an der Colorado State University, räumt bereitwillig ein, dass die Vorhersagen auf statistischen Modellen basieren, die „gelegentlich auch falsch liegen“, da die Atmosphäre chaotisch und Gegenstand von Fluktuationen ist, die nicht länger als ein oder zwei Wochen im Voraus vorhergesagt werden können.

Aber Klotzbach und andere Experten sagen, dass die Modelle sowie jahreszeitliche Vorhersagen dennoch nützliche Einsichten in so etwas Unvorhersagbares wie Extremwetterereignisse bieten, selbst wenn sie nicht jedes Mal zutreffend sind.

„Offensichtlich sollte man keine unterschiedlichen Planungen für eine bestimmte Saison vornehmen, die auf einer Jahreszeiten-Vorhersage basieren”, schrieb Klotzbach in einer E-Mail an Reuters. „Sie dienen einzig dazu, die Neugier der Öffentlichkeit zu stillen und basieren auf unserem Wissen, wie großräumige Klimafeatures die jahreszeitliche Verteilung tropischer Stürme beeinflussen“.

Obwohl die Saison mit einem Augenzwinkern endet, sagte Masters, sind es langfristige Vorhersagen immer noch wert, auf sie zu bauen. „Sie sind sinnvoll, solange man die Grenzen der Vorhersagbarkeit dieser Modelle versteht“, sagte Masters gegenüber Reuters.

„Man erwartet, dass es Ausnahme-Jahre gibt wie dieses Jahr. Das ist Teil des Ganzen“, sagte er. „Aber wenn man konsequent verfolgt, wie sie sich machen, werden sie sich möglicherweise langfristig auszahlen“.

Zum Vergleich: Hier folgt eine Graphik mit der ACE von 1971 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

Häufigkeit tropischer Zyklone von 1971 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

Globale Häufigkeit von Hurrikanen 1978 bis zur Gegenwart:

Ryan N. Maue PhD – PoliClimate.com – Click the pic to view at source

US-Hurrikane 1851 – 2010:

National Oceanic and Atmospheric Administration (NOAA) – Atlantic Oceanographic and Meteorological Laboratory – (AOML) – Click the pic to view at source

…und Tropische Zyklone in der Region Australien von 1970 bis 2011 (dort wird ein tropischer Zyklon als „schwer“ klassifiziert, wenn sein Kerndruck unter 970 hPa liegt):

Australian Bureau of Meteorology (BOM) – Click the pic to view at source

Summa summarum – ich glaube nicht, dass wir uns anschnallen müssen für diese Hurrikane der Kategorie 6:

Schaut man auf den Supersturm SANDY am 29. Oktober, lag die Wassertemperatur östlich von New Jersey 9°F [ca. 4,5°C] über dem Mittelwert. Darum hat dieser Sturm so viel Energie getankt. Darum hat er so viel Wasserdampf aufgenommen. Hätte es auch ohne das einen Sturm gegeben? Vielleicht. Würde es Hurrikane und Überschwemmungen und Dürren auch ohne die vom Menschen verursachte globale Erwärmung geben? Natürlich! Aber jetzt sind sie stärker. Die Extremereignisse sind noch extremer. Die Hurrikan-Skala rangierte bisher zwischen 1 und 5, und jetzt wird eine Kategorie 6 hinzugefügt. Der Fingerabdruck der anthropogenen Erwärmung liegt auf allen diesen Stürmen und Extremereignissen. Al Gore – Washington Post

Mehr Informationen über Meereis und Zyklone gibt es hier: WUWT Tropical Cyclone Page und WUWT “Extreme Weather” Page.

Link: http://wattsupwiththat.com/2013/10/26/atlantic-hurricane-season-quietest-in-45-years/

Übersetzt von Chris Frey EIKE




SPON’s Logbuch der Bekloppten und Bescheuerten

Der verantwortliche SPON-Redakteur Stefan Schultz hat in seinem Beitrag (hier) immerhin begriffen, dass Wind und Sonnenstrom den Launen der Natur gehorchen müssen und daher zu oft ausbleiben. Das war es dann aber auch schon. Seine logisch klingende, aber leider unrealistische Schlussfolgerung besteht darin, dass der notwendige Ersatzstrom durch geeignete Lieferverträge mit Stromlieferanten garantiert werden könne. Er drückt dies so aus: „Das fundamentale Prinzip der deutschen Stromversorgung lautet: Jeder Kunde hat einen Lieferanten, und dieser muss liefern – egal, was kommt. So steht es in der Stromnetzzugangsverordnung“. Weiter folgert er: „Überwacht wird diese Pflicht über einen sogenannten Bilanzkreis, ähnlich einem Bankkonto. Liefert der Verantwortliche für den Bilanzkreis zu wenig Strom, rutscht sein Konto ins Minus. Dann gibt der Netzbetreiber Kredit: sogenannte Regelenergie. Spätestens nach einer Viertelstunde muss der Anbieter sein Konto wieder ausgleichen. Dazu kann er die Elektrizität selbst produzieren oder irgendwo einkaufen. Ein Versorger kann also so viele Kraftwerke abschalten, wie er will – solange er am Markt genug Strom kaufen kann. Sollten viele Kraftwerke abgeschaltet werden, würde Strom teuer. Die verbleibenden Kraftwerke würden wieder profitabel.

Dunnerlittchen, nun hat uns einer die ultimative Lösung verraten. Nur schade, dass die Wirklichkeit diesen sachlich absurden Vorstellungen beim besten Willen nicht folgen kann. Freilich darf man fairerweise von einem Redakteur, dessen akademischer Hintergrund das Studium der „Medienkultur“, Politik und britischen Literatur ist (hier), nicht mehr erwarten. Man kann aber vom SPON einfordern, dass er fachfremde und nicht einmal einer ordentlichen Recherche kundige Mitarbeiter keine Artikel schreiben lässt, die sie fachlich überfordern. So nämlich blamieren sich SPON und Redakteur gleichermaßen. Der Autor hätte lieber von Herrn S. Schultz etwas über die na sagen wir mal Metaphysik Hamlets unter Berücksichtigung der "politischen Medienkultur" im 17. Jahrhundert erfahren. Mit einem Bericht über die Energiewendeproblematik lag er etwas daneben – um es höflich auszudrücken.

Tatsächlich ist das Problem des Ersatzstroms nicht wirtschaftlicher sondern weit überwiegend technischer Natur. Dieses Faktum, das sich jedem Einsichtigen schon nach kurzer Recherche erschließt, ist Herrn S. Schultz entgangen. Die sich aus Naturgesetzen und technischen Regeln ergebenden Probleme der Energiewende lassen sich dummerweise weder mit Verträgen noch mit politischen Zwangsmaßnahmen lösen. Kurz, Herr S. Schultz hätte sich vielleicht doch besser vorher informiert. Danach hätte er als der Medienkultur kundiger Kopf das Verfassen seines Artikels vermutlich unterlassen.

Eine gute Quelle der Information ist beispielsweise die deutsche physikalische Gesellschaft (DPG) in „physik konkret“ (hier). Dort ist nachfolgend zu lesen (hier), verfasst von Prof. Konrad Kleinknecht, einem ehemaligen Vorstandsmitglied der DPG und Beauftragten der DPG für „Energie“:

————- Beginn des Beitrags von K. Kleinknecht (DPG) ——————–

Speicherung der elektrischen Energie

Elektrischer Strom muss in dem Augenblick verwendet werden, in dem er erzeugt wird. Es gibt einen Bedarf, der rund um die Uhr benötigt wird (Grundlast), einen regelmäßig auftretenden zeitlich variablen Bedarf (Mittellast) und einen plötzlich nachgefragten Spitzenbedarf. Die Grundlast wird derzeit durch Braunkohle- und Kernkraftwerke abgedeckt, die Mittellast durch Steinkohlekraftwerke und die Spitzenlast durch schnell steuerbare Gaskraftwerke.

Neue fluktuierende Stromquellen

Durch die neuen Stromquellen Windkraft und Photovoltaik (PV) ändern sich die Verhältnisse. Die Abbildung rechts zeigt stellvertretend den zeitlichen Verlauf der Einspeisung von Solar- und Windstrom für den März 2012. Die erbrachte Leistung fluktuiert sowohl täglich als auch saisonal. Windkraftwerke lieferten im Jahr 2012 ihre volle Nennleistung nur während durchschnittlich 4,6 Stunden am Tag und Photovoltaik-Solarzellen während 2,3 Stunden am Tag. Andererseits muss der Strom aus diesen Quellen wegen des EEG-Gesetzes prioritär abgenommen werden. Die konventionellen Kraftwerke müssen heruntergefahren werden, wenn die Sonne scheint oder der Wind bläst, und anschließend wieder hochgefahren werden. Das verringert ihre Effizienz und Rentabilität. Da die Erzeugung des Stroms aus Wind-und Solarenergie nicht mit dem zeitlichen Verlauf des Bedarfs übereinstimmt, wäre es sinnvoll, die überschüssige elektrische Energie wenigstens für die Dauer eines Tages zu speichern.
Die elektrische Energie aus Windkraft betrug im Jahr 2012 ca. 50.000 GWh, die aus Photovoltaik ca. 24.000 GWh [1]. An einem Tag fallen also durchschnittlich 137 GWh Windenergie und 66 GWh Solarenergie an. Wenn diese Energie zum Zeitpunkt der Erzeugung nicht gebraucht werden kann, muss sie gespeichert werden, oder die Anlagen müssen abgeschaltet werden. Eine weitere Möglichkeit ist es, den Überschuss an die Nachbarländer zu verschenken oder dafür sogar eine Gebühr zu bezahlen.

Speicherung der elektrischen Energie aus Solar- und Windkraftanlagen

Elektrischer Strom kann mit hoher Effizienz zurzeit nur in Pumpspeicherkraftwerken gespeichert werden. Die Speicherkapazität aller Anlagen in Sachsen, Bayern und im Schwarzwald beträgt 40 GWh [2], reicht also nur aus, um ein Fünftel des Tagesertrags aus Wind und Sonne zu speichern. Dieses Szenario setzt voraus, dass die nötigen neuen Übertragungsleitungen von Nord nach Süd schon gebaut sind, um die Energie der Windkraftanlagen im Norden zu den Speichern im Süden zu bringen. Dies wird einige Jahre Bauzeit erfordern. Der Ausbau der Speicher im Süden hätte also höchste Priorität, stößt allerdings z. B. beim Ausbau des Schluchseekraftwerks bei Atdorf auf den Widerstand der Anwohner.

Als alternative zukünftige Speichermöglichkeit wird die Elektrolyse von Wasser und die Umwandlung des erzeugten Wasserstoffs zu Methan sowie dessen Verbrennung in einem Gaskraftwerk diskutiert. Diese Methode („power-to-gas-to-power“) erlaubt die Speicherung des Methangases im existierenden Rohrleitungssystem, ist allerdings sehr ineffizient; nur ein Drittel der eingesetzten Windkraftenergie steht am Ende als Elektrizität wieder zur Verfügung [3]. Die technische Umsetzung steckt noch in den Kinderschuhen, der Wirkungsgrad der Elektrolyse ist bei fluktuierendem Stromangebot geringer als bei konstantem Strom [4]. Das erzeugte Methan ist zur Zeit wesentlich teurer als das russische Erdgas oder das Flüssiggas aus Katar. Andere Alternativen wie etwa Druckluftspeicher haben nicht die benötigte Kapazität [3].

Eine Entlastung der Netze könnte erreicht werden, wenn alle Besitzer von PV-Anlagen auf ihrem Dach den um die Mittagszeit anfallenden Solarstrom in einigen Batterien im Haus speichern und am Abend zum Betrieb ihrer Hausgeräte benutzen würden. Wenn zwei Millionen Haushalte mit PV-Anlage jeweils Batterien mit 5 kWh Kapazität installieren, würde dies einen lokalen Speicher von 10 GWh bilden. Als weitere Möglichkeit wird die Speicherung in den Batterien zukünftiger Elektromobile diskutiert. Falls in zehn Jahren eine Million solcher Fahrzeuge existieren würde, könnte in ihren Batterien eine Energie von 20 GWh gespeichert werden. Das wären etwa zehn Prozent der an einem Tag anfallenden Wind-und Solarenergie, falls alle Elektromobile um die Mittagszeit aufgeladen würden. In Wirklichkeit werden sie nachts aufgeladen, wenn keine Sonne scheint. Für die nächsten zehn Jahre wird diese Speichermöglichkeit also keine Rolle spielen.

Fazit

Für die nächsten zehn Jahre wird es keine Möglichkeit geben, relevante Mengen elektrischer Energie effizient zu speichern. Es bleibt bei der fluktuierenden Einspeisung der Wind-und Solarenergie nur die Möglichkeit, fossile Kraftwerke als regelbare Schattenkraftwerke zu betreiben, die bei überschüssiger Energie aus Wind-oder Solarkraft heruntergefahren werden und bei deren Ausfall als Reserve zur Verfügung stehen. Diese unregelmäßige Betriebsweise der fossilen Kraftwerke ist allerdings ineffizient und unwirtschaftlich. Auch kann die Leistung dieser Kraftwerke nicht beliebig stark und schnell geändert werden.

Quellen

[1] Arbeitsgemeinschaft Energiebilanzen e.V.

[2] H. Gasser, Arbeitskreis Energie des DPG Tagungsbands 2012, S. 128

[3] M. Sterner, M. Jentsch, U. Holzhammer, Gutachten für Greenpeace, Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES Kassel), Feb. 2011

[4] F. Schüth, MPI für Kohleforschung (Mülheim), FAZ, 13. März 2013, Seite N2

[5] G. Bergolte 2013

———- Ende des Beitrags von K. Kleinknecht (DPG) —————————

Es ist nicht zuviel verlangt und einem SPON-Redakteur zuzumuten, zu recherchieren, d.h. beispielsweise die hier zitierte, gut informierende DPG zu lesen. Ferner sich zu bemühen, technische Inhalte zu verstehen und dann dem Leser zu vermitteln. Herr Schultz hätte sich natürlich auch auf der EIKE Website bestens informieren können, z.B. über die ihm wohl etwas näher liegenden wirtschaftlichen Aspekte des alternativen „Zappelstroms“ (hier, hier, hier, hier). Dann wäre ihm die simple Erleuchtung gekommen, dass der Nachteil fluktuierender Stromeinspeisung ohne unzumutbar hohe Kosten TECHNISCH-NATURGESETZMÄßIG-GRUNDSÄTZLICH nicht zu beseitigen ist.

Der oft von sachunkundigen Zeitgenossen zu vernehmende gute Glaube "wir brauchen nur noch mehr Windstrom, dann wird die Energiewende schon klappen" ist absurd falsch. Wir können so viel Windstrom produzieren, wie wir wollen (an windreichen Tagen ist es bereits jetzt schon viel zu viel, der Strom muss dann gegen Aufpreis ins Ausland verschenkt werden), so steht doch fest: beliebig und unvorhersehbar fluktuierender Strom ist unbrauchbar und für die Stabilität der Stromnetze fatal. Die Beseitigung dieses Nachteils führt unabdingbar zu extremen Kosten. An der Hauptversorgung mit kostengünstigen Grundlastkraftwerken, die stetigen, regelbaren Strom liefern (Kohle und Uran, in anderen Ländern auch Schiefergas – Putins Gas ist für Grundlastkraftwerke zu teuer) geht kein Weg vorbei. Dem Autor tut es ja für jeden gutgläubigen grünen Traumtänzer leid, aber so ist nun einmal die Realität. Windräder und Photovoltaik sind volkswirtschaftlich kostspieliger Unsinn, ganz besonders hierzulande. In Wüsten mag dies ein wenig anders aussehen. Noch ist Deutschland keine Wüste, wenn es aber mit der Energiewende so weitergeht, wird es eine werden – eine industrielle. Das Problem der deutschen Energiewende ist nur mit der Rückkehr zum Zustand quo ante behebbar. Kompletten Nonsense abzustellen, war schon immer die beste Lösung. Ein kleiner Tipp für noch immer nicht überzeugte Leser und insbesondere für Herrn S. Schultz: wer außer uns in der Welt macht die Energiewende noch mit? Woran mag das wohl liegen?

Der Mythos des SPON vom "nicht möglichen" Blackout

Wir wären ja alle heilfroh, wenn der drohende Black Out ein Mythos wäre. Leider ist das platte Gegenteil der Fall. Je mehr fluktuierender Wind- und Sonnenstrom ins bundesdeutsche Netz per Oktroi (EEG) gelangt, umso technisch schwieriger wird dessen unabdingbare Stabilitätsausregelung vermittels schnell reagierender Schattenkraftwerke (meist Gas). Das Netz wird zunehmend instabil und bricht früher oder später zusammen, wenn es wie bisher mit der zunehmenden Eispeisung von Wind- und Sonnenstrom so weitergeht und immer mehr Grundlastkraftwerke wegfallen (hier, hier, hier).

Zum Blackout (hier). Der Autor hatte nach einem Hochschul Fachvortrag die Gelegenheit mit einschlägigen Experten zu sprechen, die zum kritischen Zeitpunkt konkret mit dem Stabilitätsproblem befasst waren. Deutschland ist nach Schilderung dieser und aller weiteren dem Autor bekannten Fachleute im vorletzten Winter haarscharf an der Katastrophe vorbeigeschlittert. Über die Folgen informiert die nicht gerade als ruhige Nachtlektüre geeignete Drucksache des deutschen Bundestages (hier). Man darf bei einem mehrtägigen Black Out zuverlässig von Tausenden Toten, Plünderungen und weiteren wenig ersprießlichen Ereignissen ausgehen. Erst ist der Druck in der Wasserleitung, dann das Wasser selber weg, Handy und Telefon sind tot, niemand befreit Sie aus einem steckengebliebenen Fahrstuhl mit eng aneinandergedrückten Passagieren ….. Wenn man auch noch an materiellen Schadensschätzungen interessiert ist, dann (hier).

Ein nettes Schlusswort

Lieber SPON, wir alle schätzen SPIEGEL bzw. SPON als informative, oft erfrischend freche und meist bemüht objektiv berichtenden Medien – keine Selbstverständlichkeit in der heutigen deutschen Journalistenlandschaft. So wie in dem hier kritisierten Beitrag geht es aber gar nicht. Der ist kurioser sachlicher Unsinn, nichts weiter. Und an den SPON Redakteur: Lieber Herr Schultz, wir empfehlen Ihnen, in Zukunft erst einmal sorgfältig zu recherchieren und dabei die Fakten nicht dem grünen Glauben zu opfern. Wir empfehlen Ihnen auch, nur über Themen zu schreiben, in denen Sie fachlich einigermaßen sattelfest sind. Wir sind sicher, in diesem Fall Ihre Beiträge schätzen zu lernen.

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Informationen zu Buch und Publikationen sind in der EIKE-Webseite (hier) einseh- und herunterladbar.