Neue Studie: Politik der Dekarbonisierung ignoriert die technische Machbarkeit

Die Studie enthüllt, dass Größenordnung, Umfang, Machbarkeit, Kosten, Ressourcen und andere Erfordernisse der Dekarbonisierungs-Agenda niemals hinsichtlich anderer Aspekte menschlicher und physikalischer Ressourcen des Planeten getestet worden sind.

Die Tatsache, dass die Kohlenstoffemissionen trotz vieler Projekte, die es schon jetzt auf der ganzen Welt gibt, unaufhaltsam steigen, führt zu einer einfachen Frage. „Was bekommen wir für unser Geld?“

Die Studie von Prof. Kelly behandelt die Rolle technologischer Änderungen, die der globalen Dekarbonisierungs-Agenda auf die Sprünge helfen sollen: Erfolg in UK und Scheitern überall sonst bedeutet immer noch scheitern.

Der jüngste Bericht des IPCC zeigt, dass einige der schlimmeren Auswirkungen viel weniger wahrscheinlich sind, was die Frage aufwirft, wie viel dieser Agenda kurzfristig wirklich gebraucht wird.

Mit der neuen Studie ist beabsichtigt, einige zentrale Lehren aus der Realität erfolgreicher technologischer Änderungen in der jüngeren Vergangenheit zu ziehen und wie sie hinsichtlich der globalen Herausforderung der Klimaänderung einzuordnen sind.

Die Studie kommt zu dem Ergebnis, dass die Lücke zwischen der Rhetorik und der Wirklichkeit auf der Grundlage von einigen der einfachsten technologischen Voraussetzungen gefährlich groß ist.

—————————-

Bei obigem Text handelt es sich um die Presseerklärung der GWPF zu der genannten Studie. Diese soll jetzt aber auch hier näher erläutert werden, und zwar in Gestalt einer Zusammenfassung und der Übersetzung weiter Passagen. Alle Zwischentexte sind kursiv gesetzt, direkte Übersetzungen erscheinen in gerader Schrift.

Technologische Neuerungen im Zusammenhang mit der Dekarbonisierung

Lektionen aus der jüngeren Geschichte

Prof. Michael J. Kelly

Einführung

Die Gemeinschaft der Klimawissenschaftler hat viele Politiker und Entscheidungsträger von der Notwendigkeit der Dekarbonisierung der Weltwirtschaft in kürzester Zeit überzeugt. Aber deren Anliegen, und ob das glaubwürdig ist oder nicht, ist nicht Gegenstand dieser Studie. Vielmehr sollen hier einige der Lektionen der jüngsten Geschichte der technologischen Evolution beleuchtet werden, die in dem ganzen Durcheinander nicht untergehen sollten.

Es gibt Regeln hinsichtlich der Einführung neuer Technologien, und man wird bestraft, wenn man sich über diese Regeln hinwegsetzt. Falls wir darauf aus sind, die Weltwirtschaft zu dekarbonisieren, sollten wir danach trachten, dabei erfolgreich zu sein, und nicht wie derzeit zu Maßnahmen greifen, die mit Sicherheit nicht erfolgreich sein werden. In der Tat, wenn wir die Einführung der kohlebefeuerten Dampfmaschine von James Watt und das Aufkommen elektrischen Stromes als Energiequelle betrachten, können wir erkennen, warum das erfolgreich war und dann daraus ableiten, was für das Projekt der Dekarbonisierung erforderlich ist. Aus der jüngsten Geschichte leite ich neun Lektionen ab, die für alle von uns initiierten Programme relevant sind, und eine zehnte Lektion, falls der wissenschaftliche Konsens bzgl. der Klimaänderung auch im nächsten Jahrzehnt noch bestehen sollte. Ich mache auch drei konkrete Vorschläge, wie man weiter vorgehen könnte.

Die Lektionen

Lektion 1: Erfolgreiche neue Energie-Technologien verbessern das Los der Menschheit

Energie aus Dampfmaschinen und Strom von Turbinen haben viele Dinge des heutigen Lebens in der entwickelten Welt erst möglich gemacht. Man muss nur zu einer abgelegenen Gemeinde in den Bergen in einem Entwicklungsland gehen, die nicht am Stromnetz hängt, um zu sehen, dass Dinge wie Lebensweise, Gesundheitsrisiken, Nahrungsmittelsicherheit, Transportmöglichkeiten und Lebenserwartung allesamt schlechter bestellt sind als in UK. Niemand, auch keine Gemeinde schiebt die Option, Zugang zu Strom oder zu fossil betriebenen Annehmlichkeiten zu haben, auf der Grundlage beiseite, dass man ohne diese Dinge besser dran ist.

Beispielhaft beschrieben wird dies anhand der Entwicklung der Telefone bis hin zu den heutigen Möglichkeiten mobiler Apparate sowie die Vorteile aus dieser Entwicklung für Menschen, die auf sichere Planungsgrundlagen angewiesen sind und sich jederzeit vor Ort abstimmen können.

Weiter lesen wir:

Innerhalb von 20 bis 30 Jahren, in der Watts Dampfmaschine in der Landwirtschaft genutzt werden konnte, hörten die Windmühlen in UK auf, sich zu drehen. Hier gab es eine neue Energiequelle, die zuverlässig war, beweglich, bequem, preiswert und mit geringer Wartung. Die relativen Positionen fossiler Treibstoffe und der Windenergie haben sich hinsichtlich der Bequemlichkeit für die Menschen seitdem nicht geändert. Es gibt keinen Wettbewerb zwischen einem Generator der Firma Aggreko und einer Windmühle der Firma Vestas, wenn es um Zuverlässigkeit geht.

Das Erreichen einer dekarbonisierten Wirtschaft macht Verbesserungen der heutigen Technologie erforderlich mit der Produktion von Objekten, die hinsichtlich des Gewichtes leichter sind. Außerdem muss das Reisen von einer Notwendigkeit in die Option der Wahl verwandelt werden (d. h. Verwendung von Tele-Systemen für den nationalen und internationalen Handel), effizientere Recycling-Methoden, die Entwicklung einfacherer Lebenswege für die Älteren, viel sauberere Luft in Städten und andere Fortschritte. …

Lektion 2: Angesichts dessen, dass 90% der globalen Verbesserungen des menschlichen Lebens seit dem Jahr 1800 durch das Verbrennen fossiler Treibstoffe möglich geworden ist, ist die Größenordnung des Dekarbonisations-Projektes historisch beispiellos.

Ein Mensch in Westeuropa verbraucht heute im Mittel 6 bis 7 mal Energie pro Tag wie jemand, der dort im Jahre 1800 gelebt hat. … Es ist sicher keine Übertreibung zu sagen, dass die Zivilisation, so wie wir sie kennen, auf fossilen Treibstoffen basiert, die seitdem über 90% der verbrauchten Energie erzeugt haben. …

Im folgenden Absatz wird kurz angerissen, wie sehr die nachgewiesenen fossilen Vorräte nach Peak Oil und Co. inzwischen größer sind als jemals zuvor, und dass wir seit der industriellen Revolution bislang höchstens 10% davon verbraucht haben.

Der nächste Absatz scheint wieder sehr bedeutsam:

Eine dekarbonisierte globale Ökonomie muss die auf fossilen Treibstoffen beruhenden Errungenschaften überflügeln. Gelingt das nicht, wird sich das Vorankommen der Menschheit hinsichtlich des erreichten Lebensstandards umkehren. Wir sollten ehrlich sein und uns der schieren Größenordnung und der enormen Herausforderung durch Dekarbonisation bewusst sein. Allgemeiner Unmut über erste Anzeichen sinkenden Lebensstandards breitet sich in vielen westlichen Ländern aus, namentlich Japan, Australien, Deutschland, Kanada und die EU).

Im folgenden Absatz werden als Beispiel des immensen Aufwandes hierzu die Kosten genannt, die allein durch die Nachisolierung von Gebäuden entstehen – Kosten in Höhe von 1,7 Billionen Pfund innerhalb von 40 Jahren. Dann stellt der Autor die Frage:

Das Problem dieser außerordentlich gewaltigen Ausgaben besteht darin, dass kaum erkennbar ist, ob es diese Ausgaben wert sind. Was bekommt man letztendlich für 1 Billion oder 10 Billionen Pfund, die man zur Abschwächung des Klimas ausgegeben hat? Antwort: Niemand weiß es. Kommt es später wirklich zu einer Katastrophe, haben wir eindeutig noch viel zu wenig ausgegeben. Bleibt die Katastrophe aus, werden wir niemals wissen, ob dies unseren Bemühungen zu verdanken ist. In jedem Falle wird also das Geld ohne bekannte vorteilhafte Auswirkungen ausgegeben, auch wenn von offizieller Seite immer wieder die Notwendigkeit solcher Ausgaben beschworen wird.

Lektion 3: Da über 50% der Weltbevölkerung im Jahre 2050 in Megastädten wohnen werden, muss dieses Problem als Erstes angegangen werden; 35% des heutigen Energieverbrauchs erfolgen in Gebäuden, hauptsächlich durch Heizen und Kühlung. Die gegenwärtige Generation der Erneuerbaren kann Megastädte nicht einmal ansatzweise mit Energie versorgen.

Es folgt ein Absatz über den unterschiedlichen Flächenverbrauch von Kraftwerken und Erneuerbaren. Daran schließt sich eine Tabelle über die Energiedichteverschiedener Quellen an:

Tabelle 1 zeigt die Energiedichte verschiedener Treibstoffarten. Die Zahlen umfassen 13 Größenordnungen, wobei Kernkraft eine Million mal energiedichter ist als die chemischen Prozesse eines fossilen Treibstoffs. … Dies sind keine trivialen Proportionen und spiegeln sich ultimativ in den Kosten, im Landverbrauch, der Sicherheit und anderen Faktoren der Energie-Infrastruktur, besonders hinsichtlich Mobilität.

Es folgen zwei Absätze, in denen das Problem am Beispiel der Stadt Shanghai erläutert wird, was allgemein auf die zu erwartenden Mega-Städte übertragen wird.

Lektion 4: Erfolgreiche neue Infrastruktur- und Energie-Technologien können in großem Umfang nur eingeführt werden, wenn sie sowohl ausgereift als auch ökonomisch sind, und man wird bestraft, wenn man diese Bedingungen übergeht. Jede Lektion aus der Einführung neuer Software auf Infrastruktur-Projekte, die nicht ausgereift ist, zeigt das.

Zunächst wird diese Aussage am Beispiel Japan ausgeführt. Dort ist die Installation von Solaranlagen trotz einer neuen Spitze beim Ölpreis rückläufig, haben sie doch niemals die Erwartungen auch nur annähernd erfüllt.

Die nächsten beiden Absätze beziehen sich auf das Speicherproblem und die extrem hohen Kosten für Maßnahmen, die Industrien treffen müssen, um Stromausfällen vorzubeugen. Auch auf die Speicherung in Batterien wird eingegangen. Wenn es eine brauchbare diesbezügliche Speichermöglichkeit gäbe, wäre sie wohl längst gefunden worden, denn Batterien gibt es schon sehr lange.

Die nächste Lektion soll hier wieder in ganzer Länge übersetzt werden:

Lektion 5: Es gibt heilsame Lehren aus der ersten Runde erneuerbarer Technologien, die zurückgehen auf Reaktionen auf die Ölkrise der siebziger Jahre.

In den USA gab es in den siebziger Jahren hastig zusammen geschusterte Forschungs- und Entwicklungsprogramme bzgl. alternativer Energiequellen, die die Wirtschaft vor Ölpreisschocks bewahren können. Das war eine durch und durch angemessene Reaktion. Die voreilige Einführung einiger dieser Technologien in Kalifornien vor allem Ende der achtziger Jahre bietet eine eindrückliche Lektion. Beim Ergoogeln der Begriffe ‚abandoned solar farm‘ [aufgegebene Solarfläche] oder ‚abandoned wind farm‘ [aufgegebener Windpark] kann man ganze Quadratkilometer verfallener Solaranlagen und über 14.000 aufgegebene Windturbinen allein in der Mojave-Wüste sehen. Es scheint, dass beim Fehlen von Subventionen die Solarpaneele und Windmühlen nicht genügend verwertbare Energie erzeugen, um die Kosten der Wartung und die Zinsen der Investitionen abzudecken. Seit der jüngsten Finanzkrise gab es in den USA und Europa viele Bankrotte von Unternehmen erneuerbarer Energie, und alle derartigen Industrien in China arbeiten derzeit mit substantiellen Verlusten (um 30%), was in einer kapitalistischen Ökonomie ebenfalls Bankrott bedeuten würde.

Früher oder später wird das Zurückfahren oder die gänzliche Streichung von Subventionen in den USA, Spanien, Deutschland und UK zu ähnlichen grün-industriellen Beerdigungen führen. … Der Erneuerbare-Energie-Index entsprechender Unternehmen hat zwischen 2009 und Anfang 2013 etwa 80% seines Wertes verloren, und auch wenn diese Verluste im Jahre 2013 auf 60% reduziert werden konnten, ist dies kein Ort für Investitionen (was der Fall wäre, wenn die wirtschaftliche Infrastruktur erneuerbarer Energie sinnvoll wäre).

Lektion 6: Subventionen der Regierung für die verfrühte Einführung sind eine Autobahn in die Katastrophe, während sie für R&D [Research und Development] sowie für Großversuche angemessen sind.

Es gibt auf der ganzen Welt kein Gegenbeispiel für die Feststellung, dass Subventionen der Regierung für die Entwicklung neuer Technologien in liberalisierte Energiemärkte bislang eine Litanei des Scheiterns erzeugt haben und dies auch weiterhin tun werden. Im Gegensatz dazu unterstützt jedes entwickelte Land Forschungen und Versuche bzgl. erneuerbarer Energien zur kommerziellen Einführung. Der Kosten-Nutzen-Vergleich fällt sehr stark zuungunsten der Erneuerbaren aus, so dass das Investitionsrisiko einfach zu hoch ist. Man muss einfach warten bis die neue Technologie ausgereift ist und während ihrer Lebenszeit im Wettbewerb bestehen kann.

Lektion 7: technologische Entwicklungen sind in der Regel nicht im Voraus programmierbar.

Hier wird anhand mehrerer Beispiele einfach beschrieben, dass neue Technologien Zeit brauchen und dass wohl die Einführung in der westlichen Welt viel zu überhastet erfolgt ist.

Lektion 8: Nichts wird geschehen, wenn die Bevölkerung nicht dahinter steht.

Diese Aussage spricht für sich und wird auch nur in einem kurzen Absatz ausgeführt.

Lektion 9: Die Finanzierung hat Grenzen, darum müssen Handlungsebenen priorisiert werden.

Eine Zahl von 200 Milliarden Pfund wird der Öffentlichkeit präsentiert, um ihr ein Gefühl dafür zu geben, in welcher Größenordnung Investitionen in UK im nächsten Jahrzehnt für eine neue Energie-Infrastruktur erforderlich sind. … Diese Summen müssen aus den internationalen Geldmärkten entnommen werden, im Wettbewerb mit allen anderen Investitionen.

Am Beispiel Spanien wird dann ausgeführt, was das bedeuten kann, wenn man diese Investitionen nicht aufbringen kann. Im nächsten Abschnitt geht es u. a. um Deutschland:

Inzwischen haben die Kohlenstoff-Emissionen in Deutschland angefangen zuzunehmen, und das wird auch so weitergehen, da neue Braunkohle-Kraftwerke ans Netz gehen – erstens, um die Kernkraftwerke zu ersetzen, die ohne Ausgleichszahlungen an die Investoren abgeschaltet werden, und zweitens, um die Schwankungen in dem großen Erneuerbaren-Sektor dort auszugleichen. Selbst hoch effiziente Gaskraftwerke werden in Deutschland abgeschaltet, eingemottet oder außer Betrieb genommen, teilweise weil sie als Back-Up nicht mehr wettbewerbsfähig sind, wurden sie doch als Grundlage der Energieversorgung konzipiert; teilweise aber auch wegen des sehr niedrigen Kohlepreises auf dem internationalen Markt, weil die USA immer mehr auf Schiefergas umsteigen. … In UK und der EU fehlt es einfach an einer glaubwürdigen Energiepolitik. …

Lektion 10: Falls sich die wissenschaftliche Grundlage der gegenwärtigen Klimaobjektive im nächsten Jahrzehnt ändern sollte, werden alle derzeitigen Bemühungen hinsichtlich einer dringend notwendigen Dekarbonisierung geschwächt.

Hier folgt ein kurzer Abriss der Historie der IPCC-Vorhersagen und dass Änderungen und Auswirkungen im AR 5 immer weiter abgeschwächt werden. Angesprochen wird auch das Fehlen jeder Erwärmung seit 1997. Der Autor gibt auch seine eigene Einschätzung hinsichtlich eines weiteren Stillstands oder sogar einer Abkühlung an, die seiner persönlichen Meinung nach über 50% beträgt. Außerdem sieht er diesbezüglich die Klimamodelle als gescheitert an und hält sie für unfähig, die Zukunft überhaupt vorhersagen zu können. Dazu führt er im letzten Absatz dieses Abschnitts aus:

Angesichts der diskreditierten Klimamodelle wird die Dringlichkeit einer Low-Carbon-Zukunft schwinden, und zwar deutlich bis jenseits des Zeitrahmens , die derzeit bzgl. Entscheidungen einer neuen nationalen Energie-Infrastruktur getroffen werden. Mit dem Einströmen von Schiefergas in das System werden kombinierte Kreislauf-Gasturbinen wahrscheinlich die flexibelste und wirtschaftlichste Energiequelle der nächsten 40 Jahre werden, und zwar in UK und in den meisten Gebieten der Welt. Der restliche Fahrplan zu einer Zukunft mit weniger Kohlenstoff muss aus Business-As-Usual erfolgen, wobei effizienterer Energieverbrauch und weniger Luftverschmutzung schon jetzt kommerzielle Treiber sind.

Vorschläge

Vorschlag 1:

Man bleibe bei Business-As-Usual und arbeite daran, die Wirtschaft zu einem geringeren Kohlenstoffverbrauch zu führen. Der Fehler der Malthusianer ist es, das Problem zu überschätzen und die menschliche Fähigkeit zu Innovationen zur Lösung des Problems zu unterschätzen. Die Wirtschaft sucht immer nach Wegen, bessere Erzeugnisse billiger zu machen. … Wie die bisherige menschliche Innovationsfähigkeit zeigt, ist die Geschichte auf Seiten der Optimisten.

Vorschlag 2:

Der Erfolg eines jeden Programms zur Entwicklung von Infrastrukturen sollte virtuell garantiert werden, um den Verbrauch seltener Ressourcen zu rechtfertigen. Es wäre besser, gar nicht erst anzufangen als mit einem Projekt zu beginnen, das eine große Wahrscheinlichkeit des Scheiterns aufweist. Gescheiterte Projekte im Bereich Infrastruktur hinterlassen oftmals Beweise des Scheiterns, über die man sich noch Jahrzehnte lang lustig macht: Beispiele sind die verfallenden Windmühlen und Solarpaneele in der Mojave-Wüste, aber auch Autobahnen, die irgendwo im Nichts aufhören oder anfangen.

Danach in diesem Abschnitt beschreibt der Autor die vielen Zusatzkosten bei Erneuerbaren, die offiziell nicht genannt werden, und die vielen Möglichkeiten des Betrugs, denen hiermit Tür und Tor geöffnet werden.

Vorschlag 3:

Menschliche Eigenschaften und persönliches Verhalten sind beide wichtig. Die Mehrheit der Weltbevölkerung lässt sich nur einmal davon überzeugen, dass die Gefahren der Zukunft real sind – und während der letzten beiden Jahrhunderte haben zu viele Malthusianer zu laut gebrüllt, nur um umfassend widerlegt worden zu sein. … Die öffentliche Haltung zu Rauchen auf öffentlichen Plätzen sowie zu Trinken und Fahren hat sich während der letzten 40 Jahre geändert, gefolgt von der entsprechenden Gesetzgebung.

Im letzten Absatz dieses Abschnitts zählt Kelly die vielen Nachteile der derzeitigen Politik auf, und dass es unmoralisch ist, von den Menschen einen so hohen Preis bzgl. Einschnitte in ihren Lebensstandard zu fordern. Der Absatz endet mit:

Die führende Rolle Europas hinsichtlich Dekarbonisierung bestraft die europäische Wirtschaft, während China und Indien mit der rapiden Ausweitung ihres Kohlestromes fortfahren. Zu der Zeit, zu der die Entwicklungsländer einer Low-Carbon-Wirtschaft zustimmen, sollten die entwickelten Länder ausgereifte und ökonomische Alternativen zu fossilen Technologien für die globale Verteilung bereithalten. So weit sind wir noch nicht, und wie es aussieht, werden wir vor dem Jahr 2030 auch nicht so weit sein.

Schlussfolgerungen

Der gegenwärtige Ablauf der Low-Carbon-Technologien auf der Welt wird ausgesprochen falsch verstanden. Frühere Generationen haben die Warnungen der Experten hinsichtlich des bevorstehenden Untergangs ignoriert, und bislang haben sie gut daran getan. Höchstwahrscheinlich wiederholt sich Geschichte. Ohne wesentliche soziale Verwerfungen haben sich die Niederländer an steigende Meeresspiegel in früheren Jahrhunderten angepasst, und dies sollte als Modell für die Zukunft gelten. Soviel Anpassung wie nötig sollte verfolgt werden, während meiner Ansicht nach die Notwendigkeit der Abschwächung [des Klimawandels] durch Dekarbonisierung der Wirtschaft weiterhin unbewiesen bleibt, zumindest angesichts des Fehlens irgendwelcher zuverlässigen Technologien, die das Problem im globalen Maßstab lösen würden.

Michael J Kelly FRS FREng is Prince Philip Professor of Technology, Department of Engineering, University of Cambridge.

Hier die ganze Studie

Übersetzt und bearbeitet von Chris Frey EIKE




Die endlose Liste von Klima-Fehlprognosen – Teil 1

Bild rechts: Ob auch dieses Blümchen auf die falschen Prognosen hereingefallen ist? Bild: © Chris Frey

Klima-Fehlprognosen (und einige andere, damit zusammen hängende geäußerten Dummheiten)

1. „Infolge der globalen Erwärmung werden die kommenden Winter in den lokalen Regionen milder” – Stefan Rahmstorf, PIK, am 8. Februar 2008

2. „Mildere Winter, trockenere Sommer: Klimastudien zeigen die Notwendigkeit in Sachsen-Anhalt, sich daran anzupassen”. Presseerklärung des PIK, 10. Januar 2010

3. „Mehr Hitzewellen, kein Schnee im Winter … Klimamodelle sind über 20 mal genauer als die globalen IPCC-Modelle. In keinem anderen Land gibt es präzisere Berechnungen der Klimafolgen. Sie sollten die Grundlage politischer Planungen bilden … es wird weniger oft Kaltluftvorstöße nach Mitteleuropa aus dem Osten geben … In den Alpen werden die Winter schon zwischen 2021 und 2050 2°C wärmer werden“. – Max-Planck-Institut für Meteorologie, Hamburg, 2. September 2008

4. „Das neue Deutschland wird gekennzeichnet sein durch trocken-heiße Sommer und feuchtmilde Winter”. – Wilhelm Gerstengarbe und Peter Werner, PIK, 2. März 2007

5. „Klare Klimatrends ergeben sich aus den Computer-Simulationen. Vor allem die Wintermonate werden in ganz Deutschland wärmer sein. Abhängig von den CO2-Emissionen wird die Temperatur bis zu 4°C steigen, in den Alpen bis zu 5°C“ – Max Planck-Institut für Meteorologie, Hamburg, 7. Dezember 2009

6. „Die Wissenschaftler rechnen unter bestimmten Bedingungen mit einem kompletten Abschmelzen des arktischen Meereises. Für Europa erwarten wir eine Zunahme trockenerer und wärmerer Sommer. Die Winter andererseits werden milder und nasser werden“. – Erich Röckner, Max Planck-Institut für Meteorologie, Hamburg, 29. September 2005

7. „Das mehr als ‚ungewöhnlich’ milde Januar-Wetter ist ‚ein weiteres Extrem-Ereignis‘ und ‚ein Vorbote der vor uns liegenden Winter‘ … Die globale Temperatur ‚wird jedes Jahr um 0,2°C zunehmen‘“. – Michael Müller, Staatssekretär im Umweltministerium, Die Zeit, 15. Januar 2007

8. „Strenge Winter wird es wahrscheinlich immer seltener geben, und die Niederschläge im Winter werden überall stärker. Allerdings werden diese wegen der höheren Temperatur öfter als Regen und nicht als Schnee fallen“. – Online-Atlas der Helmholtz-Gemeinschaft, 2010

9. Wir hatten überwiegend milde Winter mit nur wenigen eingestreuten kalten Monaten, wie z. B. der Januar 2009. Dieser Winter ist ein kalter Ausreißer, ändert aber nicht das Gesamtbild. Allgemein wird es wärmer werden, auch im Winter“.

Gerhard Müller-Westermeier, Deutscher Wetterdienst DWD, 26. Januar 2010

10. „Winter mit strengem Frost und viel Schnee wie noch vor 20 Jahren wird es in unseren Breiten nicht mehr geben”. – Mojib Latif, Max Planck-Institut für Meteorologie, Hamburg, 1. April 2000

11. „Auf Wiedersehen, Winter! Nie mehr Schnee?” – Der Spiegel, 1. April 2000

12. In den nördlichen Gebieten des Kontinents [Europa] wird es vermutlich einige Vorteile geben, und zwar in Gestalt von kürzeren Kälteperioden und höheren Ernten. Aber die fortgesetzte Zunahme der Temperaturen wird diese Vorteile zunichte machen. In einigen Regionen könnten 60% aller Spezies bis zum Jahr 2080 aussterben“. – 3Sat, 26. Juni 2003

13. Obwohl die Größenordnung der Trends eine große Vielfalt unter verschiedenen Modellen zeigt, kommen Miller et al. (2006) zu dem Ergebnis, dass keines der Modelle einen Trend hin zu einem niedrigeren NAM*-Index und einem höheren arktischen SLP* kommen“. – AR 4, IPCC 2007, zitiert von Georg Hoffmann.

[*Es war nicht möglich herauszufinden, was hinter diesen Abkürzungen steckt. Wissen Fachleute da mehr? A. d. Übers.]

14. Infolge der steigenden Temperatur wird regional weniger Schnee fallen. Während gegenwärtig etwa ein Drittel des Niederschlags in den Alpen als Schnee fällt, könnte dieser Anteil bis zum Ende dieses Jahrhunderts auf ein Sechstel zurückgehen. – Germanwatch, Seite 7, Februar 2007

15. Nehmen wir an, dass sich der CO2-Gehalt wie projiziert bis zum Jahr 2030 verdoppeln wird. Die Folge könnten trockenere und heißere Sommer sowie mildere und nassere Winter sein. Eine solche Erwärmung fällt proportional in höher gelegenen Gebieten stärker aus – und wird besonders einen starken Einfluss auf die Gletscher der Firn-Region haben.

Und

Die Skigebiete mit zuverlässig ausreichendem Schnee werden sich von 1200 m auf eine Höhe um 1500 m zurückziehen, weil wegen der Klimaprognosen mildere Winter erwartet werden müssen. – Scinexx-Wissenschafts-Magazin, 26. März 2002

16. Schnee von gestern … weil die Temperaturen in den Alpen rasch steigen, wird es an vielen Stellen mehr Niederschlag geben. Aber weil es öfter regnet als schneit, sind das schlechte Nachrichten für Touristen. Für viele Skilifte bedeutet es das Aus. – Daniela Jacob, Max-Planck-Institut für Meteorologie, Hamburg, 8. August 2006

17. Ab dem Jahr 2030 wird der Frühling im Januar beginnen”. – Die Welt, 30. September 2010

18. Schnee, Eis und Frost werden verschwinden, d. h. mildere Winter … Ungewöhnlich milde Winter ohne Schnee und Eis werden inzwischen von Vielen als Zeichen der Klimaänderung gesehen“. – NABU Schleswig-Holstein, 10. Februar 2007

19. Auf Wiedersehen, Winter! … In der Nordhemisphäre sind die Abweichungen Berechnungen der NASA zufolge viel stärker, in einigen Gebieten bis zu 5°C. Das hat Konsequenzen, sagt Meteorologe Müller-Westermeier vom DWD: Wenn die Schneegrenze in vielen Gebieten steigt, wird der nackte Boden sogar noch stärker durch Sonnenlicht erwärmt. Das verstärkt die globale Erwärmung. Ein Prozess, der unkontrollierbar ist – und aus diesem Grunde tauchen verständlicherweise alte Kinderängste wieder auf: Erst verschwindet der Schnee, dann der Winter. – Die Zeit, 16. März 2007

[Wieder einmal Runaway-Effekte! Es tut richtig weh, solchen Unsinn zu übersetzen – noch dazu, wenn er von „Fachleuten“ stammt! A. d. Übers.]

20. Warm im Winter, trocken im Sommer … lange, harte Winter in Deutschland bleiben selten: Bis zum Jahr 2085 werden große Gebiete der Alpen fast schneefrei sein. Weil die Lufttemperatur im Winter schneller steigen wird als im Sommer, wird es mehr Niederschlag geben. Allerdings wird viel davon als Regen fallen, sagt Daniela Jacobs vom Max Planck-Institut für Meteorologie in  Hamburg. – Focus, 24. Mai 2006

21. Folgen und Auswirkungen auf die regionale Landwirtschaft: Heißere Sommer, mildere plus kürzere Winter (Palmen!). Landwirtschaft: Mehr CO2 in der Luft, höhere Temperaturen, vor allem im Winter. – Dr. Michael Schirmer, Universität Bremen, Vortrag am 2. Februar 2007

22. Winter: nass und mild! – Bayerisches „Staats”-Ministerium für Landwirtschaft, 23. August 2007

23. Die Prognosen der Klimamodelle zeigen derzeit, dass es zu folgenden Klimaänderungen kommen wird: Zunahme der Temperatur im Winter. – Landwirtschaftskammer von Niedersachsen, 6. Juli 2009

24. Sowohl die Prognosen für die globale Klimaentwicklung als auch für die klimatische Entwicklung im Fichtelgebirge zeigen eindeutig eine Erwärmung der durchschnittlichen Temperatur, was besonders für die Wintermonate zutrifft. – Willi Seigert, Universität Bayreuth, These seiner Diplomarbeit, S. 203, 7. Juli 2004

[Natürlich besteht man sein Diplom mit so etwas auf der Stelle! A. d. Übers.]

25. Schon im Jahr 2025 werden sich die Bedingungen für den Wintersport im Fichtelgebirge negativ entwickeln, vor allem hinsichtlich der ‚natürlichen‘ Schneeverhältnisse und des Potentials der künstlichen Schneeherstellung. Ein finanziell erfolgreicher Skibetrieb nach dem Jahr 2025 erscheint unter diesen Umständen extrem unwahrscheinlich. (Seifert, 2004). – Andreas Matzaris, Meteorologisches Institut der Universität Freiburg, 26. Juli 2006

26. Skilaufen unter Palmen? … Aus diesem Grunde würde ich niemandem raten, im Berchtesgadener Land in einen Skilift zu investieren. Die Wahrscheinlichkeit, damit Geld zu verdienen, wird mit der globalen Erwärmung immer geringer. – Hartmut Graßl, Direktor Emeritus am Max-Planck-Institut für Meteorologie, Seite 3, 4. März 2006

27. Die Klimaerwärmung führt zu einer steigenden Schneegrenze. Die Anzahl zukünftiger Skigebiete, die mit ausreichend Schnee rechnen können, nimmt ab. … Die Klimaänderung führt nicht nur zu höheren Temperaturen, sondern auch zu Änderungen der Niederschlagsverhältnisse im Sommer und im Winter. … Im Winter ist mit mehr Niederschlag zu rechnen, der jedoch künftig öfter als Regen und seltener als Schnee fallen wird. – Hans Elsasser, Direktor des Graphischen Instituts der Universität Zürich, 4. März 2006

28. Alle Klimasimulationen – global und regional – wurden am Deutschen Klimarechenzentrum durchgeführt. … In den Wintermonaten wird sich ein Temperaturanstieg von 1,5°C bis 2°C von Skandinavien bis zum Mittelmeer erstrecken. Nur in Gebieten, die direkt vom Atlantik beeinflusst werden (Großbritannien, Portugal, Teile von Spanien) wird die Zunahme der Temperatur im Winter geringer ausfallen. – Presseerklärung des Max Planck-Instituts für Meteorologie vom Dezember 2007/Januar 2013.

29. Bis zum Jahr 2050 … wird die Temperatur um 1,5°C bis 2,5°C im Sommer und um 3°C im Winter steigen. … Im Sommer wird die Regenmenge um 40% abnehmen und im Winter um 30% zunehmen. – German Federal Department of Highways [?], 1. September 2010

30. Wir haben jetzt genügend Informationen für verlässliche Prognosen über die Zukunft”. – Daniela Jacob, Max Planck—Institut für Meteorologie Hamburg, S. 44, Oktober 2001

31. Die Szenarien der Klimawissenschaft sind in einer Hinsicht einstimmig: In Zukunft werden wir in Deutschland mit trockeneren Sommern und sehr viel mehr Regen in den Wintern  leben müssen. – Gerhard Müller-Westermeier, Deutscher Wetterdienst DWD, 20. Mai 2010

[Wieder so ein Unsinn! Und das finanzieren wir auch noch mit unseren Steuergeldern! A. d. Übers.]

32. Im Winter wird es mehr Westwind geben, der Stürme nach Deutschland lenken wird. Vor allem in West- und Süddeutschland wird es Überschwemmungen geben. – Mojib Latif in FOCUS, Leipniz-Institut für Ozeanwissenschaften der Universität Kiel, 27. Mai 2006.

33. Während die Zunahmen im Frühling ziemlich moderat scheinen, zeigen die (späten) Sommer- und Wintermonate einen besonders starken Erwärmungstrend”. – Ministerium für Umwelt, Landwirtschaft und Geologie Sachsen, S. 133, Schriftenreihe Heft 25, 2009

34. Wissenschaftler in Columbia: Dem NASA-Modell zufolge resultieren warme Winter aus dem Treibhauseffekt … Obwohl sie als Teil einer natürlichen Klimavariation erscheinen, können daher die starken Temperaturzunahmen im Winter über den Kontinenten großenteils menschlichen Aktivitäten zugeordnet werden. – Science Daily, Dr. Drew Shindell, 4. Juni 1999

35. Innerhalb weniger Jahre wird winterlicher Schneefall zu einem sehr seltenen und begeisternden Ereignis werden … Kinder werden einfach nicht mehr wissen, was Schnee ist. – David Viner, Climate Research Unit, University of East Anglia, 20. März 2000

36. Diese Daten bestätigen, was viele Gärtner glauben – Winter sind nicht mehr so kalt wie früher … Und falls sich dieser Trend fortsetzt, werden Weiße Weihnachten in Wales mit Sicherheit ein Ding der Vergangenheit sein. – BBC, Dr. Jeremy Williams, Bangor University, 20. Dezember 2004

37. Der Temperaturanstieg in Verbindung mit der Klimaänderung führt zu einer allgemeinen Verringerung des Schneeanteils im Niederschlag und als Konsequenz daraus zu einer Reduktion der Dauer einer Schneedecke. – Global Environmental Change, Nigel W. Arnell, Geograph, 1. Oktober 1999

38. Computermodelle sagen voraus, dass der Temperaturanstieg beschleunigt weitergeht, falls die Emissionen Wärme einfangender Gase nicht reduziert werden. Sie sagen auch voraus, dass die Erwärmung im Winter besonders ausgeprägt sein wird. – Star News, William K. Stevens, New York Times, 11. März 2000

39. In einer wärmeren Welt fällt weniger winterlicher Niederschlag als Schnee, und die Schneeschmelze im Frühjahr setzt immer früher ein. Selbst ohne jede Änderung der Niederschlagsintensität führen diese beiden Effekte zu einer Verschiebung des Wassereintrags in Flüsse im Winter und Frühjahr. – Nature, T. P. Barnett et al., 17 November 2005

40. Wir nähern uns allmählich der Art Erwärmung, die man im Winter erleben wird. – Star News, Mike Changery, National Climatic Data Center, 11. März 2000

41. Mildere Wintertemperaturen werden die Anzahl schwerer Schneestürme abnehmen lassen, könnten aber zu einer Zunahme gefrierenden Regens führen, falls die täglichen Temperaturen um den Gefrierpunkt schwanken. – IPCC Climate Change, 2001

42. Die globale Klimaänderung wird wahrscheinlich begleitet von einer Zunahme der Dauer und Häufigkeit von Hitzewellen ebenso wie von wärmeren Sommern und milderen Wintern … unsere Studie schätzt eine Abnahme der Anzahl von Kältetoten in UK auf 20.000 in den fünfziger Jahren dieses Jahrhunderts (eine Reduktion um 25%) – IPCC Climate Change, 2001

43. Die niedrigsten Wintertemperaturen werden in Nordeuropa wahrscheinlich stärker zunehmen als die mittlere Wintertemperatur …  Die Dauer der Schnee-Saison wird sich sehr wahrscheinlich in ganz Europa verkürzen, und die Höhe der Schneedecke wird zumindest im größten Teil von Europa abnehmen. – IPCC Climate Change, 2007

44. Die Schneegrenze steigt in der ganzen Welt. Der Gedanke, dass wir weniger Schnee bekommen werden, liegt absolut auf einer Linie mit dem, was wir von der globalen Erwärmung erwarten. – WalesOnline, Sir John Houghton, Atmosphärenphysiker, 30. Juni 2007

45. In UK werden nassere Winter erwartet, die zu extremeren Regenfällen führen, während die Sommer trockener werden. Allerdings kann es sein, dass es im Zuge der Klimaänderung zu einer Zunahme extremer Regenfälle kommt, selbst unter einer allgemeinen Zunahme von Trockenheit. – Telegraph, Dr Peter Stott, Met. Office, 24. Juli 2007

46. Der Winter hat sich für immer verabschiedet, und wir sollten stattdessen den Frühling begrüßen … Es wird keine Winter mehr geben, trotz einer Kältewelle vor Weihnachten. Es ist nichts im Vergleich zu früheren Jahren, als ich jünger war. Es gibt ein echtes Problem mit dem Frühling, weil so viel Blühen von Jahr zu Jahr immer früher stattfindet. – Express, Dr. Nigel Taylor, Kurator von Kew Gardens [=der Botanische Garten in London, A. d. Übers.], 8. Februar 2008

47. Die Vergangenheit ist nicht länger der Wegweiser in die Zukunft. Wir haben kein stationäres Klima mehr… – Independent, Dr. Peter Stott, Met. Office, 27. Juli 2007

[Als ob es jemals ein stationäres Klima gegeben hätte. Was sind das bloß für „Fachleute“? A. d. Übers.]

48. Es ist konsistent mit der Klimaänderung. Es ist genau das, was wir im Winter erwarten müssen – wärmer und nasser sowie trockenere und heißere Sommer … der gerade vergangene Winter ist konsistent mit der Art Wetter, zu der es in Zukunft immer öfter kommen wird. – Wayne Elliott, Meteorologe am Met. Office, BBC, 27. Februar 2007

49. Falls Ihre Entscheidungen davon abhängen, was in dieser geringen Größenordnung von 25 km oder sogar 5 km Auflösung passiert, dann sollten Sie besser keine irreversiblen Investitionsentscheidungen treffen. – Myles Allen, „einer der führenden Klimamodellierer in UK“, Oxford University, 18. Juni 2009

50. Es ist großartig, dass die Regierung beschlossen hat, eine so wissenschaftlich robuste Analyse der potentiellen Auswirkungen der Klimaänderung in UK zu erstellen. – Keith Allott, WWF-UK, 18. Juni 2009

51. Die von den Experten an der University of Bangor gesammelten Daten zeigen, dass Weiße Weihnachten auf dem Snowdon-Berg – dem höchsten Berg in England und Wales – eines Tages nicht mehr sein wird als eine Erinnerung. – BBC News, 20. Dezember 2004

(Dazu aktuelle Meldung BBC 2013: „Seilbahn am Snowdon-Berg am Osterwochenende geschlossen – nachdem es in dem Gebiet Schneewehen bis zu 9,1 m Höhe gegeben hatte“)

52. Wissenschaftler: Der Frühling kommt als Folge der Klimaänderung in jedem Jahr früher; das ist der erste ‚aufschlussreiche Beweis‘, dass die globale Erwärmung das Timing der Jahreszeiten verändert. – Guardian, 26. August 2006

53. Angesichts des Anstiegs der mittleren Temperatur im Winter ist offensichtlich, dass die Anzahl der Frosttage und die Anzahl der Tage mit einer Schneedecke abnehmen wird. Für Europa zeigen die Modelle, dass kalte Winter wie am Ende des 20. Jahrhunderts, zu denen es im Mittel alle zehn Jahre gekommen war, allmählich im Laufe des Jahrhunderts verschwinden werden ( S. 19) – und

…aber es kann gut sein, dass von den Schneefreuden infolge der Klimaänderung nichts bleibt als einige vergilbte Fotos … Außerdem wäre eine Zunahme winterlicher Niederschläge mit Sicherheit nicht der Erholung förderlich (S. 38) – Jean-Pascale van Ypersele und Philippe Marbaix, Greenpeace 2004

Übersetzt von Chris Frey EIKE




„Energiepolitische Geisterfahrt – die deutsche Wendewirklichkeit“

I. AUSGANGSSITUATION

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel. Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%.

Parallel zum Umstieg von fossilen Energieträgern auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie, der schon in 2022 zu 100% vollzogen sein soll (doppelter Ausstieg aus Kohle und Uran). Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung am 6. Juni 2011 getroffenen Entscheidungen (Eckpunkte für eine beschleunigte Energiewende). Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten (zum Status quo der Kernenergie in Deutschland siehe nur www.kernenergie.de).

Die Energiewende setzt damit einen gravierenden Umbau des gesamten deutschen Energieversorgungssystems in allen Sektoren (Erzeugung, Transport über Leitungsnetze, Speicher) voraus, einschließlich der Anpassungen in Industrie und Gesellschaft (Effizienzerhöhung, Energieeinsparung, Orientierung am Stromangebot). Zu beachten ist, dass sich Strom in energiewirtschaftlich relevantem Maße bis heute kaum speichern lässt. Hinzu kommt die Notwendigkeit, vermehrt Strom zu importieren. Wirtschaftlich mit vertretbarem Wirkungsgrad sind lediglich Pumpspeicherkraftwerke (PSKW) in der Lage, die Speicherfunktion (über einen Umweg) in einer nennenswerten Größenordnung zu übernehmen. Allein schon aufgrund der Topographie können aber gar nicht so viele PSKW gebaut werden, wie notwendig wären. Alle andern Speichersysteme sind noch „meilenweit“ von der großtechnischen Realisierbarkeit und Wirtschaftlichkeit entfernt.

Das Vehikel zur Umsetzung der Wende bildet das Erneuerbare Energien Gesetz (EEG). Es trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft und löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war.

Als Väter dieses ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden einzelne Politiker von CSU, Grünen und SPD kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Also eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später unter der Mitwirkung von Solarunternehmern am Gesetzesvorhaben richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten EEG – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit dieser in Kürze vorletzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 Gigawatt eine Deckelung verfügt.

Der Anstieg der Nutzung von erneuerbaren Energien ist wesentlich auf das EEG zurückzuführen. Ihr Anteil an der Bruttostromerzeugung betrug im Jahr 2013 bereits 23,4 Prozent (siehe hierzu die umfangreichen Daten aus dem Bundesministerium für Wirtschaft und Energie – www.bmwi.de).

II. FEHLENDE „SOLLBRUCHSTELLEN“ IM KONZEPT DER ENERGIEWENDE

Zweifelsfrei hat das EEG zur Markteinführung und -durchdringung der Erneuerbaren einen ganz wesentlichen Beitrag geleistet. Nunmehr kommen aber in zunehmendem Maße Probleme zum Tragen, die allein aus dem Konstrukt heraus zu erklären, und somit systemimmanent sind. Ein grundsätzliches Problem ist sicher, dass nicht von Beginn an ein Verfallsdatum festgelegt worden ist und auch die Evaluation nicht mit der notwendigen Akribie erfolgte, vermutlich weil sich die Finanzierung zu großen Teilen außerhalb des Bundeshaushalts bewegt.

Systemdefekt 1: EU-Zertifikate und EEG ein Widerspruch an sich

Bei der Einführung von Emissionszertifikaten auf Ebene der Europäischen Union im Jahre 2005 hätte man das EEG ersatzlos streichen müssen. Denn obwohl beide Systeme eine Verringerung der CO2-Emissionen beabsichtigen, schließen sie sich im Grunde genommen aus. In der Folge kann „ … durch das EEG keine Kohlendioxidminderung erzielt werden, die über das durch den Emissionshandel allein bewirkte Maß hinausgeht.“ (Manuel Frondel u.a.: Solarweltmeister Deutschland? Ein gewaltig teurer Irrtum, in: List Forum, Bd. 39 (2013), S. 99-122, hier S. 111). Denn die geringeren CO2-Emissionen in Deutschland lassen den Preis der an der Börse gehandelten Zertifikate/Verschmutzungsrechte sinken. Dadurch wird es günstiger Zertifikate zu kaufen, anstatt CO2-Vermeidungsmaßnahmen zu finanzieren. Die Einsparungen an der einen Stelle werden also durch höhere Emissionen an anderer Stelle kompensiert, es findet lediglich eine Verlagerung im EU-Raum statt (vgl. ebenda; interessant auch die FAZ vom 7. März 2014 (www.faz.net) mit dem Blick auf die vor 10 Jahren gelaufene Auseinandersetzung zwischen den Ministern Clement (Wirtschaft) und Trittin (Umwelt), wobei letzterer und damit die Unvernunft die Oberhand behielt). Damit degeneriert das EEG zum reinen Umverteilungsmechanismus, der zudem Innovationen verhindert, wie die von der Bundesregierung eingesetzte Expertenkommission Forschung und Innovation (EFI) zu Beginn des Jahres schlussfolgert (siehe www.e-fi.de auf den Seiten 51-52).

Systemdefekt 2: planwirtschaftlicher Fremdkörper mit eingebauter Ausbreitungstendenz

Das EEG widerspricht im Grunde genommen der Sozialen Marktwirtschaft und dem liberalisierten Strommarkt. Während die Liberalisierung auf einen wettbewerblich organisierten Strommarkt setzt, hebelt das EEG mit seiner stark planwirtschaftlichen Ausrichtung (Bevorzugung einzelner Energieerzeugungsarten, feste Einspeisevergütungen) diesen aus. Fatal wirkt sich die Interventions- (Ludwig von Mises) oder Subventionsspirale aus, die zur Eindämmung unbeabsichtigter Nebenwirkungen immer weitere Korrekturen notwendig macht. Peter Heller umschreibt dies mit dem Dominoeffekt von EEG-Subventionen, der eine Überproduktion von Strom, ebenso wie Industrierabatte, eventuell sogar Kapazitätsmärkte, auf jeden Fall aber Investitionen in den Netzausbau und schließlich auch die finanzielle Entlastung von Haushalten zwangsläufig nach sich zieht und damit massiv weitere Kostentreiber bedingt (beim 16. Albstädter Wirtschaftsforum – www.zak.de).

Systemdefekt 3: in Kauf genommene Ressourcenvernichtung hinterlässt Scherbenhaufen

Der im EEG verfügte Einspeisevorrang für Erneuerbare setzt einen simplen Prozess in Gang: Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten (gleich Grenzkosten) und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dies sind zum gegenwärtigen Zeitpunkt vor allem ältere, bereits abgeschriebene Kohlekraftwerke, die zusätzlich von fallenden Rohstoffpreisen profitieren. Dies führt wiederum zunehmend zur vorläufigen oder dauerhaften Stilllegung und sogar zur Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken, die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes – hier hat die Physik das letzte Wort – dringend gebraucht werden.

Die von der Bundesnetzagentur geführte Liste wird länger und länger. Ihr sind aufgrund einer Ende 2012 beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden (aktueller Stand: www.bundesnetzagentur.de). Entsprechende Ankündigungen liegen gegenwärtig von drei der vier großen Energieversorger, ebenso von Stadtwerken vor. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss. Im Januar hat die EnBW beim Oberlandesgericht Düsseldorf eine Beschwerde eingereicht, mit der sie sich dagegen wehrt, vier Kraftwerksblöcke in Marbach und Walheim nicht abschalten zu dürfen.

Hohe Abschreibungen, Gewinneinbrüche, notwendige Finanzspritzen für Stadtwerke, gravierender Kursverfall bei den vier großen Energieversorgungsunternehmen – RWE, Eon, EnBW und Vattenfall –, Arbeitsplatzverluste inklusive, sind an der Tagesordnung. Auch den so hoffnungsvoll gestarteten Solar- und Windkraftanlagenbauern geht reihenweise die Luft aus. „Die Energiewende wird zum eiskalten Kapitalvernichter“ ist unter Bezugnahme auf eine Liste der Deutschen Schutzvereinigung für Wertpapierbesitz in der Welt vom 6. März d.J. zu lesen. An den 50 größten Börsendebakeln der letzten Jahre in Deutschland partizipiert die Energie-Branche mit rund einem Viertel, obenauf Solar- und Windkraftfirmen (www.welt.de). Hinzu kommt ein schleichender Prozess der De-Industrialisierung, der insbesondere in energieintensiven Branchen bereits empirisch nachweisbar ist, und sich aufgrund der für die deutsche Volkswirtschaft typischen integrierten industriellen Wertschöpfungskette auch belastend auf die restlichen Glieder der Kette auswirkt (siehe hierzu die umfassende Analyse der Deutschen Bank vom 18. Dezember 2013 – www.dbresearch.de, hier S. 11-12). Dort wird auch sehr zu recht darauf hingewiesen, dass für eine Beurteilung der Energiewende die Netto-Effekte entscheidend sind. „Schließlich sind die häufig angeführten positiven Beschäftigungseffekte aufgrund von Investitionen in die Energiewende dadurch zu relativieren, dass sie zu nennenswerten Teilen auf … Subventionen zurückzuführen sind. Man muss sich also stets fragen, welche Beschäftigungseffekte man anderer Stelle mit den eingesetzten Mitteln hätte erzielen können. Da bei den Arbeitsplatzeffekten zudem häufig die Brutto-Effekte ausgewiesen werden, müsste zudem berücksichtigt werden, in welcher Höhe Beschäftigung in anderen Branchen verlorengegangen ist.“ (S. 7).

Nordrhein-Westfalen führt die Riege der stark Gebeutelten an, denn dort laufen die Problemlagen von Energieversorgern und klammen Kommunen unweigerlich zusammen. Die Städte sind in der Regel auch Anteilseigner an z.B. der RWE und/oder haben eigene Stadtwerke, die wiederum Beteiligungen halten. Hinzu kommt, dass NRW am wenigsten von den EEG-induzierten Zahlungsströmen profitiert, da die Fotovoltaik- bzw. Windkraftanlagen relativ stärker im Süden bzw. Norden der Republik massiert sind und der Stromverbrauch im bevölkerungsreichsten Bundesland mit der größten Dichte an Industriebetrieben am höchsten ist. Keinem anderen Bundesland kommt deshalb die Energiewende so „teuer“: 4,5 Mrd. € wurden 2013 in den EEG-Topf gelegt und nur 1,6 Mrd. € wieder „abgegriffen“ (siehe hierzu die ausführliche Analyse des BDEW vom Februar d.J. zur regionalen Verteilung auf den S. 82-92 – www.bdew.de). Nachvollziehbar, aber auch typisch und ganz konform mit der beschriebenen Interventionsspirale ist, dass der NRW-Wirtschaftsminister noch bevor die Bundesregierung die EEG-Novelle unter Dach und Fach hat, weitere Hilfen des Bundes anmahnt (siehe Handelsblatt vom 20.3.2014 www.handelsblatt.com).

Aber selbst im ansonsten gesunden Südwesten brennt es, so musste die Stadt Ulm für eine Kapitalerhöhung der Stadtwerke Ulm/Neu-Ulm, die Beteiligungen an Kohle-, Gas- und Offshore-Windkraftwerken halten, in zwei Schritten 30 Millionen € nachschießen und wird künftig auch Arbeitsplätze abbauen müssen (www.swp.de). Und die Anteilseigner der EnBW – grob je zur Hälfte das Land Baden-Württemberg und die neun Landkreise mit einer Beteiligung an den Oberschwäbischen Elektrizitätswerken (OEW) – müssen sich aufgrund einer Halbierung der EnBW-Ausschüttungen auf magere Jahre einstellen. Ob durch verminderte Ausschüttungen oder Verluste bei den Stadtwerken, alles kommt beim Bürger in Form von Leistungseinschränkungen an, denn im sogenannten Querverbund sorgten Gewinne aus dem Strom schon immer für kommunale Bäder, Verkehrsbetriebe und die Finanzierung weiterer Infrastrukturen. Die nächsten Hilferufe an Land und Bund sind hier schon vorprogrammiert.

Systemdefekt 4: unzureichende internationale Einbindung zwingt Deutschland auf Sonderweg

Sollbruchstellen schützen Systeme vor Überforderung – zumindest in technischen Anwendungen. Die Politik ist im Falle der Energiewende offenbar total überfordert, um von sich aus die richtigen Schlüsse und Konsequenzen zu ziehen. Zu den drei beschriebenen Defekten gesellt sich mit der mangelnden internationalen Einbindung die wohl offensichtlichste Schwachstelle.

Zwar haben 17 von 28 EU-Mitgliedstaaten unserem EEG vergleichbare Anreizsysteme, aber diese sind in ihrer Ausgestaltung und Zeitschiene wesentlich moderater. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 vom Einspeise- auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben schon längst die weit weniger opulente Förderung zurückgeschnitten.

Die Europäische Kommission unternimmt größte Anstrengungen, um zu einem gemeinsamen Energiebinnenmarkt zu kommen. Sie dringt unter anderem darauf, dass Förderregelungen bei sinkenden Technologiekosten schnell angepasst und die Erneuerbaren in den Energiemarkt integriert werden (z. B. durch den Wechsel von Einspeisevergütungen zu -prämien oder -quoten und durch Ausschreibungen) sowie die grenzüberschreitende Zusammenarbeit ausgebaut wird (siehe hierzu den Fortschrittsbericht „Erneuerbare Energien“ 2013, S. 14-15: www.bmwi.de).

Die Effizienzvorteile eines Energiebinnenmarktes zeigt Veit Böckers (Wettbewerbsökonomische Vorteile eines Europäischen Binnenmarktes für Stromerzeugung, in: DICE Policy Brief, September 2013, S. 6-7, hier S. 6) mit einer einfachen Überschlagskalkulation auf: „Würde die heute in Deutschland installierte Solaranlagenkapazität, die im Jahr 2011 18.500 GWh Solarstrom erzeugt hat, stattdessen in Spanien stehen, hätten damit 37.000 GWh Strom produziert werden können. So hätte sich bei einem durchschnittlichen Strompreis von 40 Euro/MWh zusätzlicher Strom im Wert von 740 Millionen Euro erzeugen lassen.“

Als Antwort auf die immer noch stark zersplitterte Förderlandschaft hat die Europäische Kommission Leitlinien entwickelt, denen zufolge die Förderung auf das notwendige Minimum und die Einführungsphase von Technologien beschränkt und letztendlich eingestellt werden soll. Auch soll der in den anderen Mitgliedstaaten erzeugte Strom aus Erneuerbaren Zugang zu nationalen Fördersystemen erhalten (siehe hierzu Moritz Bonn u.a.: „Brüsseler Spitzen“: Europäische Impulse für eine EEG-Reform, in: et Energiewirtschaftliche Tagesfragen, 30. März 2014, S. 1-2 – www.et-energie-online.de).

Gerade die zuletzt genannte Bedingung stellt einen richtigen „Sprengsatz“ dar, der schon im August dieses Jahres detonieren könnte. Beim Europäischen Gerichtshof (EuGH) ist die Klage eines finnischen Windkraftbetreibers anhängig, der Strom nach Schweden liefert, aber dort keine Ökostrom-Förderung bekommt. Generalanwalt Yves Bot fordert in seinem Schlussantrag, solche Ungleichbehandlungen innerhalb von zwei Jahren zu beseitigen. Laut FOCUS und FAZ – aber auch EU-Energiekommissar Günther Oettinger und andere Brüssel-Insider sehen das so – könne das die EEG-Umlage sprengen (www.faz.net). Locker könnte man formulieren, „bis dass der EuGH euch scheidet!“ Ein vergleichbares Verfahren mit Tschechien befindet sich übrigens im Anfangsstadium und hat noch nicht die Gerichtsebene erklommen.

Hinzu kommt das laufende Beihilfeverfahren wegen der sogenannten „Besonderen Ausgleichsregelung“ – so wird der Ausnahmetatbestand für befreite Unternehmen genannt: siehe hierzu Anhang 1 – mit weiteren ungeklärten juristischen Fragen, die allerdings nicht ganz die Brisanz des oben genannten Falles haben.

Offensichtlich ist, dass selbst in der Europäischen Union ein gemeinsamer Energiebinnenmarkt mit Nutzung sämtlicher Effizienzvorteile (d.h. auch des Einsatzes von Fotovoltaik- und Windkraftanlagen an den dafür optimalen Standorten) noch in den Sternen steht und die Unterschiede zwischen den 28 Mitgliedsstaaten so riesig sind, dass der notwendige Anpassungsprozess Jahre in Anspruch nehmen wird, von der technischen Seite mit den erforderlichen Übertragungsnetzen ganz zu schweigen. Und auch der beschlossene Ausstieg aus der Kernenergie wird immer mehr zum nationalen Alleingang. „Der deutsche Weg ist einer von vielen“ titelt die Stuttgarter Zeitung im Bericht über den Weltenergiekongress im südkoreanischen Daegu im Oktober letzten Jahres (www.stuttgarter-zeitung.de). Deutschland gesellt sich 2022 zu den 14 Ländern in Europa, die schon bisher ohne Atomkraft waren, während die Zahl derer weltweit wächst, die neue Kernkraftwerke planen und bauen. Laut der auch insgesamt sehr lesenswerten Energiestudie 2013 der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover waren Ende 2012 68 Kernkraftanlagen in 14 Ländern in Bau und weitere 110 in der Planungs- oder Genehmigungsphase (www.bgr.bund.de. Siehe noch Anhang 2 zum häufig angestellten Vergleich der Kosten von Kernkraft und regenerativer Energie).

Bundeskanzlerin Angela Merkel weiß das: In ihrer Regierungserklärung vom 29. Januar 2014 (S. 4-5) spricht sie von einer Herkulesaufgabe und dass kein vergleichbares Land auf der Welt seine Energiewende so radikal anpacke wie Deutschland. Es lohnt, sich die folgende Textpassage genauer anzuschauen: „Die Welt schaut mit einer Mischung aus Unverständnis und Neugier darauf, ob und wie uns diese Energiewende gelingen wird. Wenn sie uns gelingt, dann wird sie – davon bin ich überzeugt – zu einem weiteren deutschen Exportschlager. Und auch davon bin ich überzeugt: Wenn diese Energiewende einem Land gelingen kann, dann ist das Deutschland.“ So die Kanzlerin. Sie ist also nicht überzeugt, dass uns die Energiewende gelingt und sie sieht realistischer Weise, dass alle anderen noch größere Schwierigkeiten in der Umsetzung haben. Und sie thematisiert nicht den Fall des Misslingens, des Scheiterns: dann sitzen wir Deutsche, neben reichlich Häme und Schadenfreude, auch auf einem wirtschaftlichen Scherbenhaufen. Und danach sieht es aus.

III. VERTEILUNGSEFFEKTE

Durch die Finanzierung über den Strompreis entstehen gravierende Umverteilungseffekte (un)sozialer (von unten nach oben) und regionaler Art, die an anderer Stelle (z.B. in der zitierten BDEW-Studie) ausführlich beschrieben wurden. Es gibt Gewinner und Verlierer, die regelrechten Verteilungskämpfe auf Ebene der Bundesländer und der Interessengruppen (ersichtlich an den Stellungnahmen zur EEG-Novelle, siehe unter VI.) geben ein klares Spiegelbild ab. So unkoordiniert das Vorgehen auf Länderebene in der Umsetzung der Energiewende bislang war, so einig ist man sich bei der Gesprächsrunde im Bundeskanzleramt am 2. April 2014 zum EEG, deren Ergebnis die FAZ tags darauf sauber zusammenfasst: „Verbraucher zahlen für Energie-Kompromiss. Der Bund gibt nach. Die Ökostromhilfen werden nicht so stark gedeckelt. Teurer wird es für Stromkunden und Bahnfahrer.“ Es ging (mit Ausnahme von NRW) nur um reine Besitzstandswahrung, bei der die Ministerpräsidentinnen und -präsidenten das große Ganze aus dem Blick verloren haben. Dabei sind die Größenordnungen um die es geht, auch im Vergleich zu anderen Ausgabeblöcken beachtlich: Das Volumen der EEG-Umlage mit 24 Mrd. € in diesem Jahr ist rund dreimal so groß wie der viel gescholtene Länderfinanzausgleich (8,5 Mrd. € in 2013) oder die Rundfunkgebühr (7,5 Mrd. € in 2012), auch der Solidaritätszuschlag liegt mit 15 Mrd. € immer noch kräftig darunter.

Nicht zu unterschätzen auch die Interessenlage des Bundesfinanzministers am EEG. Solange er die Energiewende nicht über den Bundeshaushalt finanzieren muss, verdient er daran mit. Da die Mehrwertsteuer auch auf die EEG-Umlagen erhoben wird, stecken rd. 4 Mrd. € im gesamten Umsatzsteueraufkommen in Höhe von 204 Mrd. € drin (die Energiesteuer mit 39 Mrd., Stromsteuer mit 7 Mrd. und Kernbrennstoffsteuer mit 1,3 Mrd. € werden davon unabhängig erhoben – Schätzungen für 2014 –www.bundesfinanzministerium.de). Müsste er umgekehrt die 24 Mrd. € selbst finanzieren, dann wäre das nach den Bundesministerien für Arbeit und Soziales mit 122 Mrd. und für Verteidigung mit 33 Mrd. sowie der Bundesschuld mit 30 Mrd. € der viertgrößte Haushaltsposten und würde etwa acht Prozent seines gegenwärtigen Gesamthaushalts in Höhe von 299 Mrd. € ausmachen (www.bundesfinanzministerium.de). Sicherlich gäbe es dabei im Parlament lange und harte Diskussionen, da bei anderen Budgets eingespart werden müsste.

IV. INTENTION VERSUS WIRKUNG: CO2-VERMEIDUNG FEHLANZEIGE

Ein Ziel der Energiewende ist, wie erwähnt, die anthropogen verursachten Emissionen des Gases CO2 zu verringern. Aus der Parallelität von Emissionshandel und EEG – Systemdefekt 1 – war aber eine Verminderung nicht zu erwarten. Dass nun darüber hinaus ein Anstieg von CO2 zu beobachten ist, resultiert aus dem beim Systemdefekt 3 beschriebenen Wirkungszusammenhang (siehe hierzu wiederum dbresearch, S. 11, auch zu Überlegungen, inwieweit ggf. die CO2-Emissionen bei einem Rückgang der Energiekosten infolge einer geringeren inländischen Wertschöpfung sinken könnten).

V. (ZWISCHEN)FAZIT

Welche Auswirkungen hat die gegenwärtige Energiewende auf unsere Volkswirtschaft: Schafft oder sichert sie Arbeitsplätze, regt sie zu Innovationen an, verbessert sie unsere Wettbewerbsfähigkeit? Ist der über das EEG in Gang gesetzte Umbau unseres gewachsenen Energieversorgungssystems überhaupt mit den physikalischen Gesetzmäßigkeiten (fehlende Speicherfähigkeit von Strom; Notwendigkeit konstanter Frequenz im Netz) in Einklang zu bringen? Sind die sich daraus ergebenden finanziellen Lasten und Belohnungen, sprich Kosten und Gewinne ausgewogen verteilt? Ist die deutsche Energiewende in Bezug auf die gewünschte Verringerung der CO2-Emissionen zielführend und besitzt sie eine solch überzeugende „Ausstrahlung“, dass mehr und mehr andere Länder nachfolgen?

Zusammenfassend betrachtet sind alle aufgeworfenen Fragen mit einem klaren Nein zu beantworten. Nach diesem eindeutigen, ernüchterndem Diktum kann man zu guter Letzt auch noch die eigentliche Sinnfrage stellen und diskutieren: ob der Klimawandel menschengemacht und überhaupt beeinflussbar ist? Die Antwort bleibt in dem einen wie anderen Falle spekulativ.

Marco Wehr hat sich (im FAZ-Feuilleton vom 7. Januar d.J. unter dem Titel “Kompetenzillusion” – www.faz.net) mit der Prognosefähigkeit und Güte wissenschaftlicher Berater, insbesondere auch von Klimatologen, auseinandergesetzt und es als reines “Orakelgekrakel” qualifiziert, das “… man guten Gewissens als unseriös bezeichnen …” kann. Dies bestätigen wunderbar die hilflosen Erklärungsversuche für die Stagnation der Erwärmung, die David Whitehouse aktuell zusammengetragen hat (Warming interruptus – Causes für the pause – www.thegwpf.org). Dem kann sich auch der am 31. März vorgestellte neueste Bericht des Weltklimarates (IPCC) nicht gänzlich entziehen. Von der Signalwirkung her nicht zu unterschätzen ist die unter Protest erfolgte Niederlegung des Mandats ausgerechnet durch einen Niederländer, Richard Tol, der nach eigenem Bekunden genug hat von Schwarzmalerei und übertrieben alarmistischen Szenarien. Tol – führender Klimaökonom und koordinierender Leitautor für das Kapitel über die wirtschaftlichen Auswirkungen – „ … vertritt die Position, dass die ökonomischen Auswirkungen des Klimawandels eher gering sind. Außerdem sei es weniger teuer, eine Strategie der Anpassung an den Klimawandel zu wählen, statt ihn durch drastische CO2-Reduktion verhindern zu wollen.“ (www.faz.net). Der jährliche Bericht der Weltorganisation für Meteorologie (WMO) – einer anderen UN-Organisation – hingegen widersteht (noch) nicht der alarmistischen Versuchung und kaschiert den Umstand, „ … dass es seit über 15 Jahren nicht mehr wärmer wird … “ auch indem die entsprechende Presseerklärung den „ … Begriff Stillstand (Hiatus) nicht einmal erwähnt.“ (Rudolf Kipp in www.science-skeptical.de).

VI. KURIEREN AN SYMPTOMEN UNTER ZEITDRUCK – DIE GABRIELSCHE EEG-NOVELLE

An dem Entwurf zur Novellierung des EEG wird mit Hochdruck gefeilt. Er „besticht“ durch zunächst 90 Paragraphen und, nachdem das Ergebnis der Verhandlungen mit EU-Wettbewerbskommissar Almunia zur „Besonderen Ausgleichsregelung“ (den Industrieausnahmen) eingearbeitet ist, im zweiten Entwurf vom 31. März 2014 mit 99 Paragraphen und vier Anhängen. Der Vorläufer war zur Regelung der Materie noch mit 66 Paragraphen, bei allerdings fünf Anhängen ausgekommen. Ein nie dagewesener Zeitdruck begleitet das Machwerk und ebenfalls einzigartig ist, dass ein Grüner als beamteter Staatssekretär in einer schwarz-roten Bundesregierung die Feder führen darf. Rainer Baake kennt zumindest die Materie, hat er doch selbst als Staatssekretär unter Bundesumweltminister Trittin im Jahre 2000 das EEG mit entwickelt. Im Handelsblatt vom 13. März d.J. wird er unter der Überschrift „Gabriels Problem-Grüner“ als einer der Väter des Atomausstieg und eben des EEG eingeordnet. Nicht nur das Gesetz selbst, auch die Stellungnahmen der Verbände sind mit heißer Nadel gestrickt. Bis zum Abgabetermin für den ersten Entwurf am 12. März sind 152 Stellungsnahmen und bis zum Abgabetermin für den überarbeiteten Entwurf am 2. April, 17.00 Uhr, nochmals weitere 97 eingegangen, die wiederum bis zur Kabinettssitzung nächste Woche (am 8., so das Ministerium, oder 9. April, so die Kanzlerin in ihrer Regierungserklärung) eingearbeitet sein müssen. Pauschalierend lässt sich sagen, dass die Stellungnahmen umso länger sind, als es Positionen oder Pfründe zur verteidigen galt, und dass es zwischenzeitlich eine sehr vielfältige Lobbyarbeit und aktive Lobbyisten-Szene im Bereich der erneuerbaren Energien gibt (Link zu den Entwürfen und Stellungnahmen zur EEG-Reform – www.bmwi.de).

Interessanterweise wird im Vorblatt zum Gesetzesentwurf bei der kategorischen Abfrage zu den Alternativen vermerkt, dass es keine gebe. Auch bezüglich der Frage nach dem Erfüllungsaufwand für Bürger, Wirtschaft und Verwaltung wird tiefgestapelt bzw. darauf verwiesen, dass dieser noch zu berechnen sei und im Laufe des Gesetzgebungsverfahrens nachgeliefert werde. Hier darf man gespannt sein, was vom Nationalen Normenkontrollrat – dem Wächter über eine bessere Rechtsetzung und angemessenen Erfüllungsaufwand – noch verlautbart werden wird (www.normenkontrollrat.bund.de).

Eine abschließende inhaltliche Beurteilung ist angesichts der kurzen Fristen und der Fortschreibung des Gesetzesentwurfs enorm schwer bis fast unmöglich. Auffällig ist, dass es auch von der Zeitschiene her eher zaghafte Ansätze sind, die Erneuerbaren im Zubau zu begrenzen und an den Markt heranzuführen. Dies trifft auch für die Direktvermarkungspflicht für die Betreiber größerer Anlagen zu, eine zunächst vorgesehene Beteiligung der Eigenstromerzeuger scheint hingegen wieder vom Tisch zu sein. Überlegungen in Richtung Kapazitätsmärkte waren von vorneherein nicht im Entwurf enthalten. Viel Raum im Rahmen der zweiten Anhörungsrunde nimmt das Pro und Kontra bei der „Besonderen Ausgleichsregelung“ ein. Während beispielsweise die IG Metall für die weitest gehende Beibehaltung der Industrieausnahmen im Rahmen einer europarechtskonformen Ausgestaltung plädiert, setzt sich Greenpeace für eine deutlich kürze Liste der zu befreienden Unternehmen ein. Die neuerliche, vier Seiten lange Stellungnahme von Greenpeace enthält auch eine Rüge für die eingeräumte Bearbeitungszeit von lediglich 34 Stunden sowie ein schon der ersten Stellungnahme beigefügtes, nun aktualisiertes „Kurzgutachten“ einer Hamburger Anwaltskanzlei mit ganzen 24 Seiten.

VII. AUSSTIEGSGEDANKEN

Es ist höchste Zeit, sich intensiver mit den Möglichkeiten eines verträglichen Ausstiegs aus der EEG-Geschichte zu befassen. Umso mehr als mit an Sicherheit grenzender Wahrscheinlichkeit vorherzusagen ist, dass dieses nun entstehende Gesetz die beschriebenen Systemdefekte nicht abschütteln und auch wegen seiner Komplexität und den sicher enthaltenen handwerklichen Fehlern nie und nimmer funktionieren kann. Hinzu kommt als „Damoklesschwert“ das im August zu erwartende Urteil des EuGH, das allerdings wie berichtet eine zweijährige Übergangsfrist einräumt.

Bislang existieren nur vereinzelte Überlegungen, unter anderem von Klaus Töpfer, der mit einem „Altlasten-Fonds“ die aufgelaufenen finanziellen Verpflichtungen aus dem EEG auffangen möchte (www.zfk.de). Auch Ilse Aigner hat schon einmal den „Versuchsballon“ Steuerfinanzierung aufsteigen lassen, musste allerdings zusehen, wie er ganz schnell zum Platzen gebracht wurde.

Jan Fleischhauer hat in einer Kolumne zum „Wahnwitz mit System“ folgenden Gedanken zu Papier gebracht:

„Wie immer, wenn Politiker merken, dass sie sich verrechnet haben, versuchen sie, die Spuren zu verwischen. Die einfachste Art, sich aus der Verantwortung zu stehlen, ist die Verschleierung der Kosten durch Ausgliederung in einen Schattenhaushalt. Für die Aufnahme von Schulden ist noch nie ein Politiker abgewählt worden. … Wenn der Preis für die Erneuerbaren nicht mehr auf der Stromrechnung auftaucht, vergisst der Bürger vielleicht, welchen Bären man ihm aufgebunden hat, als man ihm Wind und Sonne als preiswerte Alternativen verkaufte. Im normalen Geschäftsleben sind solche Deals aus gutem Grund verboten. Aber dort landet man ja bei vorsätzlicher Täuschung auch vor Gericht.“ (www.spiegel.de).

VIII. GEISTERFAHRT UND WENDEWIRKLICHKEIT – DIE POLITIK MUSS FARBE BEKENNEN!

Die Anekdote vom auf dem Kopf liegenden Streifenwagen umschreibt trefflich die Lage:

„Anfang der achtziger Jahre stellte eine Militärstreife im Bereich des Grazer Korps ihren Streifenwagen wortwörtlich auf den Kopf. Sie waren schlicht und einfach zu schnell gefahren. Um den Vorfall zu verschleiern, meldete der Streifenkommandant über Funk an seine vorgesetzte Dienststelle, er könne seinen Auftrag nicht weiter durchführen, da sein Blaulicht ausgefallen sei. Die Kommandostelle funkte zurück: Glühbirne auswechseln! Jetzt hieß es Farbe bekennen. Kleinlaut kam es aus dem Äther zurück: Wir können die Glühbirne nicht auswechseln. Das Fahrzeug liegt drauf.“

An unsere Bundestagsabgeordneten und diejenigen, die gegenwärtig in den Ministerien an der EEG-Novelle basteln gerichtet: Wer das kennt und weiß, macht sich nach meinem Verständnis der Untreue und des Betrugs durch Unterlassung schuldig: Im juristischen Sinne, aber vor allem auch moralisch im Hinblick auf den Eid, den Abgeordnete wie Beamte auf die Verfassung der Bundesrepublik Deutschland ablegen. Lassen Sie sich nicht weiter hinters Licht führen! Das EEG gehört ganz einfach abgeschafft!

Anhang 1:

Die begünstige Strommenge im Rahmen der “Besonderen Ausgleichsregelung” hat sich in den Jahren 2011 – 2012 – 2013 wie folgt entwickelt: von 85 über 86 auf 96 Terawattstunden, dabei wuchs die Anzahl der befreiten Unternehmen von 603 über 734 auf 1720 (infolge der EEG-Novelle 2012). Bei einem Gesamtvolumen der EEG-Umlage dieser Jahre in Höhe von 13,2 – 17,0 – 20,4 Mrd. € macht die Befreiung 2,2 – 2,5 – 4,0 Mrd. € aus. Interessant ist noch, dass zum Anstieg der EEG-Umlage in 2014 (um 0,96 ct/kWh) auf 6,24 ct/kWh, die Befreiung mit 0,14 ct/kWh beiträgt, das sind 15% (nachzulesen in der Antwort der Bundesregierung vom 27.12.2013 auf die Kleine Anfrage der Abgeordneten Bärbel Höhn und der Fraktion BÜNDNIS 90/DIE GRÜNEN – Drucksache 18/165).

Anhang 2:

In einer Publikation aus dem Jahre 2011 (www.kernenergie.de) ist zum Thema „Kostenvergleich“ auf S. 468 zu lesen:

„Die Kernkraftwerke, die heute Strom erzeugen, haben nie Subventionen erhalten.
Dies haben verschiedene Bundesregierungen, zuletzt die Regierung Schröder/Fischer, unmissverständlich erklärt. Eingesetzte FuE-Mittel der öffentlichen Hand waren als Anschubfinanzierung gedacht und haben dort, wo die einzelnen Technologien sich entfalten konnten, ihren Zweck überzeugend erfüllt. Andere Energieträger, wie beispielsweise regenerative Energien, erhielten und erhalten weiterhin Unterstützungsmittel, allerdings nach einem anderen Förderkonzept. Sie werden überwiegend unmittelbar vom Stromkunden aufgrund gesetzlicher Vorgaben unterstützt, ohne dass das Ziel wirtschaftlicher Stromerzeugung entscheidend näher rückt.“

Und zum Rückbau der Kernkraftwerke ist zu lesen:

„Ebenso falsch ist die Aussage in Politik und Medien, der Rückbau der Kernkraftwerke und ihre Entsorgung würden aus Steuermitteln bezahlt. Richtig ist, dass diese Kosten heute bereits im Strompreis enthalten sind. Der notwendige Aufwand für die Stilllegung der Kernkraftwerke wird in den Bilanzen zurückgestellt. Er wird angespart über 25 Jahre; die Mittel stehen also bereits jetzt nahezu vollständig zur Verfügung. Jährliche Anpassungen tragen Preissteigerungen und neuen regulatorischen Vorgaben Rechnung. Die notwendigen Kosten der Endlagerung, darunter aktuell die Umrüstung des Endlagers Konrad und die Erkundung des Salzstocks Gorleben auf seine Eignung als Endlager, werden im laufenden Jahr vom Bund vorfinanziert und unmittelbar danach den Abfallverursachern aus Industrie und öffentlicher Hand in Rechnung gestellt. Einzelheiten dazu regelt die Endlagervorausleistungs-Verordnung. Die späteren Kosten des Betriebs und der Stilllegung der Endlager sind und werden weiter bedarfsgerecht zurückgestellt. Auch die auf 2,5 Mrd. € begrenzte Deckungsvorsorge für Schäden aus der Kernenergie-Nutzung kann nicht als Subvention gelten. Die Haftungssumme bis 250 Mio. € wird zunächst über den Versicherungsmarkt gedeckt und darüber hinaus bis 2,5 Mrd. € über den, auch im Ausland üblichen Nuklearversicherungspool der betroffenen Unternehmen auf Gegenseitigkeit. Außerdem haften die jeweiligen Unternehmen aber mit ihrem ganzen Vermögen für Schäden, die diese Grenze überschreiten. Würde eine solche Forderung nach einer unbegrenzten Haftung auch an andere risikoträchtige Industrien gerichtet, so wäre deren Wettbewerbsfähigkeit im internationalen Bereich massiv eingeschränkt.“

PS.: Thomas Linnemann, der Mitautor der o.g. Publikation ist nicht identisch mit dem Albstädter Stadtwerkedirektor.

Über den Autor:

Dr. Jürgen Gneveckow ist ein deutscher Politiker der CDU und seit 1999 Oberbürgermeister der Stadt Albstadt. Nach dem Studium der Betriebs- und Volkswirtschaftslehre in Freiburg und Regensburg, Abschluss Diplom-Kaufmann und Diplom-Volkswirt promovierte er in Regensburg, arbeitete bis 1999 im Bundesumweltministerium und war von 1993 bis 1996 als Nationaler Experte zur Generaldirektion „Umwelt“ der Europäischen Kommission in Brüssel abgeordnet

Der Beitrag erschien am 4.April 2014 bei ScienceSceptical hier




Fakten statt Emotionen – Klimapolitik ohne Katastrophe

Fakten statt Emotionen – Klimapolitik ohne Katastrophe

Meine sehr verehrten Damen und Herren,

wenn ich der Bitte entspreche, Fakten statt Emotionen zu präsentieren, so wird mein Vortrag keineswegs emotionslos sein, denn der Mensch ist von Natur aus ein extrem klimasensibles Wesen. Unser Gefühlsleben ist keine konstante Größe und kann durch Neigungseinflüsse schnell aus der Balance geraten. Manchmal genügt ein Wort, um eine Stimmung plötzlich zu verändern und Zuneigung in Abneigung zu verwandeln. Wenn zwischen Menschen Liebe in Hass umschlägt, dann ist das eine Klimakatastrophe, die in Feindschaft, Trennung, Scheidung, gar zu Mord und Totschlag führen kann.

Es ist Aufgabe eines jeden Staates und der gesamten Staatengemeinschaft, eine Politik zu betreiben, die dem „Frieden auf Erden“ dient. Das wäre im wahrsten Sinne des Wortes eine „Klimapolitik ohne Katastrophe“. Gelänge es, alle Neigungsverhältnisse wie Egoismen aller Menschen untereinander sorgsam auszutarieren und zu stabilisieren, Missgunst und Neid könnten unterbunden und Kriege vermieden werden. Hierauf sollte sich die Politik konzentrieren. Dies wäre Klimapolitik in der ursprünglichen Bedeutung des Wortes „Klima“, das aus dem Griechischen kommt und „Neigung“ bedeutet. In allen Familien, Verbänden, Vereinen, Völkern und Staaten gibt es unzählige Bereiche, um ein „gutes Klima“ zu schaffen. Denken Sie an das Arbeitsklima, das Betriebsklima, das gesellschaftliche, politische und soziale Klima, das Konjunktur-, Wirtschafts- und Finanzklima, das Börsenklima. Der Grieche Heraklit sagte einmal „Alles fließt!“ Doch wie schnell und in welche Richtung ein Strom fließt, das hängt von der Neigung, dem Klima ab. 

Jeder Mensch wünscht sich allzeit ein „gutes Klima“, aber genau das wünschen sich alle anderen auch, so dass es Konflikte gibt. All die vielen persönlich wie gesellschaftlich sehr unterschiedlichen Neigungsströme friedlich nach rechtsstaatlichen Kriterien zu koordinieren und vor Problemen, ja Turbulenzen oder gar revolutionären Umbrüchen zu bewahren, das wäre eine sinnvolle Klimapolitik. Ihr Zweck ist, Katastrophen zu verhindern und nicht herbeizureden, wie es der US-Außenminister John Kerry in Indonesien getan hat. Das Handelsblatt vom 16. Februar 2014 zitierte Kerry: „In gewisser Weise kann der Klimawandel jetzt als eine weitere Massenvernichtungswaffe betrachtet werden, vielleicht sogar als die fürchterlichste Waffe der Welt.“ Hätte er vorher bloß den Rat des Philosophen Friedrich Hegel beherzigt, der mahnte, dass am Anfang jeder wissenschaftlichen Arbeit „die Arbeit am Begriff“ stehen müsse.

Der Klimawandel als Neigungswandel ist das Natürlichste auf der Welt. Wohl nichts ändert sich schneller als der Neigungswinkel der Sonnenstrahlen, wie jede Sonnenuhr zeigt. Die älteste Naturwissenschaft ist die Himmelskunde, die Astronomie. Die  Beobachtung des Wechsels von Tag und Nacht, des Wechsels des Neigungswinkels der Sonnenstrahlen von Sonnenaufgang bis Sonnenuntergang und auch des Höhenwinkels der Sonne im Jahresverlauf, mit dem auch der Wechsel der Tageslänge korrespondierte, alles führte zu der Erkenntnis, dass sich die Erde um die Sonne dreht. Steht die Sonne tief am Horizont, sind die Tage kurz, ist es Winter. Nach der Wintersonnenwende am 21. Dezember steigt die Sonne höher, werden die Tage länger, nimmt die Intensität der Sonnenstrahlung zu, wird es wärmer. Astronomische Beobachtungen führten die Griechen dazu, die kugelförmige sich täglich um die eigne Achse drehende wie jährlich die Sonne umrundende Erde in Klima- oder Neigungszonen einzuteilen. Den Bereich zwischen Äquator und den Wendekreisen in 23,5 Grad nördlicher wie südlicher Breite, wo mindestens einmal im Jahr die Sonne im Zenit steht, nannten sie Tropenzone. Den Bereich von den Polen bis zu den Polarkreisen in 66,5 Grad nördlicher wie südlicher Breite nannten sie Polarzone. Der Bereich zwischen jeweils 23,5 und 66,5 Grad war für sie die gemäßigte Zone. Diese solare Klimazonierung liegt allen Klimaklassifikationen zugrunde.

Die antik-astronomische, sich an der solaren Beleuchtung orientierende Klimaeinteilung besagt, dass die Neigung und Intensität der Sonnenstrahlung wie ihr jahreszeitlicher Verlauf von der geographischen Breite abhängen. Daher gibt es eine vom Äquator hin zu den Polkappen gerichtete Temperaturabnahme. Am Strahlungsgenuss orientierte sich Wladimir Peter Köppen (1846-1940), der 1936 mit seinem Werk „Geographisches System der Klimate“ die erste objektive Klimaklassifizierung der Erde vorlegte und dabei Temperaturdaten, Niederschlagsdaten und die Vegetation einbezog. Er unterteilte die Erde in fünf Klimazonen: Tropische Klimate, Trockenklimate, Warmgemäßigte Klimate, Schneewaldklimate, Eisklimate. Der Äquator als Wärmepol mit den thermisch aufsteigenden Luftmassen ist der solare Motor für die Allgemeine Zirkulation, die das geographisch extrem unterschiedliche Wetter auf der Erde erzeugt. Ebenso wenig wie ein „Globalwetter“ gibt es ein „Globalklima“.

Der US-Außenminister John Kerry war nicht gut beraten, einen Rundumschlag gegen die „Leugner des Klimawandels“ zu führen und sie mit denen zu vergleichen, die im Mittelalter glaubten, dass die Erde eine Scheibe ist. Unter dem Hinweis, dass sich die Klimaexperten einig seien, dass sich Kohlenstoffdioxid und andere Treibhausgase „als Schicht um die Erde anreichern und wie eine Art Gewächshaus die Sonnenenergie festhalten“ polterte er lautstark: „Wir haben einfach keine Zeit, um ein paar lautstarke Interessengruppen die Debatte an sich reißen zu lassen.“ Eine kleine Gruppe „schlechter Wissenschaftler und Ideologen“ dürfe nicht wissenschaftliche Tatsachen infrage stellen.

Im Schutz einer vermeintlichen Meinungsmehrheit ist leicht agieren, aber ist Mehrheit, ist Konsens ein wissenschaftliches Argument? Ich habe für diesen Vortrag zwei Bücher herangezogen: 1. Stefan Rahmstorf und Hans Joachim Schellnhuber, Der Klimawandel (2012); 2. Sven Plöger, Gute Aussichten für morgen. Wie wir den Klimawandel bewältigen und die Energiewende schaffen können (2012). Herausgeber dieses Buches ist die Bundeszentrale für politische Bildung. Sven Plöger ist ein ARD-bekannter Meteorologe und soll die Klimapolitik der Bundesregierung argumentativ in der Bildungspolitik stützen. Er bekennt: „Auch wir, die wir „vom Fach“ sind müssen uns einer Prüfung gefallen lassen.“ Das werde ich tun, sozusagen in einer Art Peer-Review-Verfahren. Seien Sie gespannt. Schellnhuber und Rahmstorf sind wohlbekannter Physiker. Sie leiten das PIK, das Potsdam-Institut für Klimafolgenforschung. Beide sind auch im WBGU, dem „Wissenschaftlichen Beirat Globale Umweltveränderungen“. Dieser wird von Professor Dr. Schellnhuber geführt und propagiert offen die „Große Transformation“. Sie schreiben: „Nach Lektüre dieses Buches wird der Leser hoffentlich unserer Ansicht zustimmen, dass die Bewältigung des Klimawandels einer Feuertaufe für die im Entstehen begriffene Weltgesellschaft darstellt.“ Ich kann dieser Ansicht nicht zustimmen.

Aber nun ins Detail. Was sagen uns die Klimaexperten Rahmtorf und Schellnhuber? „Das Klima unseres Heimatplaneten hat immer wieder spektakuläre Wandlungen durchgemacht. In der Kreidezeit (vor 140 bis 65 Millionen Jahren) stapften selbst in arktischen Breiten riesige Saurier durch subtropische Vegetation, und der CO2-Gehalt der Atmosphäre war ein Vielfaches höher als heute. Dann kühlte sich die Erde langsam ab und pendelt nun seit zwei bis drei Millionen Jahren regelmäßig zwischen Eiszeiten und Warmzeiten hin und her.“ (S.9) Einige Seiten weiter heißt es: „Die Daten zeigen zwei Phasen mit niedrigem CO2-Gehalt: die jüngere Klimageschichte der vergangenen Millionen Jahre und einen Zeitraum vor 300 Millionen Jahren. Ansonsten lag der CO2-Gehalt zumeist wesentlich höher, über 1000 ppm (parts per million).“ (S.17) Einige Seiten später: „Die Klimageschichte hat auch handfeste Überraschungen zu bieten. Im Verlauf der letzten Eiszeit kam es über zwanzigmal zu plötzlichen, dramatischen Klimawechseln. Innerhalb von nur ein bis zwei Jahrzehnten stieg in Grönland die Temperatur um bis zu 12°C an und blieb dann mehrere Jahrhunderte warm.“ (S.23) Dann beschreiben Sie das Klima des Holozäns, „der Warmzeit, in der wir seit 10 000 Jahren leben. Das Holozän ist nicht nur durch ein warmes, sondern auch durch ein vergleichsweise stabiles Klima gekennzeichnet.“ (S.25)

Doch wie sieht das „stabile Klima“ aus? Ich zitiere: „Von besonderem Interesse sind die Klimaschwankungen der letzten Jahrtausende, sind sie uns doch historisch am nächsten. Ein interessantes Beispiel ist das Schicksal der Wikingersiedlung in Grönland. Daten vom nächstgelegenen Eisbohrkern Dye 3 im Süden Grönlands zeigen, dass das Klima dort besonders warm war, als Erik der Rote im Jahr 982 seine Siedlung gründete. Doch die guten Bedingungen hielten nicht an, sondern sie verschlechterten sich in den folgenden 200 Jahren immer mehr. Eine vorübergehende Warmphase im 13. Jahrhundert gab nochmals Hoffnung, aber im späten 14. Jahrhundert war das Klima so kalt geworden, dass die Siedlung wieder aufgegeben werden musste. Erst in der Mitte des 20. Jahrhunderts wurden die warmen Temperaturen des Mittelalters in Südgrönland wieder erreicht.“ (S.26) Wenige Seiten vorher heißt es: „In den letzten Eiszeitzyklen haben die Kaltphasen meist viel länger angehalten (~90 000 Jahre) als die Warmphasen (~10 000 Jahre). Wenn das auch für das Holozän gälte, müsste es bald zu Ende sein.“ (S.21)

Zum Schluss des Kapitels „Klimageschichte“ eine Wertung der Autoren: „Die Klimageschichte belegt vor allem die dramatische Wechselhaftigkeit des Klimas. Das Klimasystem ist ein sensibles System, … zudem ein nichtlineares System, das … zu sprunghaften Änderungen neigt. Das Klima ist kein „träges Faultier, sondern gleicht einem wilden Biest“, wie es der bekannte amerikanische Klimatologe Wallace Broeker einmal formulierte.“ Dabei hatten sie am Anfang des Kapitels noch frohlockt: „Zum Glück ist die Berechnung von Klimagrößen (also Mittelwerten) einfacher als die Wettervorhersage, denn Wetter ist stochastisch und wird stark durch Zufallsschwankungen geprägt, das Klima dagegen kaum.“ Was heißt das im Klartext? Den Klimaverlauf zu rekonstruieren, bedeutet keineswegs, ihn auch ursächlich erklären zu können. Daher auch die Ungenauigkeiten und Widersprüche. Trotz der statistischen Mittelung übertragen sich die „Zufallsschwankungen“ des Wetters auf das Klima und spiegeln sich in dessen Schwankungen wider!

Haben Sie genau zugehört? Sind Ihnen die zahlreichen Widersprüche aufgefallen? Es ist schlimmer, man schreibt ein Buch über den „Klimawandel“ und erwähnt mit keinem Wort, was Klima bedeutet und wie Klima definiert ist. Klima ist statistisch vom Wetter abgeleitet und daher ein Abstraktum, ein rein wissenschaftliches Konstrukt ohne reale Existenz. Natürlich ist es leichter, „Mittelwerte“ aus vergangenen Wetterdaten zu berechnen, als Wettervorhersagen zu machen. Die Definition von Klima sagt aber auch, dass die einzig sinnvolle Darstellung des Klimaablaufs darin bestünde, gleitende 30-jährige Mittel zu zeichnen, um die Schwankungen des Wetters in der Zeit, wenn auch geglättet, zu verfolgen. Doch dies wird bewusst unterlassen, um ständig neue Anomalien zu konstruieren, wie jetzt wieder im Fünften Sachstandsbericht des IPCC der am 31. März 2014 in Yokohama der Öffentlichkeit präsentiert wurde. Das Papier für „politische Entscheidungsträger“ beginnt mit dem rätselhaften aber furchterregenden Satz: „Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950 Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten.“ Ohne konkrete Angaben, ohne geringsten Beweis werden Behauptungen in die Welt gesetzt, um Panikstimmung zu erzeugen. Deswegen hat der Klimaökonom Richard Tol demonstrativ seine Unterschrift zurückgezogen.

In dem Teilbericht 1 „Wissenschaftliche Grundlagen“ wird festgestellt, dass Klimadaten seit Mitte des 19. Jahrhunderts vorliegen, aber erst seit den 1950er Jahren „in ausreichender Vollständigkeit und Qualität.“ Dennoch wird behauptet: „Die globale Mitteltemperatur in Bodennähe stieg im Zeitraum von 1880 bis 2012 um 0,85°C. Jedes der drei vergangenen Jahrzehnte war wärmer als alle vorhergehenden seit 1850. In der Nordhemisphäre war die letzte 30-jährige Periode (von 1983 bis 2012) die wärmste seit 1 400 Jahren.“ Es gehört schon viel manipulative geistige Energie dazu, um solche Texte zu konstruieren. Was leitet der Weltklimarat IPCC daraus ab? „Risiken für Menschen bestehen durch die Beeinträchtigung von Dienstleistungen der Natur (z.B. durch Extremtemperaturen, Dürreperioden, Überflutungen, Ozeanerwärmung und –versauerung sowie den daraus resultierenden Verlusten an Biodiversität und Produktivität von Ökosystemen und Landwirtschaft) sowie durch Schäden an Infrastrukturen und Landverluste (z.B. durch Meeresspiegelanstieg).“ Solche Texte sind ein Fundgrube für alarmistische Schlagzeilen. Sie werden den Journalisten geradezu in den Mund gelegt!

Weiter der IPCC: „Zunehmender Klimawandel verlangsamt das Wirtschaftswachstum, gefährdet die Ernährungssicherheit, verschärft soziale Ungleichheiten und birgt damit die Gefahr gewaltsamer Konflikte und verstärkter Migrationsbewegungen.“ Das Wetter eine „Dienstleistung der Natur“? Wenn das Wetter uns ärgert, warum verzichten wir nicht einfach auf diese Dienstleistung? Der Mensch ist als „Endprodukt“ von Evolution oder Schöpfung in die Natur gestellt worden und hat es vorteilhaft verstanden, sich bei der Ausbreitung über die Erde stets klug den unterschiedlichsten Wetterbedingungen anzupassen. Doch zurück zum Kapitel „Aus der Geschichte lernen“ von Rahmtorf und Schellnhuber. Sie sprachen von den „spektakulären Wandlungen des Klima“, dem „Vielfach höheren CO2-Gehalt der Luft“ und fuhren dann fort: „Dann kühlte sich die Erde langsam ab…“ Die Frage „Warum“ ließen sie offen. Wieder ohne Erklärung schreiben sie im gleichen Kapitel: „dreht man am CO2 (wie derzeit der Mensch), so folgt wenig später die Temperatur“. Doch wie konnten Menschen am CO2 drehen,  lange bevor es sie gab? Man muss genau lesen, um solche Feinsinnigkeiten nicht zu überlesen.

Hätten die Experten doch nur den Ersten Bericht der Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ vom 2. November 1988 gelesen, dem der Bundestag einhellig zugestimmt hat. Darin steht: „Die Gase in der Atmosphäre absorbieren die IR-Strahlung der Erdoberfläche in den meisten Spektralbereichen stark, in einigen dagegen nur geringfügig, wie etwa im Spektralbereich 7 bis 13µm. In diesem Bereich stammt der größte Teil der IR-Strahlung von der Erdoberfläche. Er wird als „offenes atmosphärisches Strahlungsfenster“ bezeichnet, da hier am wenigstens Wasserdampf- und Kohlendioxidabsorption stattfindet. 70 bis 90% der Abstrahlung der Erdoberfläche gelangen hier direkt in den Weltraum“ (S.371). Sodann heißt es: „Der Treibhauseffekt durch CO2 wird im wesentlichen durch seine Absorptionsbande bei 15 µm bewerkstelligt.“ Dies ist die Erklärung dafür, dass die Erde sich auch trotz einer Atmosphäre, die Unmengen von Wasserdampf und CO2 enthielt, abkühlen konnte, unter die kritische Temperatur von 100°C (373 K). Bei Unterschreiten der 100°C begann der Wasserdampf zu kondensieren. Erstmals bildeten sich Wolken. Es setzten sintflutartige Regenfälle ein, denen die Ozeane ihre Existenz verdanken. Warum? Das „Strahlungsfenster“ war offen, ist offen und wird offen bleiben! Die Erde ist kein Treibhaus und das ist die Überlebensgarantie für Fauna und Flora, für alles Leben auf Erden. Kritisch wird es für alles Leben erst, wenn manche Wunschträume nach einer „CO2-freien Atmosphäre“ Wirklichkeit würden. Dann würde bei der Photosynthese ein notwendiges Glied fehlen. Das CO2 ist ein Grundnahrungsmittel und kein „Umweltgift“! Ohne diesen „Schadstoff“ würde den grünen Pflanzen die Existenzgrundlage entzogen, würde das Symbol der „Grünen“, die Sonnenblume, sterben. Man sieht es auch beim Wasser. Fehlt dieses, dann vertrocknen die Pflanzen, mag der CO2-Gehalt der Luft noch so hoch sein. CO2, H2O und das Sonnenlicht sind unverzichtbar für grüne Pflanzen. Fehlt ein Faktor, dann gibt es keine Nahrungs- und Sauerstoffproduktion mehr. Allem Leben auf der Erde wäre die Existenzgrundlage entzogen.

Ziehen wir wieder Sven Plöger hinzu. Er beschreibt, dass die „zweite Atmosphäre“ wahrscheinlich zu „70% aus Wasserdampf und zu 25% aus Kohlendioxid“ bestand und fährt fort: „Der junge Planet kühlte sich weiter ab, und deshalb konnte der Wasserdampf nun kondensieren: Die wohl längste „Schlechtwetterperiode“ auf Erden setze ein. Etwa 40 000 Jahre hat es durchgeregnet, aber kräftig. Rund 3000 Liter Wasser fielen pro Tag auf jeden Quadratmeter… Infolgedessen entstanden unsere Ozeane.“ Die folgende „dritte Atmosphäre“ bestand hauptsächlich aus Stickstoff und Kohlendioxid, bevor Cyanobakterien (Blaualgen) als Vorstufe der grünen Pflanzen begannen, Photosynthese zu betreiben und dabei Sauerstoff abzugeben. Die Begrünung der Landmassen begann schließlich vor rund 440 Millionen Jahren. Heute leben wir in der „vierten Atmosphäre“ mit 28% Stickstoff, 21% Sauerstoff und 0,04% (400 ppm) Kohlenstoffdioxid. (S.47) Sven Plöger nennt einige Zahlen, um ein „Gefühl für CO2-Konzentrationen“ zu geben: Die Bedingungen für unsere Pflanzen wären bei 1000 ppm ideal; die maximale Arbeitsplatzkonzentration liegt bei 5000 ppm; die Luft, die wir ausatmen, enthält 40 000 ppm; Bewusstlosigkeit und Tod treten ab 80 000 ppm ein.

Sven Plöger verhält sich stets „politisch korrekt“, aber sein Buch enthält Stolpersteine, die zum Nachdenken anregen. Beispiel: „Wetter können wir mit unseren Sinnesorganen fühlen, es zu erleben löst unmittelbar Empfindungen in uns aus. Wetter ist uns emotional sehr nah. Klima hingegen ist Statistik und die können wir nicht fühlen. Deshalb ist das Klima uns emotional fern.“  Weiter: „Das gemittelte Wetter ist also kein Normwetter. So etwas gibt es nicht. Beim Wetter ist die Abweichung von der Norm die Norm!“ Doch dann macht er den Klima-Salto: „Das statistische Konstrukt ist jedoch unglaublich hilfreich und notwendig, denn man kann sich schließlich nicht alle Wetterlagen über alle Ewigkeiten merken.“ (S.21) Das Klima als lebloses statistisches Konstrukt wird politisch instrumentalisiert, um mit der Drohung vor der Klimakatastrophe mit zunehmendem Extremwetter Klimaängste zu schüren und zum Klimaschutz aufzufordern. Dieser apokalyptischen Argumentation  folgt haargenau der Weltklimarat IPCC. Welcher geängstigte Mensch merkt, dass da falsche Propheten am Werk sind, die klammheimlich Ursache und Wirkung vertauscht haben? Das Wetter ist und bleibt die Ursache für jedweden Klimawert. Veränderungen beim Wetter ziehen Veränderungen beim Klima nach sich.

Kommen wir nun zu dem alles entscheidenden Punkt, dem Treibhauseffekt und der Klimasensitivität. Nach Rahmstorf und Schellnhuber ist er „ein ganz natürlicher Vorgang“, der „sogar lebensnotwendig“ ist. Wörtlich: „Eine einfache Rechnung zeigt die Wirkung. Die ankommende Sonnenstrahlung pro Quadratmeter Erdoberfläche beträgt 342 Watt. Etwa 30% werden reflektiert, es verbleiben 242 Watt/m2, die teils in der Atmosphäre, teils von Wasser- und Landflächen absorbiert werden. Ein Körper, der diese Strahlungsmenge abstrahlt, hat nach dem Stefan-Boltzmann-Gesetz der Physik eine Temperatur von -18°C; wenn die Erdoberfläche im Mittel diese Temperatur hätte, würde sie also gerade so viel abstrahlen, wie an Sonnenstrahlung ankommt. Tatsächlich beträgt die mittlere Temperatur an der Erdoberfläche aber +15°C. Die Differenz von 33 Grad wird vom Treibhauseffekt verursacht, der daher erst das lebensfreundliche Klima auf der Erde möglich macht.“ (S.31) Diese Rechnung ist in der Tat einfach, und zwar einfach falsch, weil sie an der Wirklichkeit vorbei geht.

Jetzt muss ich mit Sven Plöger „Halt, stopp, langsam!“ rufen. Wie konstruiert er den Treibhauseffekt? Er erwähnt zuerst, dass unsere Erde rund 150 Millionen Kilometer von der Sonne entfernt ist, der Abstand aufgrund der elliptischen Erdbahn zwischen  147 und 152 Millionen Kilometer pendele, die Erde im Mittel eine Energie von rund 1370 W/m2 erhalte. Nun seine Rechnung: „Von diesen im Mittel 1370 W/m2 steht der Atmosphäre durch die Tatsache, dass die Erde sich dreht und wir damit die Hälfte der Zeit von der Sonne abgewandt sind, und dadurch, dass die Erde eine Kugel ist, nur ein Viertel zur Verfügung: also 342 W/m2. 107 W/m2 davon verschwinden durch Streuung und Reflexion an Atmosphäre und Erdboden ungenutzt wieder ins Weltall. Die verbleibenden 235 W/m2 erwärmen im Schnitt zu 30 Prozent die Atmosphäre, und zwar durch Absorption an Wolken, Wasserdampf, Staub und Ozon. Gute 70 Prozent werden von der Erdoberfläche absorbiert. Und genau diese durch Absorption entstandene Wärme strahlt der Erdboden seinerseits wieder ab.“ (S.39)

Beide Rechnungen sind mathematisch korrekt, doch physikalisch völlig abwegig. Plöger geht noch halbwegs von der Wirklichkeit aus und erwähnt, dass die Erde eine „Kugel“ ist und die Hälfte der Zeit von der Sonne abgewandt ist. Dann muss sie der andere Hälfte der Zeit der Sonne zugewandt sein. Das bedeutet, die der Sonne zugewandte Seite erhält 1370 W/m2, die andere Seite erhält 0 W/m2. Hebt man Tag und Nacht auf, was theoretisch denkbar aber unsinnig ist, und verteilt die Strahlung gleichmäßig auf beide Erdhälften, dann ergäbe die Halbierung 685 W/m2. Dass die Erde eine Kugelform hat und immer die Hälfte von der Sonne beschienen wird, zeigt jedes Sattelitenfoto. Um ein Viertel der Erde zu bestrahlen, müsste man diese am Äquator aufschneiden und die Schnittfläche der Sonne zuwenden. Diese Querschnittfläche ist eine Kreisfläche (πr2), die ein Viertel der Kugelfläche (4πr2) beträgt. Die Erde ist aber keine „Scheibe“, sondern eine rotierende „Kugel“, die immer zur Hälfte von der Sonne bestrahlt wird. Die Verteilung der Sonnenstrahlung durch 4-Teilung der „Solarkonstanten“ vom Kreis auf die Kugel macht die Sonne rechnerisch „kalt“. Aber auf solch unhaltbare Annahmen einen „Treibhauseffekt“ samt „Hitzekollaps“ zu konstruieren, ist kein Ruhmesblatt. Es ist nach Prof. Dr. Zbigniew Jaworowski „der größte Wissenschaftsskandal unserer Zeit“. Naturwissenschaftler, welche von solch widernatürlichen Annahmen ausgehend einen „natürlichen Treibhauseffekt“ ableiten, mögen zwar politisch verdienstvoll sein und gut verdienen, aber den Namen „Naturwissenschaftler“ verdienen sie nicht.

Rechnen Rahmstorf und Schellnhuber mit ihren Tricks die Strahlkraft der Sonne auf 242 W/m2 und damit die Erdtemperatur auf -18°C herunter, so geht Plöger noch ein Stück weiter. Er behauptet, dass von den verbleibenden 235 W/m2 nur 70% von der Erdoberfläche absorbiert werden und das wären etwa 165 W/m2. Die Erde wäre eisiger als eisig! Wenn die Analogie von Rahmstorf und Schellnhuber stimmt, dass ein Körper, der mit 242 W/m2 ausstrahlt, eine Temperatur von -18°C hat, dann muss ein Körper mit einer Temperatur von +15°C eine Energie von 390 W/m2 abstrahlen. An dem Punkt bricht das ganze Erklärungsgebäude wie ein Kartenhaus in sich zusammen. Wie kann eine Erde, die 242 W/m2 in die Atmosphäre abstrahlt, aus dieser eine Gegenstrahlung von 390 W/m2 empfangen, um eine Temperatur von 15°C zu haben? Dieses Wunder soll in etwa 6 km Höhe geschehen, wo sich angeblich die „Treibhausgase“ sammeln, um eine Art Spiegel zu bilden. Aber auch ein Spiegel könnte nur 242 W/m2 widerspiegeln! Da die Temperatur um 6,5°C pro Kilometer Höhe abnimmt, ist es unwahrscheinlich, dass dort ein Heizstrahler existiert, der mit 390 W/m2 strahlt und die „Globaltemperatur“ von 15°C erzeugt. Plöger führt seine Argumentation selbst ad absurdum, indem er sagt, dass die Wärmestrahlung der Erde „aus dem Erdboden“ hervorgehe, „unsere Atmosphäre vor allem von unten erwärmt wird. Deshalb ist es in der Höhe kälter als im Flachland“. Ja, in dem Treibhaus geht es gedanklich zu wie im Tollhaus.

Noch toller ist die Argumentation beim „anthropogenen Treibhauseffekt“, der auf dem „natürlichen Treibhauseffekt“ aufbaut. Plöger beziffert den „energetischen Beitrag des menschengemachten Treibhauseffektes“ mit 2,5 W/m2. Rahmstorf und Schellhuber geben die „Klimasensitivität“ oder den Strahlungseffekt bei Verdopplung des CO2-Gehalts von 280 auf 560 ppm mit 3-4 W/m2 an. Dabei war Sven Plöger auf der richtigen Fährte, als er den Begriff „Solarkonstante“ als gewagt ansah und auf den wechselnden Abstand der Erde von der Sonne hinwies. Im Aphel Anfang Juli beträgt dieser 152,5 und im Perihel Anfang Januar 147,5 Millionen km. Ist den Klimaexperten das 1/r2-Gesetz unbekannt, das für alle Energiegrößen und auch die Gravitation gilt? Danach nimmt die elektromagnetische Sonnenstrahlung, d.h. die Leistung pro Fläche mit dem Quadrat der Entfernung ab oder zu. Dies bedeutet, dass die „Solarkonstante“ gar nicht konstant sein kann, sondern um 3,5% um den Mittelwert zwischen Perihel und Aphel schwankt. Anfang Januar erhält die Erde 1416 W/m2 und Anfang Juli nur 1320 W/m2. Global betrachtet müsste es nach Rechnung der Klimaexperten im Januar wesentlich wärmer sein als im Juli. Geht man von einer „Klimasensitivität“ von 4°C bei 4 W/m2 aus, so müsste vom Juli bis zum Januar die „Globaltemperatur“ zunehmen und vom Januar bis zum Hochsommer abnehmen. Wer diesen Gedankengang bezweifelt, den verweise ich gerne auf das Buch „Physical Climatology for Solar and Wind Energy“ von Rodolfo Guzzi und Carl Gerald Justus (Singapore 1988).

Es gäbe noch viele, sehr viele weitere Ungereimtheiten zwischen Modellannahmen und der Wirklichkeit hervorzuheben, aber das würde bei weitem den Zeitrahmen sprengen. Nur noch einen Punkt: Rahmstorf und Schellnuber fragen, „Was bestimmt das Klima?“ und antworten: „Unser Klima ist im globalen Mittel das Ergebnis einer einfachen Energiebilanz: Die von der Erde ins All abgestrahlte Wärmestrahlung muss die absorbierte Sonnenstrahlung im Mittel ausgleichen.“ (S.12) Muss sie das? Nein! Auch diese Annahme ist wirklichkeitsfern, haben doch beide Energieströme eine völlig andere Qualität und sind daher quantitativ nicht vergleichbar. Sonne und Erde haben extrem unterschiedliche Temperaturen, so dass die Annahme eines „Strahlungsgleichgewichtes“ zwischen Sonne und Erde völlig absurd ist. Dies bestätigen sogar indirekt Rahmstorf und Schellnhuber: „Die Oberfläche strahlt, wie jeder physikalische Körper, Wärme ab – je höher die Temperatur, desto mehr.“ Dies ist Inhalt aller Strahlungsgesetze, seien sie von Stefan-Boltzmann, Wilhelm Wien und Max Planck. Die Wärmestrahlung eines Körpers nimmt proportional der 4. Potenz der absoluten Temperatur zu oder ab. Es ist unsinnig, zwischen zwei Körpern mit 6000K und 300K ein „Strahlungsgleichgewicht“ zu postulieren. Unter welchen Bedingungen sich dieses theoretisch einstellt, zeigte 1809 Pierre Prévost, der schon 1791 herausfand, dass alle Körper Wärme ausstrahlen, egal ob warm oder kalt. Und was die Erde betrifft, so gehen etwa 30% der Solarstrahlung gar nicht in die Erderwärmung, sondern in die Erdkühlung. Sie gehen direkt in die H2O-Verdunstung, mit der der Wasserkreislauf aufrechterhalten wird. Denn noch wichtiger als die Temperatur ist das Wasser für alles Leben.

Die Oberfläche der Erde strahlt rund um die Uhr, bei Tag und bei Nacht, Wärme ab.  Kein Körper, auch nicht die Erde, kann sich von selbst erwärmen. Er muss erwärmt werden. Dafür ist die Sonne da, die Licht und Wärme zur Erde strahlt. Deswegen haben wir bei klaren Nächten, wenn das „Strahlungsfenster“ nicht durch Wolken zugehängt ist, auch frühmorgens die tiefsten Temperaturen, und zwar direkt am Erdboden, wo sich Lithosphäre und Atmosphäre berühren. Dies war sehr gut bei den vielen wolkenarmen Hochdruckwetterlagen heuer im März zu beobachten. Am 11. März 2014 wurden in Oppenheim am Rhein morgens um 6 Uhr gemessen: Bodentemperatur 2,9°C in 5 cm Tiefe, in 20 cm Höhe -0,7°C und in 200 cm Höhe 3,0°C. Am 12. März wiederholte sich das: Boden 3,0°C, 20 cm -1,3°C, 200 cm 1,5°C. Fazit? Von der erwärmenden Wirkung der Gegenstrahlung am Boden keine Spur! Mittags um 14 Uhr war die Bodeninversion weggeheizt. Am 11. wurden in 20 cm Höhe 18,2°C und in 200 cm 17,1, am 12. in 20 cm 17,6°C und in 200 cm 16,4°C gemessen. Diese Temperaturschichtung ist wichtig, denn ohne diese Erwärmung von unten würde die Luft nicht thermisch aufsteigen, könnten sich keine Haufen- oder Konvektionswolken am Himmel bilden, gäbe es keine Schäfchenwolken, Schauer und Gewitter. Leider gibt es keine direkten Temperaturen von der Erdoberfläche oder zumindest in 2 cm Höhe. Dann würde noch deutlicher werden, dass die Sonne zwar die Energiequelle für alles Leben wie die Luftbewegungen ist, dass aber der Boden am Tage die Heizfläche und in der Nacht die Kühlfläche für die aufliegende Luft ist.

0 0 1 3996 25178 Management Consult 209 58 29116 14.0 Normal 0 21 false false false DE JA X-NONE

Der Vergleich „Erde = Treibhaus“ ist von Grund auf falsch! Das „Treibhaus“ ist ein Angst machendes ideologisches Gebilde, vergleichbar der „Hölle“! Die Erde ist ganz im Gegensatz ein „offenes Ökosystem“ mit allzeit offenen Strahlungsfenstern, sowohl für die solare als auch die terrestrische Strahlung! Wie die Erdgeschichte zeigt, verdanken wir die „Sintflut“ und dem solar getriebenen Wasserkreislauf auf der Erde mit einem „Globalniederschlag“ von 1000 mm Regen der Nichtexistenz des angeblich „natürlichen Treibhauseffektes“.

Dipl.-Met. Dr. phil. Wolfgang Thüne




Soeben erschienen: NIPCC Climate Change Reconsidered II: Biological Impacts

Einführung

Der Einfluss des Menschen auf das globale Klima ist klein, und jede Erwärmung , die als Ergebnis der menschlichen Emissionen von Kohlendioxid (CO2) und anderen Treibhausgasen auftreten könnten, haben wahrscheinlich wenig Einfluss auf die globalen Temperaturen, die Kryosphäre (Eis bedeckten Flächen), Hydrosphäre ( Ozeane, Seen und Flüsse ) oder das Wetter. (Siehe Abbildung 1 ).

Climate Change Reconsidered II : Biologische Auswirkungen ( CCR – IIb) , (hier)

Der Gegenstand der vorliegenden Zusammenfassung für Entscheider in der Politik, untersucht die wissenschaftliche Forschung über die Auswirkungen der steigenden Temperaturen und der atmosphärischen CO2- Konzentration auf die biologische Welt (Idso et al. , 2014). Es sind keine Netto- Schäden für die globale Umwelt oder die menschliche Gesundheit feststellbar, aber man findet oft das Gegenteil: Nämlich Netto-Vorteile für die Pflanzen, darunter wichtige Nahrungspflanzen und -Tiere und die menschliche Gesundheit. ( Siehe 2. )

Climate Change Reconsidered II : Biologische Auswirkungen

ist der zweite von drei Bänden in der „Climate Change Reconsidered Reihe“ die vom Nichtstaatlichen International Panel on Climate Change ( NIPCC ) erstellt wurde . Gemeinsam stellen sie die umfassendste und unabhängigste Überprüfung der Klimawissenschaft dar, unter Nutzung jeder möglichen wissenschaftlichen Quelle . Sie wurden zusammgestelt um als Alternative zu den alarmierenden Berichten des UN Intergovernmental Panel on Climate Change (IPCC) verfügbar zu sein .

Der erste Band der Climate Change Reconsidered Reihe II-Serie mit dem Untertitel Physical Science , wurde im September 2013 veröffentlicht. Er zeigte, dass es keine gefährlichen menschlichen Eingriffe in das Erd-Klima gibt. Dieses Ergebnis ist an sich schon logisch ausreichend, um fast alle negativen Klima bezogene Auswirkungen, wie vom IPCC vorhergesagt, zu streichen. Dennoch gibt es eine umfangreiche Literatur zu den Auswirkungen, Kosten und Nutzen von steigende Temperaturen und atmosphärischen CO2-Konzentrationen, die zeigen, dass Klimawandel, ob natürlich oder künstlich, keine Krise ist . 

Climate Change Reconsidered II : Biologische Auswirkungen

Experten zu den biologischen Auswirkungen sichteten fachmännisch die gegenwärtige Literatur.

Climate Change Reconsidered II  Biological Impacts  (hier der ganze Bericht) verfolgt weitgehend und kritisiert die Arbeit der IPCC -Arbeitsgruppe II, die zeitgleich  ihren Bericht über die Auswirkungen des Klimawandels um die gleiche Zeit wie dieser Bericht vorgestellt hat. Es scheint, das das IPCC ihr Verhalten der selektiven Berichterstattung fortsetzt, um der Politik der Panikmache zu den Auswirkungen des Klimawandels weiter folgen zu können.

CCR-IIb ist ein 1,062-Seiten Report co-authored and co-edited durch Dr. Craig Idso, Dr. Sherwood Idso, Dr. Robert Carter, and Dr. S. Fred Singer,  die mit einem Team von mehr als 30 Wissenschaftler aus 13 Ländern daran gearbeitet ahben. Sie kommen zu dem Schluss, dass die Wissenschaft zeige, dass steigende Temperaturen und atmosphärischen CO2-Konzentrationen "keine Netto Schaden für die globale Umwelt oder die menschliche Gesundheit verursachen aber man  oft das Gegenteil findet:Nettonutzen, für Pflanzen, darunter wichtige Nahrungspflanzen und Tiere und menschliche Gesundheit"