Wolken-Rätsel XY ungelöst

"Jetzt aber will ein australisch-französisches Forscherteam das Rätsel gelöst haben. Und die Ergebnisse, die jetzt im Fachblatt “Nature” veröffentlicht wurden, verheißen nichts Gutes. Der Effekt der Wolken auf die Erwärmung sei unterschätzt worden, schreiben die Wissenschaftler um Steven Sherwood von der australischen University of New South Wales. Die Verdopplung des Kohlendioxids werde die Atmosphäre im globalen Durchschnitt nicht um 1,5 bis 4,5, sondern um 3 bis 5 Grad erhitzen."

Geschrieben hat die Meldung der Spiegel Online Redakteur Markus Becker. Hat er die Nature-Arbeit von Sherwood et al. richtig eingestuft? Die Arbeit stellt sich auf jeden Fall gegen den aktuellen Forschungstrend. Fast monatlich werden derzeit neue Studienergebnisse veröffentlicht, die eine deutlich geringere CO2-Klimasensitivität errechnen, als bislang vom IPCC angenommen (siehe Artikelübersicht hier). Zudem schießen die aktuellen IPCC-Modelle bekanntlich weit über die reale Temperaturentwicklung hinaus (Abbildung 1).

Abbildung 1:  Prognosen der IPCC-Klimamodelle (dünne farbig Linien) schießen meilenweit über die reale Temperaturentwicklung (blaue und grüne Punkte) hinaus (Abbildungsquelle). Offensichtlich ist die CO2-Klimawirkung zu hoch angesetzt worden. Sherwood et al. behaupten das Gegenteil: Das CO2 wäre sogar noch klimawirksamer als bislang gedacht. Die verrückte Welt der Klimamodellierung…

 Wie begründen Sherwood und Kollegen also ihre Außenseiterposition? Lesen wir hierzu kurz auf t-online weiter:

"Der Schlüssel der neuen Berechnung liegt nach Angaben der Forscher in der Wirkung der Klimaerwärmung auf die Wolkenbildung. Beobachtungen hätten gezeigt, dass höhere Temperaturen über dem tropischen Meer zu einer schwächeren Wolkenentstehung in geringer Höhe führten. Auf diese Weise erreiche mehr Sonnenlicht die Oberfläche und führe so zu einer noch stärkeren Erwärmung."

Interessant. Eine Klimaerwärmung wird vermutlich zu einer Steigerung des Wasserdampf-Gehaltes in der Atmosphäre führen. Das klingt plausibel. Wenn man einen Topf Wasser auf eine heiße Herdplatte stellt, entsteht jede Menge Wasserdampf. Der vermutete Wasserdampf-Anstieg dient in den Klimamodellen derzeit als wichtiger Verstärker der CO2-Klimawirkung. Allerdings: Mehr Wasserdampf könnte auch zu mehr tiefen Wolken führen, die wiederum kühlend wirken. Der Wiki-Bildungsserver erklärt:

"Wolken spielen bei Änderungen des Klimas eine besondere, schwer zu bestimmende Rolle. Ihre schnelle Veränderlichkeit, unterschiedliche Gestalt, verschiedene Höhe, differenzierte Reaktion auf Temperatur- und Strahlungsänderungen und ihre zahlreichen und gegensätzlichen Rückwirkungen auf Strahlung und Temperatur machen es äußerst schwierig, sie in Computermodellrechnungen angemessen zu berücksichtigen. Höhere Temperaturen können zur Wolkenauflösung führen. Andererseits kann eine wärmere Atmosphäre mehr Wasserdampf durch Verdunstung aufnehmen, was die Wolkenbildung begünstigen kann. Tiefe und dichte Stratuswolken reflektieren tagsüber die Sonnenstrahlung und wirken abkühlend, während sie nachts die Wärmestrahlung vom Erdboden reflektieren und erwärmend wirken. Hohe Cirruswolken lassen die Sonneneinstrahlung weitgehend passieren, nicht aber die von unten kommenden Wärmestrahlen."

Das Sherwood-Team behauptet nun also, das Rätsel wäre gelöst. Ein wärmeres Klima führt zu weniger Wolken und in der Folge zu noch mehr Erwärmung. Wir leben in einer freien westlichen Welt, und da kann jeder seine Meinung frei äußern. Aus wissenschaftlicher Sicht sieht es für Sherwood & Co. jedoch weniger gut aus. Eine Vielzahl von Arbeiten sieht die Situation anders. Mitte 2012 hatten wir bereits an dieser Stelle über eine solche Studie berichtet (siehe unseren Blogartikel “Wolken kühlen Südamerika ab: Schlechte Karten für den Wolkenverstärker des IPCC“).

Auch eine südkoreanische Forschergruppe um Heeje Cho fand für die Wolken im tropischen Pazifik eher eine wärmedämpfende Wirkung. Die Energieabstrahlung in den Weltraum steigerte sich mit jedem Grad Erwärmung des untersuchten Ozeangebietes. Die Arbeit erschien im September 2012 in den Geophysical Research Letters. Ebenfalls im Jahr 2012 erschien im Journal of Climate eine Arbeit einer Gruppe vom Lawrence Livermore National Lab um Peter Caldwell. Auch diese Autoren fanden für die Wolken Hinweise auf eine negative Rückkopplung, das heißt eine wärmedämpfende Rolle.

In dieser Richtung äußerte sich auch der Wolkenexperte Greg Holland vom US-amerikanischen National Center for Atmospheric Research:

“The current consensus on this from the IPCC is that the clouds are in the net warming. Not real sure. There is a possibility that the other effects are dominating and they could be cooling. So this is one of those areas that we need to know a lot more.”

Nun könnte man einfach einmal nachprüfen, wie sich die Wolkenbedeckung in den letzten Jahrzehnten so entwickelt hat. Seit 1980 ist es immerhin um ein halbes Grad wärmer geworden, da sollte doch schon der postulierte Wolkenrückgang zu verzeichnen sein. Und in der Tat: Im Journal of Climate erschien 2012 eine Arbeit von Ryan Eastman und Stephen Warren, die eine leichte globale Abnahme der Wolkenbedeckung in den letzten 40 Jahren feststellte. Schon hört man die Anhänger der Klimakatastrophe rufen: Da ist doch der Beweis! Aber halt, nicht so schnell. Gehen nun die Wolken zurück, weil es wärmer geworden ist, oder ist es wärmer geworden, weil die Wolken abgenommen haben? Der geneigte Leser sei hier auf unsere ausführliche Diskussion des Problems in einem früheren Blogartikel verwiesen (“Erwärmung durch weniger Wolken oder weniger Wolken durch Erwärmung?“; siehe auch Beitrag von Willis Eschenbach auf WUWT). Auch in Eurasien war dieses Phänomen zu erkennen, wie eine Studie aus 2012 von Qiuhong Tang und Guoyong Leng in den Environmental Research Letters zeigte. In Gebieten, in denen die Temperaturen stiegen, ging die Wolkendecke zurück. In Gebieten mit geringerer Erwärmung nahm die Wolkendecke zu.

Im August 2012 hatte T. Masters von der University of California in Los Angeles im Fachjournal Earth System Dynamics eine Studie mit dem Titel “On the determination of the global cloud feedback from satellite measurements” zu diesem Problem veröffentlicht. Sein Fazit fiel eindeutig aus: Die Satellitendaten der letzten 12 Jahre lassen keinerlei Aussage darüber zu, ob die Wolken nun die Klimaerwärmung verstärken oder abschwächen. Ein Anhänger der Klimakatastrophentheorie, Andrew Dessler, hatte als Reviewer mit allen Mitteln versucht, die Veröffentlichung der Studie zu unterbinden, letztendlich vergeblich, die Editorin fand die beiden anderen, positiven Gutachten überzeugender und veranlasste die Veröffentlichung des Papers. Im Folgenden die Kurzfassung der Arbeit von Master:

"A detailed analysis is presented in order to determine the sensitivity of the estimated short-term cloud feedback to choices of temperature datasets, sources of top-of-atmosphere (TOA) clear-sky radiative flux data, and temporal averaging. It is shown that the results of a previous analysis, which suggested a likely positive value for the short-term cloud feedback, depended upon combining all-sky radiative fluxes from NASA’s Clouds and Earth’s Radiant Energy System (CERES) with reanalysis clear-sky forecast fluxes when determining the cloud radiative forcing (CRF). These results are contradicted when ΔCRF is derived using both all-sky and clear-sky measurements from CERES over the same period. The differences between the radiative flux data sources are thus explored, along with the potential problems in each. The largest discrepancy is found when including the first two years (2000–2002), and the diagnosed cloud feedback from each method is sensitive to the time period over which the regressions are run. Overall, there is little correlation between the changes in the ΔCRF and surface temperatures on these timescales, suggesting that the net effect of clouds varies during this time period quite apart from global temperature changes. Given the large uncertainties generated from this method, the limited data over this period are insufficient to rule out either the positive feedback present in most climate models or a strong negative cloud feedback."

Kommen wir zurück zur Ausgangsbehauptung von Markus Becker, das Rätsel der Wolken sei jetzt gelöst. Der Blick in die Fachliteratur zeigt das Gegenteil: Die Wolken bleiben die große Unbekannte im globalen Klimaspiel. Sherwood und Kollegen haben lediglich ihre eigene, klimaalarmistisch geprägte Sichtweise an prominenter Stelle mit freundlicher Unterstützung der IPCC-nahen Nature-Redaktion präsentiert. Eine Vielzahl von Indizien weist jedoch in die genau gegenteilige Richtung: Wolken sind vermutlich gar nicht der befürchtete Verstärker der Erwärmung sondern wirken wohl eher dämpfend. Becker täte gut daran, das gesamte Spektrum der Fachliteratur zu referieren und sich nicht auf die ihm persönlich zusagenden Katastrophenmodelle zu beschränken. Mit unabhängiger Berichterstattung hat dies jedenfalls nichts mehr zu tun. Vielmehr handelt es sich um verdeckte Lobbyarbeit zur Förderung der klimaalarmistischen Gesinnung.

===================================================

 EIKE-Redaktion: Dieser Aufsatz wurde übernommen von Die kalte Sonne hier ; 

 Zur ungelösten Problematik der Wolken-Einflüsse in den Klima-Modellen sind jüngst weitere Beiträge erschienen, z.B. :

 http://www.eike-klima-energie.eu/news-cache/die-achilles-ferse-der-klima-modelle-wasserdampf-verstaerkung/ 06.03.2013

s o w i e   http://www.kaltesonne.de/?p=9091 / 17. März 2013

Zur weiteren Veranschaulichung hier zusätzlich einige Abbildungen als PDF-Anlage zum Download :

Related Files




Peer Review, das letzte Rückzugsgebiet für (uninformierte) Trolle

[*Diesen Begriff zu übersetzen erscheint mir wenig sinnvoll, zumal wohl jeder weiß, was damit gemeint ist. A. d. Übers.]

Bild rechts: Grabmal von Galileo Galilei

Ein Rückzug auf autoritäre Argumente angesichts total einfacher Beobachtungen ist nichts Neues. Vielmehr wiederholt sich die Geschichte. Nichts daraus gelernt habend scheinen wir dazu verdammt, die Geschichte zu wiederholen. Aber sowohl die Geschichte als auch die gegenwärtige Peer-Reviewed-Wissenschaft stehen, wenn man es aus der Distanz betrachtet, auf der skeptischen Seite.

Im fünften Jahrhundert vor Christus hat Empedocles theoretisiert, dass man sehen könne durch Strahlen, die vom Auge ausgehen. Um diese Bemerkung zu falsifizieren reicht eigentlich der Hinweis, dass man in einem dunklen Raum nichts sehen könne. Trotz dieser einfachen Beobachtung hat die Theorie während der folgenden 1600 Jahre substantiell Unterstützung erfahren.

Galileo starb im Hausarrest wegen seiner Befürwortung, dass sich die Erde um die Sonne dreht. Teils war er auf der Grundlage begutachteter Literatur jener Zeit verurteilt worden, der zufolge die Bewegung der Planeten, wie sie von der Erde aus beobachtet werden, einfach dadurch erklärt werden könne, dass sie in ihrem Orbit von Zeit zu Zeit die Richtung ändern. Fast 2000 Jahre lang bis zu Beginn des 19. Jahrhunderts bestätigte die begutachtete Literatur, dass man Kranken lediglich Blut abnehmen musste, um sie zu kurieren. Die einfache Beobachtung, dass die Todesrate durch diese Behandlung stieg, wurde von der Hand gewiesen mit dem Hinweis, dass es, falls es stimmen sollte, in medizinischen Journalen behandelt worden wäre. Kommt einem das bekannt vor?

Die Geschichte ist vollgestopft mit heute als völlig absurd angesehenen Gedanken. Gedanken, die sich stur weigern zu sterben, leben teilweise durch die genauso absurde Aussage fort, dass man Beweise des Gegenteils verwerfen muss, einfach weil diese nicht in den „richtigen“ Veröffentlichungen standen. Aber ist die Aussage der heutigen Klimawissenschaft genauso einfach durch simple Beobachtungen zu falsifizieren? Ich erkläre, dass dem so ist. [Im Original folgt der Satz: We have the climate models themselves to upon which to rely. Ich finde keine sinnvolle Übersetzung dafür. A. d. Übers.]

Was sind die Klimamodelle anderes als die Verkörperung der Peer-Reviewed-Wissenschaft? Gibt es auch nur ein einziges vom IPCC verwendetes Modell, das von sich behauptet, nicht auf Peer-Reviewed-Wissenschaft zu beruhen? Natürlich nicht. Und doch zeigen einfache Beobachtungen, dass die Modelle und damit auch die begutachtete Literatur, auf der sie basieren, falsch sind. Wir haben niemand anderen als das IPCC selbst, bei dem wir uns dafür bedanken können, uns dies gezeigt zu haben.

Der durchgesickerte zweite Entwurf des AR 5 hat das Scheitern der Modelle hinsichtlich der Temperaturvorhersage auf der Erde mit der Zeit gnadenlos offengelegt. Tatsächlich ist es so: wenn man alle Modelle aussortiert und nur 5% der Besten übrig behält, wären sie immer noch falsch, und zwar ganz offensichtlich. Sie sind allesamt wärmer als die Wirklichkeit. Angesichts dieser Bloßstellung vor der ganzen Welt, die jetzt sehen kann, wie sehr die Modelle (und damit die Wissenschaft, auf der sie basieren), falsch lagen, hat das IPCC darauf reagiert und ältere Modelle hinzugezogen, die zuvor als obsolet erklärt worden waren und jetzt plötzlich Teil der aktuellen Literatur sind:
http://wattsupwiththat.com/2013/10/04/no-matter-how-the-cmip5-ipcc-ar5-models-are-presented-they-still-look-bad/

Selbst mit diesen älteren und vermeintlich obsoleten Modellen zeigen die Klimamodelle nur ihr komplettes Scheitern. Mit anderen Worten, konfrontiert damit, dass Tausende durch Aderlass sterben, reaktiviert das IPCC alte Studien, die zeigen, dass sich drei oder vier Patienten erholen, die einst in Studien vor langer Zeit entdeckt worden waren. Es fordert Sie direkt auf zu glauben, dass die Planeten frei nach Gusto ihre Richtung im Orbit ändern. Sie haben eine Theorie erfunden, dass man im Dunklen nicht sehen kann, weil die Strahlen aus unserem Auge in Wechselwirkung mit Licht treten müssen, um zu funktionieren.

So lächerlich wie allein das schon klingt, für das IPCC ist es buchstäblich sogar noch schlimmer. Für diese Erkenntnis müssen wir uns zuallererst bei den Klimawissenschaftlern des Planeten bedanken.

Kevin Trenberth, vermutlich der politisch mächtigste Klimawissenschaftler der Erde, hat sich mit seiner berühmten Klage in den Klimagate-E-Mails hervorgetan, als er schrieb, dass wir uns die „fehlende Wärme“ nicht erklären können, ein stillschweigendes Eingeständnis, dass die Modelle falsch sind. Seitdem gab es zahlreiche Studien mit dem Ergebnis, dass die Wärme vielleicht in den Tiefen der Ozeane verborgen ist, wo man sie bequemerweise nicht messen kann. Selbst wenn das stimmen sollte, sind die Modelle falsch, denn sie haben dergleichen nicht vorausgesehen.

Die Studie von Roy Spencer zeigt, dass die Wärme in den Weltraum entweicht. Falls er recht hat, sind die Modelle falsch. Neuer ist die Studie von Cowtan und Way, die versucht uns weiszumachen, dass sich die Wärme an Stellen der Erde versteckt, von wo es keine Daten von Wetterstationen oder Satelliten gibt. Diese Wärme ist ganz schön wählerisch, wenn sie sich nur an Orten versteckt, wo wir sie nicht finden können. Falls diese Studie recht hat, dann hat kein einziges Modell dergleichen vorhergesagt, und die Modelle sind wieder falsch. Spencers Studie ragt aus den anderen heraus, weil darin keine absurden Verdrehungen enthalten sind, die auf offenkundige Weise versuchen, der CAGW-Linie zu folgen. Aber man stelle das in den richtigen Kontext: Alle diese Studien wurden veröffentlicht nicht weil die Modelle (und die ihnen zugrunde liegende Wissenschaft) richtig wären, sondern weil sie falsch sind, und zwar ganz offensichtlich.

Es geht in dieser Debatte nicht mehr darum, ob die Modelle falsch sind. Es geht jetzt darum, warum die Modelle falsch sind. Die Modelle sind gefallen, und die Peer-Reviewed-Wissenschaft als deren Grundlage fallen mit ihnen.

Aber Sie müssen mir in dieser Hinsicht nicht glauben.

Nur der Peer-Reviewed-Wissenschaft durch die an vorderster Front stehenden Klimawissenschaftler der Welt.

Link: http://wattsupwiththat.com/2013/12/29/peer-review-last-refuge-of-the-uninformed-troll/#more-100055

NACHTRAG: Übersetzt von Chris Frey, der sich für die vielen konstruktiven Kommentare unten  zur Übersetzung bedankt!




Energiepolitisches Manifest – Argumente für die Beendigung der Energiewende (1)

Energiepolitisches Manifest

Argumente für die Beendigung der Energiewende

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD. Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

 

Gliederung

Vorwort

1.      Klimaschutz – das Hauptziel der Energiewende wurde bereits aufgegeben

2.      Faktencheck: Erneuerbare-Energien-Gesetz EEG, Energie-Einsparverordnung EnEV, Erneuerbare-Energien-Wärme-Gesetz  EEWärmeG und Energiewende

   2.0    Physik und Technik des elektrischen Stromes versus Ideologie und Betrug

   2.1    Die Grenzen der Stromerzeugung mit „Erneuerbaren“

   2.2    Der Weg in die staatliche Planwirtschaft mit EEG und die Vertreibung der Industrie

   2.3    Ein weiteres Milliarden- Grab – EnEV und EEWärmeG

   2.4    Das Speicher-Dilemma

   2.5    Neue Speichertechniken ohne Chance zur Rettung der Energiewende

   2.6    Konventionelle Kraftwerke:  Unverzichtbar, aber bedroht.

   2.7    Das Stromnetz wird überfordert

   2.8    Offshore-Windparks: Die teure Illusion

   2.9    Kernkraft: Ungeliebt, aber unverzichtbar

   2.10   Shalegas:  Die vertane Chance

   2.11   Ohne Rücksicht: Die Energiewende als nationaler Alleingang

   2.12   Die Energiewende bedroht den Naturschutz

   2.13   Massive Verstärkung der Energieforschung und Verzicht auf die ineffektive

             Markteinführung bekannter Techniken

   2.14   Grüne Jobs – eine vergebliche Hoffnung

3.      Die Energiewende ist schon gescheitert

Quellen

Anhang: Daten und Berechnungen

Vorwort

Dem Journalisten Daniel Wetzel war es vorbehalten, die Merkmale der Energiewende in zwei Sätzen  zusammen zu fassen:

„Das Ökostrom-Eldorado Deutschland beruhte bislang auf fast völliger Zügellosigkeit. Unbegrenzter, regional völlig ungesteuerter Kapazitätsausbau, Einspeisevorrang, Abnahmepflicht selbst bei fehlender Nachfrage, gesetzliche Rendite-Garantie über 20 Jahre für jede noch so ineffiziente Ökostrom-Technologie, Sozialisierung der Risiken, Privatisierung der Gewinne: Das sind die Besitzstände, um die es geht.“(23)

Aber dies war noch längst nicht alles: In einer weltweit einzigartigen Panik-Überreaktion wurden unmittelbar nach dem Reaktorunfall von Fukushima-Daiichi acht Kernkraftwerke stillgelegt und die Stilllegung aller übrigen Kernkraftwerke bis 2022 gesetzlich angeordnet. Als wäre die mit der Energiewende – gekennzeichnet vor allem durch das Erneuerbare-Energien-Gesetz EEG – vorprogrammierte wirtschaftliche Katastrophe noch nicht genug; die Regierung verabschiedete sich mit diesem Ausstiegsbeschluss von ihrem eigenen „Klimaschutz“-Ziel,  das ursprünglich die Begründung für die Energiewende-Politik lieferte. Als Folge dieser erzwungenen Stilllegung einer der beiden  unverzichtbaren Grundlaststromquellen, die keinerlei Treibhausgase erzeugen, reiht sich jetzt die ehemalige Vorbild-Nation  Deutschland wieder in die lange Kette der Länder ein, deren CO2-Emissionen nach wie vor steigen.

Damit ist die Energiewende endgültig zu einer sinnentleerten Politik geworden, die nur noch aus Furcht vor der völligen Blamage und aus Angst vor den Medien an ihren irrealen Plänen festhält und sich mit kosmetischen Korrekturen (siehe Koalitionsvertrag der neuen Regierung aus Union und SPD) über die Runden zu retten versucht – wohl wissend, dass der von den Bürgern und der Wirtschaft zu zahlende Preis mit jedem weiteren verlorenen Monat weiter steigt. Anscheinend wartet  die Politik noch so lange mit einer radikalen Kurskorrektur, bis Arbeitslosigkeit, Energiearmut und die Abwanderung der Industrie völlig unerträglich geworden sind.

Am 16. Dezember 2013 hat die Diskussion über die Energiepolitik eine neue Qualität bekommen: An diesem Tag hielt der Direktor des Münchner ifo-Instituts Prof. Dr. Hans-Werner Sinn einen Vortrag im Audimax der Universität München mit dem Titel „Energiewende ins Nichts“ (37).

Noch nie zuvor hat ein führender Ökonom derart präzise und kompromißlos die katastrophalen Fehler der Energiewendepolitik analysiert und deren ebenso katastrophale Folgen demonstriert. Die Aussagen von Prof. Sinn zu den verschiedenen Teilthemen werden in den entsprechenden Kapiteln dieses Papiers zitiert.

Die hier vorgelegte Arbeit behandelt die Wirkungen der bisherigen Energiepolitik in den verschiedenen Sektoren der Energiewirtschaft und in weiteren betroffenen Bereichen – mit Vorschlägen für die zu ergreifenden Maßnahmen. Die Autoren erhoffen sich damit, den Lesern eine umfassende und von keinerlei ideologischen Scheuklappen eingeschränkte Sicht der Wirklichkeit zu vermitteln, die ihnen bisher von den Medien und auch von allen im Bundestag vertretenen politischen Parteien verweigert wird.

1.  Klimaschutz – das Hauptziel der Energiewende wurde bereits aufgegeben

Besonders die deutsche Regierung hat sich unkritisch die auf fragwürdigen Computermodellen beruhenden apokalyptischen Warnungen des Intergovernmental Panel on Climate Change IPCC, eine von der UN und den nationalen Regierungen kontrollierte politische Organisation, zu Eigen gemacht und ihre Energiepolitik auf die Reduzierung des Spurengases CO2  ausgerichtet. Sie hat widerspruchslos hingenommen, dass die sehr ausführlichen, meist 700 Seiten übersteigenden Berichte der dem IPCC zuarbeitenden Wissenschaftler von den politischen Bearbeitern im IPCC drastisch verkürzt und von politisch unerwünschten Aussagen bereinigt wurden. Stattdessen wurden Aussagen dramatisiert. Aus diesen nur noch ca. 40 Seiten umfassenden Extrakten der Angst – genannt „Zusammenfassung für politische Entscheidungsträger“ – bezog dann die Regierung ihre Informationen für ihre Entscheidungen. Damit ließ sie sich von der rein politisch agierenden Organisation IPCC manipulieren.

Die massive Kritik aus der Wissenschaft an diesem Vorgehen und an den Aussagen wurde ignoriert; statt dessen wurde wahrheitswidrig die Behauptung von einer 98-prozentigen Zustimmung aller Klimawissenschaftler angeführt. Jetzt hat sich die Regierung stillschweigend von diesem Ziel verabschiedet, ohne allerdings ihre  auf eine CO2-arme Wirtschaft ausgerichtete Energiepolitik zu ändern.  Die entscheidende Begründung  für die Energiewende, der „Klimaschutz“,  wird nun verschwiegen, seit die Regierung erkannt hat, dass die Abschaltung der CO2-freien Grundlast-Kernkraftwerke  unweigerlich zu einer verstärkten Nutzung der anderen in Deutschland verfügbaren Kraftwerke für Grundlaststrom,  der Kohlekraftwerke, führen musste. Trotz des Aufbaus riesiger Kapazitäten an „Erneuerbaren“ kann der nun fehlende Kernkraft-Strom nur durch neue Kohlekraftwerke ersetzt werden. Der CO2-Ausstoß steigt zwangsläufig und der Umweltminister zeigt sich bekümmert.  Die Regierung, die sich gegenüber anderen Ländern mit ihrer Vorreiter-Rolle immer wieder brüstete, schweigt dazu. Nun gab sie den Weg in Brüssel frei, 900 Millionen CO2-Zertifikate in der EU aus dem Markt zu nehmen. Einmal erhofft man sich davon, den Strom aus den fossil gefeuerten Kraftwerken teurer zu machen, um die Wettbewerbsfähigkeit der Erneuerbaren zu verbessern, und zum anderen den durch die Abschaltung weiterer Kernkraftwerke wieder steigenden CO2-Ausstoß zu bremsen.

Das wird einerseits die Stromerzeugung durch die heute noch rentablen Kohlekraftwerke  weiter verteuern, andererseits wird die in Deutschland abnehmende Grundlast-Stromproduktion durch teure Kernkraftstrom-Importe ausgeglichen werden müssen – beides wird den Strompreis weiter in die Höhe treiben.

Die Kritik an den vom IPCC prognostizierten Klima-Szenarien nimmt immer mehr zu, seit die Unglaubwürdigkeit der Prognosen und politischen Absichten, die mit der Verbreitung von Klimapanik verbunden sind, immer deutlicher zutage treten.

Eine Zusammenstellung dieser Kritik (19):

· Wenige Wissenschaftler bestreiten, dass Aktivitäten der Menschen eine Auswirkung auf das lokale Klima haben können oder dass die Summe derartiger lokaler Effekte hypothetisch derart ansteigen könnte, dass es ein messbares globales Signal gibt. Die Schlussfolgerung der internationalen, unabhängigen Wissenschaftlervereinigung NIPCC (19) ist jedoch, dass jedes vom Menschen verursachte Klima-Signal sehr klein und in die Variabilität des natürlichen Klimasystems eingebettet und damit nicht gefährlich ist.

· Die Methode des IPCC, aus Beobachtungen – z.B. des zeitlichen Verlaufs der Erdoberflächentemperatur (zum unwissenschaftlichen Konzept einer angeblichen Globaltemperatur siehe unten) – auf die Richtigkeit seiner Hypothese vom menschengemachten Klimawandel zu schließen, ist unwissenschaftlich. Beobachtungen sind in der Wissenschaft in erster Linie für die Widerlegung („Falsifizierung“) von Hypothesen nützlich und können nicht beweisen, dass eine Hypothese richtig ist.

· Eine wissenschaftlich bestätigte, also nicht falsifizierte Theorie hingegen sollte zukünftige Ereignisse hinreichend sicher prognostizieren können. Doch sämtliche Prognosen des IPCC über die angebliche Rolle der sogenannten Treibhausgase, insbesondere des CO2, als die Hauptfaktoren für die Erhöhung der Globaltemperatur (siehe unten) beruhen im Wesentlichen auf Computermodellen und erwiesen sich als falsch. Es gibt weder einen experimentellen Beweis noch unterstützende Beobachtungen für diese Theorie. Sie wird allein dadurch zur bloßen Hypothese degradiert. In den exakten Wissenschaften gilt aber eine Theorie nur dann als richtig, wenn sie durch wissenschaftliche Experimente oder gesicherte Beobachtungen bewiesen und deshalb in der Lage ist zukünftige Entwicklungen vorherzusagen.

· Bei der gegenwärtigen CO2-Konzentration in der Atmosphäre von ca. 400 ppm leben wir immer noch in einer sehr CO2-armen Welt. Die Konzentrationen im Kambrium (vor 500 Mio. Jahren) betrug ca. 4500 ppm. In diesem geologischen Abschnitt fand die s.g. „kambrische Explosion“ statt, in der sich die Lebewelt, so wie wir sie heute kennen, entwickelte (43).

· Die benutzten Computermodelle sind nichts anderes als spekulative Gedankenexperimente von Modellierern. Die damit erhaltenen Ergebnisse sind nur so zuverlässig wie die eingegebenen Daten.

So lange die Antriebskräfte des Klimas und die Rückkopplungs-Vorgänge nicht völlig geklärt  sind, stellen die Computermodelle nichts anderes dar als Übungen ohne Aussagekraft. Es ist weitgehend anerkannt, dass Klimamodelle nicht zur Erzeugung von Vorhersagen entwickelt und geeignet sind, sie geben vielmehr als „was-wäre-wenn“-Projektionen viele mögliche zukünftige Entwicklungen wieder. Die derzeit bekannten Schwächen der Klimamodelle betreffen ihre Kalibrierung (die Auswahl der Eingangsdaten), ihr nichtlineares Verhalten (zufällig streuende Ergebnisse bei jedem „Lauf“) und die Vernachlässigung wichtiger natürlicher klimaabhängiger Variablen. Die gegenwärtigen Klima-Computermodelle vermögen nicht einmal, innere periodische Klimaschwankungen wie die bedeutenden pazifischen und atlantischen Schwankungen (Pacific Decadal Oscillation PDO und Atlantic  Multidecadal Oscillation AMO) zu simulieren.

· Ebenfalls werden die Wirkungen von Veränderungen des Magnetfeldes der Sonne und der Teilchenstrahlung („Sonnenwind“) ignoriert, obwohl sie das Klima signifikant beeinflussen. Gegenwärtig zeigt sich die Unbrauchbarkeit dieser Modelle auch bei der aktuellen Entwicklung der Globaltemperatur, die – im krassen Gegensatz zu den IPCC-Vorhersagen  von +0,3 oC – seit nunmehr 16 Jahren nicht nur stagniert, sondern sogar leicht zurück geht. Diese tatsächliche Entwicklung der Globaltemperatur hat bereits sogar den unteren Streubereich der IPCC-Prognosen nach unten verlassen – was nur beweist, dass diese Prognosen nicht einmal die Entwicklung auch nur der kommenden 10 Jahre zu beschreiben imstande sind. Voraussagen für das Jahr 2100 auf der Grundlage dieser völlig unbrauchbaren Instrumente sind daher nur noch lächerlich.

Diese Tatsache hat die  Glaubwürdigkeit des IPCC stark erschüttert. Zu beachten ist dabei, dass die sogenannte Globaltemperatur nichts anderes ist als eine unsinnige Mittelwertbildung über ein Temperaturfeld, das sich nicht im Gleichgewicht befindet und das daher keine Temperatur aufweist.  Die Erde hat nicht eine einzige Temperatur (26).

· Die Entwickler der IPCC-Computermodelle benutzten unbewiesene,  ausschließlich positive Rückkopplungsannahmen in der Atmosphäre, um ihre Modelle zu den zukünftigen dramatischen Temperaturerhöhungen von 3 – 6 Grad als Ergebnis zu veranlassen. Ohne diese hypothetischen Mechanismen ergibt die  Strahlungsphysik nur einen sehr geringen Erwärmungseffekt der Treibhausgase von 0,3 – 1,0 oC und knapp die Hälfte dieser Erhöhung hätte bereits stattgefunden. Das ist allerdings ein politisch unerwünschtes Ergebnis.

· In den ersten IPCC-Berichten wurde der Einfluß der Sonne auf die  Klimaveränderungen der letzten 50 Jahre als sehr gering bezeichnet, verbunden mit der seltsamen Feststellung, dass man über die Art und Weise der Klimabeeinflussung durch die Sonne zu wenig wisse. Das IPCC blieb auch noch dabei, als die dänischen Wissenschaftler um Svensmark einen neuen, indirekten Mechanismus entdeckten, über den die Sonne mit ihrer Partikelstrahlung (Sonnenwind) auf die Wolkenbildung und damit auf die Oberflächentemperatur der Erde wirkt. Im Gegensatz zu den Computer-Modellierern und deren CO2–Theorie war das dänische Team in der Lage, ihre Theorie experimentell zu beweisen; im CERN erfolgte eine zweite experimentelle Bestätigung. Somit kommt der Sonne die entscheidende Rolle im Klimageschehen auf der Erde zu – wie man es bereits seit Jahrhunderten aus der Beobachtung der Sonnenflecken wusste (17) (18).

· Die Veröffentlichung des E-Mail-Verkehrs zwischen führenden Wissenschaftlern der Klimakatastrophen-Fraktion vermittelte einen deprimierenden Einblick sowohl in die Manipulation wissenschaftlicher Ergebnisse als auch in die Behinderung kritischer Kollegen bei deren Veröffentlichungen (16).

· Vom IPCC und Politikern – darunter auch Bundeskanzlerin Angela Merkel – wurde wiederholt auf einen angeblichen Konsens der Klimaforscher bezüglich der IPCC-Prognosen verwiesen. Diese Behauptung war von Anfang an unzutreffend;  vielmehr gibt es eine sehr starke und stetig zunehmende Kritik von Wissenschaftlern am IPCC und dessen Methoden – und an der unakzeptablen, aber sehr bezeichnenden Ausblendung dieser fachlichen Kritik aus den IPPC-Berichten. Unerklärlich ist auch der Glaube von Politikern an das ominöse „2-Grad-Ziel“, das von der Klimaforschung als unwissenschaftlich  angesehen wird (26).

· Projektionen des Sonnenzyklus (periodisch schwankende Aktivität der Sonne) in die Zukunft lassen darauf schließen, dass die nächsten Dekaden eher durch eine globale Abkühlung als durch eine Erwärmung gekennzeichnet sein könnten – trotz weiterer CO2-Emissionen.

· Eine vernichtende Selbstkritik veröffentlichte das IPCC  in seinem 3. Bericht (TAR, 2001), Kapitel 14.2.2 „Vorhersagbarkeit in einem chaotischen System“. Zitat: „Das Klimasystem ist besonders herausfordernd, weil bekannt ist, das Bestandteile des Systems chaotisch sind; es gibt Rückkoppelungen, die potenziell das Vorzeichen (einer Entwicklung) wechseln können und es gibt zentrale Prozesse, die das Klimasystem in einer komplizierten, nichtlinearen Weise beeinflussen. Diese komplexen, chaotischen, nichtlinearen Triebkräfte sind ein inhärenter (innewohnender, anhaftender) Aspekt des Klimasystems. Mit einem Wort: Eine Strategie muss berücksichtigen, was möglich ist. In der Klimaforschung  und Klima-Modellierung sollten wir zu Kenntnis nehmen, dass wir es mit einem gekoppelten nichtlinearen System zu tun haben und deshalb eine Langzeit-Vorhersage zukünftiger Klimazustände nicht möglich ist.“ (Seite 774 im englischsprachigen Bericht der Arbeitsgruppe I).

Diese ehrliche, aber für den politischen Auftrag des IPCC peinliche und vernichtende Analyse wurde dann in den späteren IPCC-Berichten nicht mehr zitiert – obwohl dauerhaft gültig.

Auch im 3. Bericht ging diese Bewertung in dessen drei insgesamt 2.570 Seiten starken Bänden der wissenschaftlichen Arbeitsgruppen unter, die kein Politiker jemals las – dafür hatte dann die „Zusammenfassung für Politiker“ ganze 31 Seiten. Und diese drastisch verkürzte, manipulative und auf Erzeugung von Angst ausgerichtete Miniaturfassung zeigte bei den Politikern die erhoffte Wirkung.

Auch ohne die Diskussion über die Schädlichkeit oder Unschädlichkeit von CO2 als Treibhausgas  gibt es längst mehrere Gründe dafür, dass Deutschland sämtliche teuren Anstrengungen zum sogenannten Klimaschutz einstellen müsste – und zwar wegen erwiesener Bedeutungs- und Nutzlosigkeit.

Diese Gründe sind:

1.  Das europäische System des Emissionshandels neutralisiert sämtliche deutschen Bemühungen, CO2 einzusparen, indem als deren Konsequenz die übrigen Euroländer durch Ankauf der Zertifikate ihre Emissionen um exakt die gleiche Menge erhöhen können. Nicht eine einzige Tonne CO2 wird deshalb durch die Anstrengungen Deutschlands in der EU eingespart.  Das EEG widerspricht somit diesem Emissionshandel und stellt deshalb eine im europäischen Maßstab unwirksame und teure Parallelaktivität dar. Die dadurch verursachte „völlige Wirkungslosigkeit“ des EEG betonte auch Prof. Hans-Werner Sinn in seinem stark beachteten Vortrag (38).

2. Selbst die gesamten CO2-Einsparungsbemühungen der EU-Länder bewirken – wenn man den IPCC-Prognosen Glauben schenkt und sie anwendet – nahezu nichts. Der dänische Forscher Björn Lomborg hat berechnet, dass die von der EU geplanten Maßnahmen, für die sie bis ins Jahr 2100 jährlich 250 Milliarden Euro ausgeben will – also insgesamt 20 Billionen Euro – am Ende dieses Zeitraums eine Verringerung der vom IPCC verwendeten „Globaltemperatur“ (26) um ein zwanzigstel Grad (0,05 oC) bringen würde.  Also 20 Billionen Euro für praktisch nichts.

3. Jedes Jahr erfahren wir, dass viele anderen Nationen, allen voraus China und Indien, ihre CO2-Emissionen gewaltig erhöhen. Diese Steigerungen sind dermaßen umfangreich, dass sämtliche jährlichen Einsparungen Deutschlands in den Jahren vor dem Kernkraftausstieg in jeweils knapp einer Woche allein durch die Mehremissionen Chinas ausgeglichen und zunichte gemacht wurden. Nimmt man noch die übrigen Staaten hinzu, dann wurden Deutschlands  jährliche Anstrengungen in 2 – 3 Tagen durch deren CO2-Anstieg neutralisiert.  Das ist die Antwort dieser Länder auf den deutschen Anspruch, Vorbild für sie zu sein.

4. Die deutsche Regierung hat ihre Klimaschutzpolitik bereits mit der Abschaltung von 8 Kernkraftwerken aufgegeben. Mit der gesetzlich vorgegebenen Abschaltung der restlichen KKW werden sich die Emissionen Deutschlands noch weiter erhöhen. Damit sind alle Gründe entfallen, die irgendeine Aktivität in diese Richtung rechtfertigen – und für die Bürger gibt es keine Gründe mehr, unter dem Vorwand eines „Klimaschutzes“ Gängelungen, Vorschriften und insbesondere Preissteigerungen für die Energie hinzunehmen.

Deshalb sollte die Energiewende wegen des klaren Verfehlens ihres Hauptziels von der Regierung kurzfristig abgesagt werden.

Vorschlag:

Die Begründung eines angeblich vom Menschen durch seine CO2-Emissionen verursachten  Klimawandels und damit der angeblichen Notwendigkeit drastischer CO2-Einsparungen wird angesichts der mehrfach widerlegten Prognosen des IPCC und des seit 1998 festgestellten Ausbleibens eines globalen Temperaturanstiegs fallen gelassen. Damit entfällt auch offiziell das bisherige, wesentliche Argument für die Bevorzugung der sog. „Erneuerbaren Energien“. Alle direkt dazu dienenden Maßnahmen werden beendet – z.B. das EEG, der Emissionshandel und technische Maßnahmen wie die Abtrennung und Einlagerung von CO2.

2. Faktencheck: Erneuerbare-Energien-Gesetz EEG, Energie-Einsparverordnung EnEV
    und Energiewende
2.0  Physik und Technik des elektrischen Stromes versus Ideologie und Betrug

Bei fossilen Energieträgern wie Kohle, Öl, Gas und Uran  handelt es sich um materielle Güter bzw. Stoffe, die Masse besitzen, direkt gelagert oder gespeichert und als Ware gehandelt werden. Elektrischer Strom hingegen beschreibt die Bewegung von elektrischen Ladungsträgern wie Elektronen in einem Leiter, die praktisch masselos die elektrische Energie übertragen. Die Ladungsträger (und damit elektrischer Strom) lassen sich direkt nur in ganz geringem Umfang in Kondensatoren speichern. Eine direkte großtechnische Speicherung von Elektronen und damit von Strom  ist aus physikalischen Gründen nicht möglich. In einem Stromversorgungsnetz ist deshalb nur ein „Online-Betrieb“ möglich,  d.h.  jeder Strom, der an irgendeiner beliebigen Stelle des Netzes entnommen wird, muss direkt und unmittelbar in gleicher Menge durch einen Strom-Generator eingespeist werden. Wenn kein Stromverbraucher eingeschaltet ist, kann das Netz auch keinen Strom aus den Generatoren aufnehmen. Werden alle Generatoren abgeschaltet, steht auch sofort kein Strom  mehr für den Verbrauch zur Verfügung.

Wegen dieser physikalischen Eigenschaft des elektrischen Stromes spricht man im juristischen Sinne und im Handelsrecht auch bei der Stromversorgung von einer Dienstleistung. Wie beim Frisör muss der Dienstleistende und der Dienstleistungsempfänger, hier der Stromverbraucher und der Stromerzeuger über das Netz, simultan verbunden sein.   

Viele Stromversorger, die Lobbyisten der "Erneuerbaren Energien" aber auch die Politiker aller Parteien verschleiern bewusst oder wegen Unkenntnis die physikalischen und technischen Gesetzmäßigkeiten der Stromversorgung. So werden Stromverträge angeboten, die einen bestimmten Anteil von EE-Strom anbieten, der bis zu 100% geht. Mit solchen Aussagen wird der umweltbewusste Kunde mehr oder weniger betrogen.

So hatte schon das Oberlandesgericht München 2001 die Werbekampagne des Stromversorgers E.ON gestoppt, der damit geworben hatte, seinen Ökostromkunden "zu 100% Strom aus Wasserkraft" zu liefern. Dieses Urteil nahm dann der Ökostromlieferant NaturEnergie AG zum Anlass, ein s.g. "Stromseemodell" zu entwickeln, das die Physik des Stromes negiert und den "Stromsee" als Speicherbecken  darstellt, in das alle Lieferanten ihren Strom einspeisen. Dabei wird natürlich der Strom aus den herkömmlichen Kraftwerken als "verschmutztes Wasser" bezeichnet, der Strom des Grünstromanbieters als "sauberer Strom" ausgewiesen (44). Zwar wird dem Gerichtsurteil nicht direkt widersprochen, aber mit unglaublichen Geschichten wird dem Kunden vorgegaukelt, dass er das richtige tut, wenn er den 100-prozentigen Ökostrom kauft,  auch wenn diesen andere verbrauchen, die nur herkömmlichen Strom bestellt haben. Wenn er Glück hat, erhält er eine homöopathische Dosis von seinem bestellten Ökostrom, muss aber tatsächlich weit überwiegend mit dem Strom aus konventionellen Kraftwerken vorlieb nehmen, den auch alle anderen Stromkunden aus exakt gleicher „Herkunft“ erhalten.

Das Stromseemodell wird offensichtlich heute von allen 100%-Ökostrom-Anbietern verwendet, z.B. von GREENPEACE ENERGY unter dem Motto "Gemeinsam machen wir den Stromsee sauber"                     (45) oder die NaturEnergie AG mit ihrer gegenwärtigen Werbung (46). Jetzt wird gar nicht mehr der Versuch gemacht, den "Stromsee" physikalisch oder technisch zu erklären. Es wird der Eindruck erweckt, dass der Strom im "Stromsee" nicht nur gemischt wird, sondern auch gespeichert werden kann. Dass die Windkraft- bzw. Photovoltaik-Anlagen aber nur maximal 3000 h bzw. 1700 h  von 8760 Jahresstunden Strom liefern und damit die meiste Zeit im Jahr im Mix des Anbieters aus 100% Ökostrom fehlen, macht den Betrug erst  deutlich. 

Bei einem Stromliefervertrag wird dem Kunden versprochen, dass sich der gelieferte Strommix mit festen Prozentsätzen aus verschiedenen  Stromquellen speist oder gar zu 100% aus Ökostrom besteht. In Wahrheit jedoch kann jeder aus dem deutschen Stromnetz versorgte Verbraucher nur den gleichen  Strommix beziehen,  der täglich in das Stromnetz eingespeist wird. Für das Jahr 2012 betrugen die ins Netz eingespeisten Ökostrom-Anteile wie folgt: Windkraft 8.1%, Photovoltaik 4,2%, Biomasse 6.2% und Wasserkraft 3,5%. Das waren 22% regenerativer und der Rest 78% herkömmlicher Strom. Diesen Strommix hat im Mittel jeder Kunde geliefert bekommen, egal welchen Strom er von wem bestellt hatte.

2.1   Die Grenzen der Stromerzeugung mit „Erneuerbaren“

Im Jahr 2012 waren „erneuerbare“ Stromerzeuger mit einer elektrischen Gesamtleistung von 62 GW (1Gigawatt=1000 Megawatt) installiert. Deutschland braucht im Durchschnitt an normalen Tagen zur Deckung des Strombedarfs eine Anschlussleistung von 60 GW, als Spitzenleistung im kalten Winter 70 bis 80 GW. Obwohl also diese Grünstromanlagen, wenn sie mit Nennleistung kontinuierlich arbeiten würden, schon fast den gesamten Strom für Deutschland liefern könnten, zeigen die tagesgenauen Ganglinien aller per EEG-Gesetz geförderten Anlagen in Deutschland über das gesamte Jahr 2012 (1), dass gerade einmal am 15.09.2012 für wenige Stunden eine Leistung von 30 GW überschritten worden ist.  Nur für diese kurze Zeit haben die EE-Stromerzeuger Deutschland zur Hälfte mit Strom versorgen können. Man sieht aber auch, dass deren angebotene Leistung täglich gewaltig schwankt und häufig bis auf nahe Null zurück geht. In einer weiteren Grafik (2) oder (3) für die Monate Januar bis März 2013 sind sowohl die Einspeiseleistung wie auch der Stromverbrauch für Deutschland dargestellt. Hier ist deutlich der geringe Anteil der Stromerzeugung der EE-Anlagen im Vergleich zu deren installierter Maximalleistung zu erkennen. Den Hauptteil der elektrischen Energie müssen nach wie vor die herkömmlichen Kraftwerke liefern.

Im Jahr 2012 haben die „Erneuerbaren“ aus Wind und Sonne nur 12,3% zur Bruttostromerzeugung beigetragen  (4). Um zum Beispiel auf 25% zu kommen müsste also die Leistung von Wind- und Photovoltaik-Anlagen gegenüber 2012 verdoppelt werden. Da auch bei Verdoppelung der EE-Strom-Leistung ihre Volatilität, d.h. die vom Wetter und Tageslicht abhängigen Leistungsschwankungen nicht verringert werden, geht ihre Leistung an windarmen Nachtstunden immer wieder auf nahe Null zurück. D.h. es müssen herkömmliche Kraftwerke mit einer Leistung von 80 GW, davon 70 GW für Spitzenlast und 10 GW Reserve, ständig betriebsbereit vorgehalten werden. Will man teilweise oder ganz auf konventionelle, also Kern-, Kohle-, Gas,- oder Öl-Kraftwerke verzichten, was das Ziel des EEG und der Energiewende ist, benötigt man zwingend die Speicherung des volatilen Stroms der Wind- und Solarstromerzeuger  zu den Zeiten, in denen er überhaupt verfügbar ist,  und diese Speicher müssen derart groß sein, dass sie in den Ausfallperioden des Grünstroms  eine sicher verfügbaren  Leistung   von  80 GW liefern können – und das durchaus über mehrere Tage (siehe Kap. 2.4 und 2.5).

2.2   Der Weg in die staatliche Planwirtschaft mit EEG und die Vertreibung der Industrie

Das Erneuerbare Energien-Gesetz EEG hatte von Anfang an einen durchgehend  planwirtschaftlichen,  Charakter. Mit den extrem zunehmenden Subventionen für die ausgewählten „Erneuerbaren“ erfolgte  eine Umwandlung des ehemals marktwirtschaftlich ausgerichteten Energiesektors in einen von Planwirtschaft gefesselten Sektor. Die mit dem EEG begangenen grundlegenden Fehler sind:

·       Auswahl bestimmter, ideologisch hoch bewerteter Stromerzeugungstechniken – Solarstrom, Windstrom, Biogas-Strom (hier EE-Techniken genannt) – die mittelfristig alle anderen Stromerzeugungstechniken ersetzen sollten. Unterdrückung eines echten Wettbewerbs mit anderen, bewährten Techniken.

·       Extrem hohe Förderung dieser EE-Techniken mit einer 20-jährigen Garantie der s.g. Einspeisevergütungen für jede noch so ineffiziente Ökostrom-Technologie, die von den Stromverbrauchern zu bezahlen sind. Zudem der Zwang für die Netzbetreiber, den Strom aus diesen Anlagen vorrangig anzunehmen, auch wenn kein Bedarf besteht. Ferner Entschädigungen für die EE-Lieferanten, wenn die Stromlieferung von den Netzbetreibern aus sicherheitstechnischen Gründen abgelehnt werden muss.

·       Unbegrenzter, regional völlig ungesteuerter Kapazitätsausbau, Einspeisevorrang, Abnahmepflicht selbst bei fehlender Nachfrage, gesetzliche Rendite-Garantie über 20 Jahre

Die zwangsläufigen Folgen:

·     Gefährdung der Netzstabilität durch die zufällige, vom Wetter und Tageslicht abhängige

      Stromerzeugung der Solar- und Windstromerzeuger.

·     Teurer zusätzlicher Ausbau der Höchstspannungsnetze, weil das Windstrom-Überangebot in 

 Norddeutschland wegen fehlender Leitungen nicht zu den west- und süddeutschen

 Verbrauchszentren geleitet werden kann.

·     Reduzierung der notwendigen Jahreslaufzeit und damit der Rentabilität von Kohle-, Gas- und  Pumpspeicher-Kraftwerken durch die gesetzlich vorgeschriebene Einspeisung des  zeitlich begrenzten Strom-Überangebots der EE-Quellen, das die Verbraucher trotzdem mit der EEG-Umlage teuer bezahlen müssen.

·    Starke Strompreis-Steigerungen durch die von den Verbrauchern zu zahlenden

             EEG- und weiteren Umlagen.

·       Privilegien für EE-Stromerzeuger, dadurch  Sozialisierung der Risiken, Privatisierung der Gewinne. Eine riesige Umverteilung von den weniger Bemittelten wie den Familien in den Miethäusern zu den Wohlhabenden wie den Hausbesitzern mit Solardächern oder Windparkbetreibern.

·       Belastung und Gefährdung der Stromnetze nicht nur in Deutschland, sondern auch in den Nachbarländern durch von Deutschland exportierte Stromspitzen bei Starkwind.

·       Gefährdung der Wettbewerbsfähigkeit energieintensiver Unternehmen und deren Abwanderung in Länder mit niedrigeren Energiepreisen, verbunden mit  der Verlagerung der CO2-Emissionen dieser Unternehmen ins Ausland, was im globalen Maßstab nichts bewirkt, außer der Verschönerung der deutschen Statistik.

Die De-Industrialisierung hat bereits begonnen

Eine im Dezember 2013 veröffentlichte Untersuchung der Forschungsgruppe der Deutschen Bank (30) kommt zu dem Ergebnis, „dass in Deutschland in energieintensiven Branchen bereits ein schleichender Prozeß der De-Industrialisierung begonnen hat. Er führt (Anm.: als offenbar gewollter) Nebeneffekt zu Verlagerungen von CO2-Emissionen in andere Länder“.  Der deutsche Strompreis für industrielle Kunden übertreffe das EU-Niveau um rd. 26%. „Nicht nur sind die Energiekosten gestiegen. Auch die Unsicherheiten bezüglich der allgemeinen energiepolitischen Rahmenbedingungen haben zugenommen. Aufgrund der schwankenden Stromversorgung durch erneuerbare Energien muss zudem inzwischen ein größerer Aufwand betrieben werden, um die Versorgungssicherheit zu gewährleisten.“ (Anm.: Damit sind der Aufbau und die Verstärkung einer eigenen Notstromversorgung gemeint.)

Die DB-Forscher stellen fest: „Unternehmen aus energieintensiven Branchen hielten sich schon in den letzten Jahren mit Investitionen in Deutschland zurück. In nur zwei der letzten 17 Jahre investierten die energieintensiven Branchen mehr in ihre Anlagen, als sie abgeschrieben haben.“ Sie folgern: „Steigen die Energiepreise auch künftig … überproportional, ist bei energieintensiven Unternehmen … mit Umsatzverlusten zwischen 2 und 6% des Umsatzes zu rechnen. Das entspricht einem absoluten Verlust zwischen rd. 5 Mrd Euro und 16 Mrd. Euro pro Jahr.“

Die Forscher kommen zu der Schlussfolgerung, „dass sich (energieintensive) Unternehmen bei Erhaltungs- und Erweiterungsinvestitionen künftig häufiger gegen den heimischen Standort entscheiden, was zu einem schleichenden Substanzverlust bei den Produktionsanlagen … führen kann.“

Eine hohe Belastung dieser Unternehmen, die am Anfang einer vertikal integrierten Wertschöpfungskette stehen und Vorprodukte z.B. an den Maschinenbau, die Elektrotechnik oder den Fahrzeugbau liefern, hätte deshalb auch negative Auswirkungen auf nachgelagerte Branchen zur Folge. Und weiter: „Unter dem Strich sehen wir das Risiko, dass Deutschlands Wettbewerbsfähigkeit als Industriestandort mittel- bis längerfristig leidet.“

Mit der Vertreibung dieser Industrien ins Ausland exportiere Deutschland auch die mit ihr zusammenhängenden CO2-Emissionen – „in einer Größenordnung von gut 3 bis rd. 10 Mio. Tonnen pro Jahr.“ Kommentar der Wissenschaftler: „Letztlich zeigt sich hier das Dilemma einer national forcierten Klimapolitik. Übermäßig hohe Energiepreise oder klimapolitische Regulierungen in einem Land führen aber kurz- und mittelfristig nicht zu global sinkenden CO2-Emissionen, sondern lediglich zu deren Verlagerung (im Fachjargon: Carbon Leakage).“

Am Schluß bewerten die Wissenschaftler den Koalitionsvertrag der neuen Bundesregierung: „Die angekündigten Maßnahmen dürften nicht ausreichen, um einen weiteren Anstieg der Energiepreise zu stoppen.“

Die inhärenten Fehler des EEG sind struktureller und grundsätzlicher Natur, so dass alle Versuche einer Verbesserung aussichtslos bleiben müssen. Aus diesem Grunde wird immer stärker eine ersatzlose Abschaffung dieses Gesetzeswerks gefordert.

Einer der prominentesten Vertreter dieser Forderung ist Prof. Dr. C. Christian von Weizsäcker vom Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern, Bonn. In einem neueren Interview erklärte er auf die Frage „Was sollte die Politik beim Fördersystem für die Erneuerbaren tun?“ unmißverständlich: „Die grundsätzliche Antwort müßte heute sein, dass man das EEG komplett abschafft und statt dessen andere Modelle einführt. Insbesondere solche, die zwar ein gewisses Mengenziel für erneuerbare Energien insgesamt vorgeben, dann aber die verschiedenen erneuerbaren Energien unter gewissen Schutzklauseln miteinander konkurrieren lassen“ (27).

Selbst der für die Energiepolitik zuständige EU-Kommissar Günther Oettinger erklärte am 11.1.2014 in einem Vortrag in Königswinter, „das EEG gehört in den Mülleimer“.

Die bisherige Regierung hat an der grundlegenden Fehlentscheidung, die mit dem EEG getroffen worden sind, um jeden Preis festgehalten. Als Konsequenz dieser fatalen Fehlplanung waren ständig weitere neue Reparatur-Fehlentscheidungen erforderlich, um die unübersehbaren Engpässe und Schäden vorübergehend zuzudecken. Im Ergebnis muss jetzt in Deutschland das gesamte System der Stromerzeugung doppelt errichtet werden: Riesige Investitionen in unzuverlässige und teure Wind- und Solarstromanlagen – bei gleichzeitigem Zugriff auf die unverzichtbaren Kohle- und Gaskraftwerke, die mittlerweile aber durch die subventionierte und unbegrenzte EE-Strom-Einspeisung  unwirtschaftlich geworden sind und in einem marktwirtschaftlichen System eigentlich stillgelegt werden müssten.  Diese selbst verschuldete Engpasssituation bekämpft der Staat wiederum durch neue Verordnungen mit der Verpflichtung von konventionellen Kraftwerken als Netzreserve – was erneut Kosten verursacht.

Die Energiesparverordnung (EnEV) und das Erneuerbare-Energien-Wärme-Gesetz (EEWärmeG) sind  weitere von vielen Beispielen für eine immer mehr ausufernde Planwirtschaft im Energiesektor; typisch für die notorische Grundeinstellung der staatlichen Stellen, dass die Bürger und die Wirtschaft zu einem „klimafreundlichen“ Verhalten leider gezwungen werden müssen.

Die EnEV und das EEWärmeG führen zu einer weiteren hohen finanziellen Belastung von Bürgern und Unternehmen, die durch die damit beabsichtigte Energieeinsparung  nicht annähernd finanziell kompensiert wird; insbesondere nach den geplanten Verschärfungen dieser Verordnung. Zudem verteuern sie zwangsweise Neubauten, was Hausbesitzer und Mieter zusätzlich belastet.

EnEV und EEWärmeG werden in Kapitel  2.3 behandelt.

Vorschlag:

·   Das EEG ist abzuschaffen. Sämtliche Förderungen sind einzustellen. Für Bestandsanlagenbesitzer wird eine grundgesetzkonforme Entschädigungs-Lösung vorgeschlagen, die, sofern ein Schaden entstanden ist, diese nach dem Vorbild des Lastenausgleiches nach dem II. Weltkrieg die Besitzer aus einem noch zu bildenden Sonderfonds entschädigt, in den alle Besitzer von „EE“ Anlagen einzuzahlen haben.

· Abschaffung der Energie-Einsparverordnung EnEV und des Erneuerbare-Energien- Wärme-Gesetzes EEWärmeG.

Mit der Abschaffung insbesondere des EEG können auch die folgenden gesetzlichen Maßnahmen entfallen, die nur Reparaturversuche für die durch das EEG angerichteten Probleme und Schäden darstellen:

·   Die Offshore-Haftungsumlage nach §19 EnWG

·   Die Kraftwerksreserveverordnung

·   Die Umlage nach §19 Abs.2  StromNEV (Ausgleich für Netzentgeltbefreiungen stromintensiver Unternehmen)

·   Die Umlage für abschaltbare Lasten nach §18 AbLaV (zur Deckung von Kosten abschaltbarer Lasten zur Aufrechterhaltung der Netz- und Systemsicherheit

·   Die Stromsteuer („Ökosteuer“), die der „Förderung klimapolitischer Ziele“ und interessanterweise auch (oder gerade) zur Absenkung und Stabilisierung des Rentenbeitragssatzes dienen sollte, ist um den Teil zu kürzen, der tatsächlich für „klimapolitische Ziele“ verwendet, also verschwendet  wird.

·   Die Mehrwertsteuer darf nicht mehr auch auf alle Umlagen und Abgaben, die den Strompreis betreffen, erhoben werden, da dies eine Doppelbesteuerung darstellt.

·   Das Treibhausgas-Emissionshandels-Gesetz TEGH, das in Deutschland die gesetzliche Grundlage für den Handel mit Berechtigungen zur Emission von Treibhausgasen in einem gemeinschaftlichen Emissionshandels-System  bildet, ist abzuschaffen, weil es fast ausschließlich um den Zertifikate-Handel für CO2–Emissionen geht. Die Begründung für dieses Gesetz ist entfallen, da der   Klimawandel allenfalls in geringfügigem Maße durch CO2 beeinflusst wird.

·   Das Energie-Wirtschafts-Gesetz (EnWG) und die  Messstellen-Zugangs-Verordnung von 2008 dürfen nicht zwecks Einführungspflicht für Smart Meter in Bestandsgebäude geändert werden.

Diese Auflistung ist zum Zeitpunkt dieser Veröffentlichung vermutlich bereits wieder  unvollständig. Es sollte sichergestellt werden, dass alle Gesetze und Verordnungen, die im Zusammenhang mit Energiewende und EEG erlassen worden sind, ebenfalls abgeschafft werden müssen.

Das generelle Ziel aller vorgeschlagenen Maßnahmen ist deshalb die Wiederherstellung einer Energiewirtschaft, die wieder durch die Regeln der Marktwirtschaft gekennzeichnet ist und in der  Wirtschaftlichkeit und Versorgungssicherheit, die von den vergangenen drei Regierungen vernachlässigt worden sind, wieder im Vordergrund stehen.

Wird fortgesetzt.

Das komplette Manifest kann als pdf im Anhang heruntergeladen werden.

Related Files




Windstrom ist zur Gefahr geworden-Immer näher an den Blackout heran

Würden Sie sich in ein Flugzeug setzen, dessen Pilot noch den ersten Bartflaum am Kinn trägt und kurz vor dem Start noch mit verlorenem Gesichtsausdruck in einem Heftchen mit dem Titel „Vom Laien zum Flieger-As in nur fünf Lektionen“ herumgeblättert hat? Nun, während der Durchschnittdeutsche in einem solchen Fall wahrscheinlich fluchtartig die Maschine verlassen würde, vertraut er in einem anderen, für sein Wohlergehen aber genauso entscheidenden Punkt sein Schicksal Menschen an, welche von der extrem anspruchsvollen Technik unserer Stromversorgung ebenfalls nicht den Schimmer einer Ahnung haben: Politikern, deren Qualifikation sich zumeist auf eine Lehrer- oder Anwaltsausbildung beschränkt, und die sich auf Berater verlassen, deren Qualifikation hauptsächlich auf ihrer Mitgliedschaft bei grünlinken Parteien oder Nichtregierungsorganisation wie Greenpeace oder dem BUND beruht. Damit haben wir unsere Stromversorgung in die falschest möglichen Hände gegeben. Wie empfindlich unser aus vielen tausend Einzelelementen fein vernetztes Stromversorgungssystem in Wirklichkeit ist, zeigte in aller Deutlichkeit der massive Blackout, der am 4. November 2006 große Teile Deutschlands und Europas für Stunden ins Chaos stürzte. Um zu verstehen, was damals vor sich ging, empfiehlt sich ein Blick auf die kritischen Sekunden dieser Ereignisse.

Was geschah im kritischen Moment?

Eine brauchbare Analyse der Abläufe und der Fehler, die im Rahmen einer eigentlich routinemässigen Umschaltoperation zu einem der europaweit schlimmsten Stromausfälle mit rund 10 Mio. betroffenen Haushalten und Auswirkungen von Deutschland bis nach Marokko führten, findet sich in [WIAU]. Wie häufig bei derartigen Katastrophen gab es im Endeffekt nicht eine Ursache, sondern zahlreiche einzelne Fehler, die normalerweise folgenlos geblieben wären. Erst in ihrem Zusammenwirken kam es zu einer verhängnisvollen Kombination, die dann das europäische Verbundnetz in den Abgrund riss.

Bild 1. Aufzeichnung des Frequenzverlaufs des Stromnetzes am 04.11.2006 zwischen 22:08 und 22:30 MEZ, gemessen im Ruhrgebiet (Grafik: Wikimedia Commons)

Dem eigentlichen Ausfall waren eine ganze Reihe von Kommunikationsdefiziten, Schlampereien und mangelnden Absprachen vorausgegangen. Dennoch befand sich das Netz in den Minuten vor dem eigentlichen Ereignis in einem zwar gefährdeten, aber stabilen Zustand. Die Gefährdung resultierte aus der Missachtung des sogenannten N-1-Kriteriums, welches vorschreibt, dass zu keiner Zeit der Ausfall eines bestimmten Betriebsmittels wie einer Leitung, eines Transformators oder Generators zu einem Gesamtausfall führen darf [N1KR]. Im vorliegenden Fall war zu wenig Kraftwerksleistung am Netz von RWE [ZEIT], um nach der planmäßigen Abschaltung zweier wichtiger Leitungen noch zusätzlich den Ausfall einer dritten Leitung aufzufangen. Zu diesem Verlust kam es, weil ein im Prinzip minimaler Eingriff nach einem Lastanstieg auf einer bereits kritisch belasteten Leitung um 22:10:11 zu einem weiteren Stromanstieg von gerade mal 67 A führte, was bei 380000 Volt einer Leistungserhöhung um etwa 25 MW entspricht. Im Vergleich mit der üblichen Größenordnung des Leistungstransports durch solche Leitungen, der bei rund 1000 MW liegt, sind diese zusätzlichen 2,5 % eigentlich unbedeutend. Im vorliegenden Fall spielten sie jedoch die Rolle des sprichwörtlichen Tropfens, der ein Fass zum Überlaufen bringt. Diese kleine zusätzliche Last löste innerhalb von zwei Sekunden den automatischen Netzschutz aus und trennte die betreffende Leitung. Wegen der Nichteinhaltung des sogenannten N-1-Kriteriums kam es dadurch zu einer unkontrollierten Verteilung der Last auf andere Leitungen und innerhalb von zwei weiteren Sekunden zu einer Kettenreaktion mit sich immer weiter ausbreitenden Abschaltungen. Schließlich wurde das europäische Verbundnetz notfallmäßig in Teilnetze aufgespalten, in denen es in der Folge zu teils stundenlangen Ausfällen kam.

Wichtigste Lehren: Nie ohne Grosskraftwerke…

Der Ablauf der Ereignisse vom 4. November 2006 zeigt vor allem zunächst eines: Den Netzbetreibern stehen bei solchen Ereignissen meist so gut wie keine Zeitreserven zur Verfügung. Das kritische Zeitfenster war gerade einmal vier Sekunden lang, eine Zeit, in der selbst primärregelfähige Kraftwerke ihre Leistungsabgabe nur um Bruchteile des erforderlichen Betrags heraufsetzen können, Bild 2.

Bild 2. Schema des zeitlichen Einsatzes der unterschiedlichen Regelleistungsarten. Auch die sogenannte Primärregelleistung steht erst nach 30 Sekunden vollständig zur Verfügung (Grafik: DF5GO/ Wikimedia Commons)

Die einzige sofort verfügbare Leistungsreserve, auf die die Netzbetreiber gerade in diesen ersten entscheidenden ersten Sekunden eines Ausfalls zurückgreifen können, ist die in den rotierenden Massen der Turbinen und Generatoren konventioneller Kraftwerke gespeicherte kinetische Energie. Vom Prinzip her arbeiten diese Anlagen in einem solchen Fall ganz so wie ein Schwungrad. Die darin gespeicherte Energie ist enorm, denn die rotierenden Bestandteile von Großkraftwerken haben eine Masse von oft mehreren hundert Tonnen, Durchmesser von etlichen Metern und erreichen im Normalfall rund 3000 Umdrehungen/ Minute. Bild 1 zeigt sehr anschaulich, wie schnell im Ruhrgebiet die Netzfrequenz nach dem Auftreten der Störung einbrach. Nur die Rotationsreserven verhinderten zu diesem Zeitpunkt einen totalen Zusammenbruch. Erst mit einer gewissen Verzögerung setzen nach und nach die sonstigen Stabilisierungsmechanismen ein: Dampf-, Gas- und Wasserventile werden aufgefahren, Kesselfeuerungen in Kohlekraftwerken auf höheren Durchsatz eingestellt und Steuerstäbe aus Reaktorkernen herausgefahren. Doch haben alle diese Maßnahmen nur dann noch einen Sinn, wenn es in den ersten Augenblicken gelungen ist, einen kompletten Zusammenbruch des Netzes mit Hilfe der Rotationsenergie zu verhindern. Soll heißen: Ohne ausreichende Verfügbarkeit von konventioneller Kraftwerksleistung ist ein Netz in kritischen Situationen nicht stabil zu halten.

strenge Einhaltung des N-1-Kriteriums…

Zweite wichtige Lehre aus dem Desaster vom November 2006 ist die Erkenntnis, dass das sogenannte N-1-Kriterium in jedem Fall ohne Einschränkungen eingehalten werden sollte. In der Praxis heißt dies vor allem, dass stets eine ausreichende Anzahl konventioneller, zu Abgabe von Primärregelleistung fähiger Kraftwerke am Netz sein müssen. Hierzu zählen im Wesentlichen Kohlekraftwerke, Kernkraftwerke, Gaskraftwerke und Wasserkraftwerke. Unbrauchbar sind unter diesen Gesichtspunkten dagegen sowohl Solar- als auch Windenergieanlagen, da deren Leistungsabgabe nicht gezielt dem sich ändernden Bedarf angepasst werden kann. Insbesondere Leistungserhöhungen sind wegen der Launenhaftigkeit von Sonne und Wind nicht zu gewährleisten.

Erzeugung nahe am Verbrauch…

Eine weitere entscheidende Erkenntnis aus den Ereignissen vom 4. November 2006 ist die, dass es Gefahren birgt, wenn Erzeugung und Verbrauch zu weit voneinander entfernt liegen. Dies zeigte sich, als das europäische Verbundnetz instabil wurde und durch automatische Notfallprogramme in drei getrennte Teilnetze aufgespalten werden musste. Am Ende dieser Kettenreaktion wurde das europäische Verbundnetz (UCTE, Union for the Coordination of the Transmission of Energy) in die Bereiche West, Nord-Osten und Süd-Östliches Stromnetz als eigene Teilnetze aufgetrennt, Bild 3.

Bild 3: Zerfall des europäischen Verbundnetzes in drei Teilnetze mit Frequenzabweichungen infolge Unterversorgung (orange und blau) bzw. Überkapazität (grün) (Bild: wdwd/ Wikimedia commons)

Diese Trennung machte die nachteiligen Folgen einer zu großen räumlichen Trennung von Stromerzeugung und –verbrauch sichtbar: Während in Nordosteuropa (grün) plötzlich knapp 10.000 MW zu viel Leistung am Netz waren, fehlte diese Erzeugung in West- und Südeuropa (orange und blau). Als Konsequenz stieg die Netzfrequenz im Nordosten rapide wieder an (Bild 1), während sie im Westen und Süden weiter abfiel. Entsprechend unterschiedlich waren die Konsequenzen: Im grünen Sektor gelang es noch rechtzeitig, überschüssige Erzeugungsleistung vom Netz zu trennen. Die Notabschaltung eines laufenden Kraftwerks ist zwar ein brutaler Vorgang, jedoch sind die Kraftwerke dafür ausgelegt und können das überstehen. Eine schnelle Aktivierung stillstehender Einheiten steht dagegen auf einem ganz anderen Blatt. Deswegen war es in den beiden anderen Sektoren nicht möglich, ausreichend Erzeugerleistung zu mobilisieren. Das ist auch kein Wunder, denn im gesamten synchronisierten Bereich des europäischen Verbundnetzes liegt die vorzuhaltende Primärregelleistungskapazität bei lediglich 3000 MW, also bei nur rund einem Drittel dessen, was zu diesem Zeitpunkt benötigt worden wäre. Da die fehlende Erzeugerleistung in den Bereichen „Orange“ und „Blau“ nicht schnell genug mobilisiert werden konnte, mussten durch automatischen Lastabwurf Verbraucher vom Netz genommen werden, was nichts anderes bedeutet als Blackouts. In manchen Gebieten dauerte es teils mehrere Stunden, bis das Verbundnetz wieder zusammengeschaltet und synchronisiert werden konnte.

Eine entscheidende Lehre aus diesen Ereignissen sollte daher sein, zur alten Tugend zurückzukehren, Erzeugung und Verbrauch elektrischer Energie räumlich möglichst nicht zu weit zu trennen. Hätte in den Verbrauchsschwerpunkten der einzelnen Teilnetze nach der Auftrennung jeweils genügend Kraftwerksleistung zur Verfügung gestanden, so wären die Konsequenzen wesentlich geringer gewesen. Der Ferntourismus in Sachen Stromleitung, den man heute mit Riesenwindparks in grosser Entfernung von den Verbrauchsschwerpunkten oder mit „Wüstenstrom aus der Sahara“ propagiert, offenbart gerade in solchen Situationen seine elementaren Schwächen. Wenn man z.B. in Norddeutschland 30000 und künftig 50000 oder gar 70000 MW Windleistung erzeugt und die Leitungen zu den Verbrauchszentren dann aus irgendwelchen Gründen ausfallen, so kann man mit gerade mal 3000 MW Primärregelleistung im Fall des Falles faktisch überhaupt nichts mehr ausrichten.

Bild 4. Kohlekraftwerke wie dieses der Steag in Herne sind entscheidende Stützen der Netzstabilität (Foto: kohlekraftwerke.de)

Beim Blackout nutzen Gaskraftwerke wenig

Eine weitere wichtige Folgerung aus den beschriebenen Ereignissen ist die, dass die oft als Heilsbringer gepriesenen Gaskraftwerke bei einem Blackout wenig ausrichten können. Reine Gaskraftwerke werden zwar als Schnellstarter gepriesen, doch dauert es eben doch mehrere Minuten, bis ihr Generator wirklich nennenswerte Leistungen abgeben kann. Damit kann man keinen Blackout verhindern. Noch mehr gilt dies für die sogenannten Gas-und-Dampfkraftwerke: Aus dem Stillstand heraus braucht deren Dampfkessel eher Stunden als Minuten, bis er die Turbine mit nennenswerter Leistung versorgen kann. Während reine Gaskraftwerke wegen ihrer hohen Kosten sowieso meist nur kurzfristig zur Deckung von Spitzenlast zum Einsatz kommen, bedienen GUD-Kraftwerke meist die Mittellast. Zwar kommen sie mit kleinen bis mittleren Lastgradienten gut zurecht, doch ist ihre Präsenz im Netz wegen der hohen Kosten zu gering, als dass man von ihnen erwarten könnte, dass sie wesentliche Anteile der Aufgaben von Grundlastkraftwerken übernehmen könnten.

EE-Strom ist unzuverlässig

Mit Blick auf die oben vorgestellten Gefährdungen der Netzstabilität stellt man bei genauerer Betrachtung der in Deutschland zur Zeit vorliegenden Situation bei der Stromerzeugung – insbesondere unter Einbeziehung der sogenannten „Erneuerbaren Energien“ – fest, dass wir uns bereits jetzt in einer kritischen Situation befinden, die durch weiteren EE-Zubau immer weiter verschlimmert wird. Bild 5 zeigt den Verlauf der Stromerzeugung aus Wind, Sonne und konventionellen Kraftwerken im Zeitraum vom 1. bis zum 26. Dezember 2013.

Bild 5. Erzeugung aus konventionellen, Wind- und Solarkraftwerken vom 1. bis 26. Dezember 2013 (Daten: EEX)

Daraus lässt sich erkennen, dass im Dezember zwar etliche Tage mit sehr hohem Stromaufkommen aus Windenergie vorkamen, aber andererseits auch Zeiträume mit einer Gesamtdauer von rund zwei Wochen, in denen die deutsche Bevölkerung ohne den Strom aus konventionellen Kraftwerken extrem schwierige Zeiten ohne Heizung, Licht, Warmwasser, warmes Essen und funktionsfähige Arbeitsplätze hätte durchmachen müssen. Von einer Fähigkeit der „Erneuerbaren Energien“, konventionelle Kraftwerke zu ersetzen, kann demnach nur jemand reden, der selbst das kleine Einmaleins der Stromerzeugung und -versorgung nicht verstanden hat. Großkraftwerke kann man nicht so mal eben nach Belieben ein- oder ausschalten und danach in die Garage stellen, sie brauchen Belegschaften (4 Schichten!), Betriebsmittel, Brennstoffe, Reparaturen etc. pp, und diese Kosten laufen weiter, egal ob man ihnen erlaubt, Strom zu liefern oder nicht.

Ihren blamabelsten Tag hatten Sonne und Wind am 11. Dezember, als sie gemeinsam über einen Grossteil des Tages weniger als 2000 MW und über einen Teil des Nachmittags sogar weniger als 900 MW lieferten, Bild 6. Das ist gerade mal die Leistung eines einzigen größeren Kohlekraftwerks. In Prozentzahlen ausgedrückt waren dies gerade einmal 1,4 % der Netzlast. Man muss schon eine sehr lockere Beziehung zur Realität haben um zu behaupten, mit derartigen „Energiequellen“ könne man Deutschland zu 100 % versorgen, wie es immer mal wieder in der Presse zu lesen ist.

Bild 6. Am 11. Dezember 2013 erreichte das Aufkommen an Wind- und Solarstrom über lange Zeiträume nicht einmal 1500 MW (Daten: EEX)

Bei viel Wind wird die Notfallreserve nicht mehr eingehalten

Ebenso unhaltbar ist auf der anderen Seite jedoch inzwischen auch die Situation an Tagen mit hohem EE-Aufkommen. Aufgrund des Vorrangs von EE-Stromerzeugern vor konventionellen Kraftwerken müssen diese bei hohen Einspeisungen von Wind- und Solarstrom ihre Erzeugung zurückfahren. Dadurch wird jedoch bei etwa 28000 MW eine kritische Grenze unterschritten, bei der die noch am Netz verbleibende Kraftwerksleistung nicht mehr ausreicht, um die erforderliche Mindestreserve an Primärregeleistung vorzuhalten [VERT, WIAU]. Dies ist in Bild 4 mit einer roten Linie gekennzeichnet. Am 22. Dezember war dies beispielsweise über einen Zeitraum von 8 Stunden der Fall. Für diesen Zeitraum wurde das N-1-Kriterium bezüglich Vorhaltung von Primärregelleistung nicht mehr eingehalten, ein klarer Verstoß gegen die Erkenntnisse aus der Analyse des Blackouts vom November 2006. Auf gut Deutsch: Im Dezember 2013 bestand für einen Zeitraum von mehreren Tagen ein reales Blackout-Risiko nicht nur für Deutschland, sondern auch für die Nachbarländer. In seinem Wind- und Solarwahn ist Deutschland inzwischen offensichtlich bereit, seine internationalen Verpflichtungen zur Sicherung der gemeinsamen Netzstabilität zeitweilig grob zu missachten.

Österreich: Es wurde knapp

Einen Eindruck davon, wie schädlich sich der Alleingang Deutschlands in Sachen EE-Energieproduktion auf unsere Nachbarländer mittlerweile auswirkt, vermittelt der Vergleich der ursprünglich in Österreich geplanten Stromerzeugung aus konventionellen Kraftwerken mit der tatsächlichen Produktion am 22. Dez. 2013,

Bild 7. Fast den ganzen Tag über mussten die Kraftwerke des Austrian Power Grid (APG) zwischen 800 und mehr als 1100 Prozent der ursprünglich geplanten Erzeugung erbringen, um einen Zusammenbruch der überlasteten Leitungsnetze nach Deutschland zu vermeiden. 

Gerne hat man das bei unseren Nachbarn sicher nicht gemacht, denn schon bei einer vergleichbaren Situation am 3. Oktober 2013 hatte man zu ähnlichen Maßnahmen greifen müssen, wenn auch nicht in dem jetzt erforderlich gewordenen Umfang. Schon damals hatten sich die Kosten auf über eine Mio. € belaufen [SAUR]. Beim Strom-Tsunami, der um den 22. Dezember herum die Netze überflutete, dürfte es noch wesentlich teurer geworden sein.

Das Ausmass des Ärgers, den solche Ereignisse auslösen, unterstreicht die folgende Meldung, die am 29.11.2013 in „Die Presse“ erschien: „Der heimische Übertragungsnetzbetreiber APG schlägt Alarm: Das Stromnetz könne mit dem rasanten Ausbau der Wind- und Solarkraftwerke nicht Schritt halten. Allein heuer musste das Unternehmen 600 Stunden lang Kraftwerke notabschalten oder den kurzfristigen Handel mit Strom unterbinden, um das heimische Stromnetz zu sichern. „Die Tendenz ist stark steigend“, warnt APG-Vorstand Gerhard Christiner“ [OEST].

An diesem fundamentalen Problem ändert sich auch durch die Tatsache nichts, dass der überschüssige Windstrom, der in diesem Zeitraum die Netze überschwemmte, zeitweilig nur noch dann abzusetzen war, wenn man dem Abnehmer bis zu 6,2 ct/ kWh draufzahlte, Bild 8. Dies erhöht die Differenz zum Garantiepreis, den der deutsche Verbraucher dann über die EEG-Umlage an die „Öko“-Profiteure zu bezahlen hat.

Bild 8. Um die Weihnachtszeit 2013 musste überschüssiger EE-Strom an der Börse mit Aufzahlungen von bis zu 6,2 ct/ kWh verschleudert werden (Grafik: HECK)

 Fred F. Mueller

Quellen:

[HECK] http://nature2010.tripod.com/wkr202.htm    24/25.12.2013

[N1KR] http://www.netzausbau.de/SharedDocs/Glossareintraege/DE/N/glo_n-1-kriterium.html?view=renderHelp[CatalogHelp]&nn=231210

[OEST] http://diepresse.com/home/wirtschaft/economist/1492276/Stromnetz-heuer-600-Mal-in-Gefahr?from=gl.home_wirtschaft

[SAUR] http://www.ploetzlichblackout.at/2013/12/22/eine-analyse-der-aktuellen-situation-weihnachten-2013/

[VERT] http://www.energiewelten.de/elexikon/lexikon/seiten/htm/110601_Primaerregelung_des_Stromversorgungsnetzes.htm

[WIAU] http://de.wikipedia.org/wiki/Stromausfall_in_Europa_im_November_2006

[ZEIT] http://www.zeit.de/online/2006/45/Stromausfall




Energiewende wirkt: Jeder dritte Solarindustrie-Job gestrichen – RWE fährt Milliardenverluste ein

Faz vom 28.1.14: Die grüne Revolution in der deutschen Industrie sollte zu einem neuen Beschäftigungswunder in Deutschland führen. Doch zur guten Lage am Arbeitsmarkt tragen die mit Milliardensummen geförderten Ökobranchen kaum bei. Im Gegenteil: Vor allem in der Solarindustrie gehen derzeit Tausende Arbeitsplätze verloren.

In der Herstellung von Solarzellen und Solarmodulen waren im November vergangenen Jahres gerade noch rund 4800 Personen beschäftigt. Damit wurde innerhalb eines Jahres jede dritte Stelle abgebaut. Erstmals seit knapp vier Jahren fiel die Beschäftigung unter die Marke von 5000…. Die staatliche Förderung der Photovoltaik hatte zuvor zu einem enormen Ausbau in Deutschland geführt.

Christoph Schmidt, der Vorsitzende der Wirtschaftsweisen und Präsident des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung, hatte berechnet, dass jeder dieser Arbeitsplätze im Jahr mit 175.000 Euro gefördert wird. Angesichts des Vergleichswerts von 75.000 Euro in der Steinkohleförderung stellte er früh die Frage nach der Nachhaltigkeit.

Die Welt

RWE muss Milliarden abschreiben

Der Essener Energiekonzern RWE muss bei bei seinen konventionellen Kraftwerken Abschreibungen in Milliardenhöhe vornehmen.

Insgesamt habe der Konzern einen Wertberichtigungsbedarf in Höhe von rund 3,3 Milliarden Euro ausgemacht, teilte RWE mit. Der Großteil davon – 2,9 Milliarden Euro – entfielen auf die konventionelle Stromerzeugung, der Rest auf den Geschäftsbereich Erneuerbare Energien und den Beteiligungsbereich.

Die Wertberichtigungen würden auch auf das Nettoergebnis der Konzerns durchschlagen, betonte RWE…..

….Konzernchef Peter Terium erklärte, RWE trage damit den tiefgreifenden Veränderungen der Rahmenbedingungen auf dem europäischen Erzeugungsmarkt Rechnung. «In ganz Europa stehen derzeit vor allem Erdgas- und Steinkohlekraftwerke unter einem hohen wirtschaftlichen Druck», sagte er. Der Manager verwies gleichzeitig darauf, dass RWE bereits Konsequenzen aus der schwierigen Ertragslage ziehe, mit der alle europäischen Stromerzeuger konfrontiert seien. Das Unternehmen senke konsequent die Kosten seines Kraftwerksparks, um seine Ertragskraft zu steigern.