Stromexport = Strommüll ?

Aber wie ist das möglich, wo doch die Experten nach dem schlagartigen Abschalten von acht Atomkraftwerken im Jahr 2011 unisono prophezeiten, dass wir in Zukunft viele Jahre auf Stromimport aus Frankreich angewiesen sein würden, weil die Windräder und Sonnenkollektoren eben nicht so viel Elektrizität hergeben. Nun, die Experten haben sich, wieder mal, geirrt. Volle 34 Terawattstunden (TWh) an Strom hat Deutschland im Jahr 2014 exportiert, die Importe bereits gegengerechnet. Dieser Exportüberschuss sind stattliche 6,5 Prozent des inländischen Jahresverbrauchs von ca. 520 TWh. Dabei sollte man noch wissen, dass eine Terawattstunde einer Milliarde Kilowattstunden entspricht. Also einer ziemlich großen Nummer!

Und genauso bemerkenswert ist, dass der deutsche Stromexportüberschuß seit dem Schicksalsjahr 2011 (Fukushima) kontinuierlich angestiegen ist und in den kommenden Jahren, mit hoher Wahrscheinlichkeit, noch weiter steigen wird. Und, dass wir (Steuerzahler) jedoch an diesen Exportgeschäften nichts verdienen, sondern möglicherweise noch draufzahlen werden. Und, dass wir deshalb unsere nationalen Klimaziele nicht erreichen werden.

Wie konnte so ein volkswirtschaftliches Chaos entstehen? Und wer ist dafür verantwortlich? Nun, ich versuche die Ursachen aufzudröseln, mit einen Schuss Ironie, gelegentlich.

Am Anfang war das EEG

Um zu den Ursachen für die gegenwärtige unbefriedigende Energiesituation vorzudringen, müssen wir uns schlappe 15 Jahre zurückbegeben. Jürgen Trittin, der Grüne, war zu jener Zeit in der Form seines Lebens. Als Bundesumweltminister in Schröders rot-grüner Koalition befand er sich an der Schaltstelle für eine neue "ökologische" Energiepolitik. Er nahm die Stromkonzerne in den Schraubstock, indem er sie zur mittelfristigen Aufgabe ihrer Atomkraftwerke zwang und er komponierte im Jahr 2000 eigenhändig das sogenannte Erneuerbare-Energien-Gesetz, abgekürzt EEG, welches vor allem den Ausbau der Windräder, der Sonnenkollektoren und die Vermaisung der Landschaft – pardon, ich meinte natürlich die Nutzung der Biomasse zur Stromerzeugung – vorsah. Und alles sollte ganz, ganz schnell gehen, deshalb erhielten die Ökofreaks hohe Subventionen für ihre Stromanlagen. Die Photovoltaik-Leute, beispielsweise, satte 57 Cent pro (intermittierend) erzeugter Kilowattstunde.

Doch das hastig zusammengestrickte EEG hatte einige Webfehler. Neben den viel zu hohen Fördersätzen gestattete es den Mini-Stromerzeugern die allzeitige und bevorzugte Einspeisung in das Stromnetz. Die Energieversorgungsunternehmen (EVU) müssen heute noch jede Kilowattstunde Strom von Wind, Sonne und Biomasse abnehmen – beziehungsweise honorieren, falls ihr Stromnetz die Aufnahme nicht zulässt. Der Ausbau der sogenannten Erneuerbaren Energien vollzog sich im Rekordtempo: die installierte Kapazität für Wind liegt heute bei 35.000 Megawatt (MW), für Solar gar bei 38.000 MW und für Biomasse bei 8.000 MW. Zum Vergleich: Deutschland benötigt im Schnitt eine Stromerzeugungskapazität von etwa 50 bis 80.000 MW.

Die Regeln der Strombörse

Für uns Verbraucher hat Strom im allgemeinen einen festen Preis, nicht aber für die Stromhändler. Diese kaufen ihre Stromquantitäten rechtzeitig u. a. an der Leipziger Strombörse ein, denn dort bieten ihn die vier großen Energieversorgungsunternehmen (RWE, E.ON, EnBW und Vattenfall) oder die vielen kleineren Stadtwerke an, welche den Strom an ihren Kraftwerken erzeugen. Angebot und Nachfrage bestimmen den Preis, den die Börse zuweilen stündlich festlegt. Die wichtigste Kostenart für diese Stromerzeuger sind die Brennstoffkosten, also für Uran, Kohle und Gas. Dabei sind die – ungefähren – Stromerzeugungskosten bei einem Kernkraftwerk 2 bis 3 Cent, bei einem Kohlekraftwerk 3 bis 6 Cent und bei einem Gaskraftwerk 6 bis 10 Cent. Kann ein Kraftwerk seine Brennstoffkosten nicht mehr an der Börse refinanzieren, dann wird es (normalerweise) aus betriebswirtschaftlichen Gründen abgeschaltet und nach einiger Zeit sogar stillgelegt. Sonne und Wind haben in dieser Beziehung einen Vorteil, weil sie "formal" keine Brennstoffkosten haben. "Die Sonne schickt keine Rechnung" besagt ein nur vordergründig schlauer Spruch. Man müsste hinzufügen: "Die Sonne produziert auch keinen Strom", aber diese defätistischen Aussage ging in der bisherigen Ökoeuphorie mancher Deutscher unter.  Wie sieht nun das Stromerzeugungsmanagement bei einem Stromkonzern – wie dem RWE – aus, der Kernkraftwerke, Kohlekraftwerke (Stein- und Braunkohle) sowie Gaskraftwerke betreibt und daneben Sonnen- und Windstrom aufnehmen muss? Nun, normalerweise decken Atom und Braunkohle die erforderliche Grundlast ab, Steinkohle die Mittellast und die Gaskraftwerke, welche man schnell an- und abschalten kann, werden – neben den Pumpspeichern – für die mittägliche Spitzenlast benötigt. Aber das funktioniert neuerdings nicht mehr so, denn die Wind- und Solaranlagen haben die wendigen Gaskraftwerke aus dem Markt gedrängt. Sie dürfen als erste einspeisen. Das sieht man gut am Beispiel des 11. Mai 2014 in der unten platzierten Grafik. Dies war ein Sonntag, an dem wenig Strom gebraucht wurde, an dem aber gleichzeitig der Wind kräftig wehte und die Sonne am wolkenlosen Himmel viel PV-Strom produzierte. Dieser regenerative Strom musste, gemäß EEG, bevorzugt ins Netz aufgenommen werden.

Siehe Bild oben rechts

Das Diagramm veranschaulicht die Situation am genannten Sonntag: Wind und Sonne zusammen erbrachten zeitweise allein schon fast 40.000 Megawatt an Strom. Das Angebot auf dem Strommarkt überstieg die Nachfrage bereits am Vormittag so weit, dass der Strom an der Börse "wertlos" wurde. Sein Preis fiel auf Null. Am frühen Nachmittag war darüber hinaus so viel Strom im Netz, dass die deutschen Produzenten Geld bezahlen mussten, um ihn loszuwerden. Der "negative Strompreis" sank auf 60 Euro pro Megawattstunde, entsprechend 6 Cent pro Kilowattstunde. In der ersten Jahreshälfte 2014 gab es bereits an 71 Stunden negative Strompreise. In wenigen Jahren, nach dem weiteren Ausbau der Wind- und Sonnenenergie, können es tausend Stunden im Jahr und noch mehr werden.

Problematische Kohlekraftwerke

Und was machen die Kohlekraftwerke, insbesondere jene, die Braunkohle verfeuern? (Die Kernkraftwerke lassen wir mal außen vor, da sie in wenigen Jahren sowieso abgeschaltet sein werden.) Sie werden nicht zurückgefahren, sondern produzieren kräftig weiter. Denn lieber verkaufen die Erzeuger ihren eigentlich überflüssigen Kohlestrom zehn Stunden lang (tagsüber) zu negativen Strompreisen, als ihre Braukohlekraftwerke abzuschalten. Warum? Nun, diese fossilen Kraftwerke sind darauf ausgelegt, ohne Unterbrechung zu laufen. Selbst ihre Leistung nur zu drosseln wäre schon zu teuer. Muss nämlich ein Kraftwerk aus irgend einem Grund vom Netz, so bezahlt der Betreiber später allein für den Dieselkraftstoff einen fünf- oder gar sechsstelligen Betrag, um dieses Kraftwerk wieder sicher auf Betriebstemperaturen von über 500 Grad zu bringen. Außerdem vertragen diese Art von Kraftwerken das häufige An- und Abschalten aus Materialgründen nicht gut. Ein weiterer Grund für den fortgesetzten Betrieb der Kohlekraftwerke ist die Sicherstellung der Netzstabilität. Weil der erzeugte Strom sich aber nicht speichern lässt, muss er irgendwo hin. Und dafür gibt es Interessenten. Die Holländer, beispielsweise, nehmen ihn recht gerne um ihre Glashäuser zu heizen – und weil er nicht nur kostenfrei ist, sondern seine Abnahme noch gut bezahlt wird. Dafür legen unsere schlauen Nachbarn sogar gerne einige ihrer Gaskraftwerke still. Mittlerweile verhökern sie den Strom sogar weiter nach England, die Schweiz und Italien. Ein ähnlicher Sekundärmarkt hat sich bei unserem östlichen Nachbarn, den Polen, herausgebildet.

Im Klartext: der exportierte Strom ist heutzutage schon häufig Überschussstrom, für den es in Deutschland keine Abnehmer gibt und den man deshalb – unter erheblicher Zuzahlung – in ausländische Netze einspeisen muss. Er ist vergleichbar mit Müll, den man zur Entsorgung (kostenpflichtig) ins Ausland bringt.

In unserem Fall ist es – man verzeihe das harte Wort – Strommüll.

Fazit

Der im Vorjahr 2014 ins Ausland exportierte Strom von 34 Milliarden Kilowattstunden ist kein Nachweis für unsere wirtschaftliche Potenz. Er ist vielmehr der Beweis dafür, dass mit der nach Fukushima hastig eingeläuteten Energiewende etwas furchtbar schiefgelaufen ist. Das EEG mit seiner radikalen Bevorzugung von Wind- und Sonnenstrom hat die Gaskraftwerke aus Kostengründen aus dem Markt gedrängt. Die Braunkohlekraftwerke hingegen, mit ihrer hohen CO2-Fracht, müssen die Grundlast erbringen, insbesondere, wenn die Kernkraftwerke im Jahr 2022 insgesamt abgeschaltet sein werden. 

Unsere Energiezukunft wird also folgendermaßen aussehen:
Sonne und Wind erbringen die Spitzenlast, die Kohle die Grundlast. Reguliert wird die Strommenge, indem man über die nationalen Grenzen hinweg den Überschussstrom exportiert – und dafür noch bezahlt.

Dr.Ing Willy Marth 

Der Beitrag wurde vom Blog des Autors übernommen 

Über den Autor: 

Willy Marth, geboren 1933 im Fichtelgebirge, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.




Wärmebilanz der Erde und globale Temperaturänderung

….Die beobachteten Abweichungen von einer stetig durch verstärkte Sonneneinstrahlung steigenden Temperatur in den Jahren 1945 bis 1975 sind auf eine stärkere Wolkenbildung durch die in den Jahren 1945 bis 1963 über die Kernwaffenversuche künstlich in die Atmosphäre eingebrachten radioaktiven Kondensationskeime  zurückzuführen. Die Stagnation der Temperatur ab 1998hat ihre Ursache in der seit 1998 nachlassenden Sonnenaktivität..

Von 1900 bis 1998 stieg die solare Einstrahlung um 1,3 W/m², seit 1998 hat sie nachgelassen und Werte erreich, die denen vom Anfang des 20. Jahrhunderts entsprechen. Der Abfall der Globaltemperatur in den nächsten Jahren ist vorhersehbar

 Haupttext

Die Erdoberfläche von 511 Millionen km² ist zu ca.75% von Wasser bedeckt. Der Rest sind 3% Polareiskappen und 22% Landmassen, bestehend aus 8% Wald, 8% Ackerfläche und 5% Industrie- und Besiedelungsfläche.

Dank der enormen Wassermenge in den Ozeanen der Erde und der hohen Wärmekapazität des Meerwassers stellen Änderungen der dort akkumulierten Wärmeenergie die Hauptkomponente der Wärmeenergiebilanz der Erde dar.

Wenn von der Klimaänderung gesprochen wird, wird auf die Darstellung der  sog. Temperaturanomalien Bezug genommen, die u.a. vom ICCP veröffentlicht wird. Dabei handelt es sich um Jahresmittelwerte, die ihrerseits auf einen Mittelwert über ein definiertes Zeitintervall bezogen werden. ( z. B. 1961-1990). In der folgenden Abb.1 ist der Verlauf der Temperaturanomalien dargestellt: 

Abb.1: NASA Angaben über die Anomalie der globalen Jahresmitteltemperaturen. ( nach data.giss.nasa.gov/gistemp/station_data/ ) Siehe Bild rechts 

Gemessen werden diese Temperaturen von ca. 35.000 meteorologischen Stationen, die über die Erde verteilt sind, wobei die größere Häufigkeit der Messstationen auf der nördlichen Halbkugel der Erde liegt.

Die Ozeane spielen auf Grund ihrer großen Oberfläche und ihrer großen Wärmekapazität die Schlüsselrolle in der Klimagestaltung der Erde. Sie enthalten 97% des gesamten Wassers des Planeten und sind die Quelle von 86% des auf der Erdoberfläche verdampfenden Wassers. 78% des globalen Niederschlags erfolgt über den Ozeanen und nur 22% erfolgt über den Landmassen.

Die Reaktion der Erdatmosphäre auf Störungen des Wärmehaushalts wird damit im Wesentlichen vom Temperaturverhalten  des Ozeans mit seiner Oberfläche von ca. 400 Millionen km², seinem Wasserinhalt von ca.1,3 Trillionen m³ und der Wechselwirkung mit der Atmosphäre bestimmt.

Die, die Erdatmosphäre bildende Luft ist ein kompressibles Gas und hat auf Meereshöhe eine Dichte von  1,29 kg/m3. Ca. 50% der Luftmasse der Atmosphäre liegen zwischen 5500m Höhe und  dem Meeresspiegel.

Die Gesamtmasse der Lufthülle beträgt ML = 5,14* 1018kg und der daraus resultierende Luftdruck auf Meereshöhe beträgt 1013 hPa.

Die  Hauptbestandteile der Erdatmosphäre sind Stickstoff N2 zu 78 %, Sauerstoff O2 zu 21%, Argon Ar zu 0,9 %, Kohlendioxid, CO2 zu 0,038 % und Wasserdampf,  H2 O. Während  sich die Zusammensetzung der Luft bezüglich N2, O2, Ar und CO2 erst in großer Höhe ändert, ist die Wasserdampfkonzentration stark von der Temperatur  und der Höhe abhängig, s. Abb. 2.

Abb. 2: Wasserdampfgehalt in Abhängigkeit von der Höhe

( J. Langeheine, Energiepolitik in Deutschland, das Geschäft mit der Angst, Athene Media Verlag, ISBN 978-3-86992-054-2) 

Wird mit Wasser gesättigte Luft von  20°C, die  ca.17g Wasser /m³ als Wasserdampf enthält, z. B. in eine Höhe von 5000m transportiert, verliert sie 16g Wasser/m³. Dieser Wasserdampf  kondensiert und fällt unter bestimmten Bedingungen als Niederschlag zurück auf die Erde.

90 % des Wassergehaltes der Atmosphäre  verteilen sich auf die ersten 5500 Höhenmeter .Damit spielen sich die Wetterprozesse im Wesentlichen in einem Höhenbereich bis ca. 5500 m ab. Die Integration über die Höhe bis 11000m ergibt eine absolute Wassermenge in der Atmosphäre von ca.  MW = 1,3 ∙ 1016kg und entspricht einem kondensierten Volumen von 1,3∙ 1013m³. In den Ozeanen befindet sich dagegen mit ca. 1,3∙ 1018 m³ etwa 100.000  mal mehr Wasser als in der Atmosphäre.

In reiner Luft ( ohne fremde Teilchen ) kann die relative Feuchtigkeit bis zu 800 % erreichen, ohne dass Kondensation eintritt. In der Realität kondensiert der Wasserdampf jedoch bei Werten wenige Prozent unterhalb oder oberhalb von 100 %, abhängig von der Natur und Konzentration der Kondensationskeime in der Luft. Als Kondensationskeime  für die Wolkenbildung dienen Aerosolpartikel aus Bestandteilen der Erdoberfläche und hochenergetische ionenbildende Strahlung.  Besonders aktiv sind radioaktive Stäube bzw. Radon- Zerfallsprodukte, deren Anreicherung in Wolkentropfen im Vergleich zu der umgebenden Luft ( B.I. Styra et all. Tellus XVIII (1966, 2) auf  ihre Mitwirkung bei der Entstehung der Kondensationskeime schließen lässt.

Die Unterscheidung der Wolken erfolgt u.a. nach der Höhe der Wolkenuntergrenze in hohe, mittlere und tiefe Wolken.

Hohe Wolken, die sich im allgemeine oberhalb 6000m bilden und etwa 13-14% der Wolkenbedeckung ausmachen, bestehen aus Eiskristallen.

Mittlere Wolken, die in Höhen zwischen 2000 und 5000 m entstehen und etwa 20% der Wolkenbedeckung ausmachen, bestehen aus Wassertropfen.

Tiefe Wolken bestehen ebenfalls aus Wassertropfen befinden sich in Höhen bis zu 2000m. Sie machen etwa 28-30% der Wolkenbedeckung aus.  

Hohe und mittlere oder tiefe Wolken können gleichzeitig auftreten, jedoch sind für  den Niederschlag im Wesentlichen die mittleren und tiefen Wolken verantwortlich.

Abb.3. Wolkenbedeckung und Wassergehalt der Atmosphäre von 1983 bis 2010

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

In der Abb.3 ist der zeitliche Verlauf des Wassergehalts der Atmosphäre sowie der Verlauf der Bewölkung von 1983 bis 2010 dargestellt. Die Abb. 4  zeigt die Abweichung der jährlichen Niederschlagsmenge vom langjährigen Mittelwert. Aus dem Vergleich der beiden Darstellungen 3 und 4 ist ein Anstieg der mittleren Bewölkung und ein Abfall der tiefen Bewölkung in den Jahren ab 1998 zu erkennen, verbunden mit einem Ansteigen der Niederschlagsrate. Die Gesamtbewölkung mit mittleren und tiefen Wolken bleibt jedoch weitgehend konstant bei 48%. Trotz Niederschlag ändert sich der Wassergehalt der Atmosphäre nur wenig, jedoch ab 1998 ist ein sprunghafter Abfall auf 24 mm (s. nachfolgende Ausführungen) zu sehen. Gleichzeitig steigt die mittlere Bewölkung von ca. 20 auf 23 % und die tiefe Bewölkung sinkt von 28 auf 25%.

Seit dieser Zeigt stagniert auch die globale Erwärmung.

Abb. 4: Abweichung des globalen Niederschlags über Landflächen vom Mittelwert für die Jahre 1900 bis 2010

(Image credit: NOAA‘s National Climatic Data Center.)

Ein Vergleich der Abb.4 mit der Abbildung 1 zeigt, dass eine Stagnation der globalen Temperaturanomalie in den Perioden hohen Niederschlags auftritt. Sowohl in den Perioden zwischen 1945 bis 1980 als auch ab 1998 bis 2010 ist eine deutlich positive Abweichung der Niederschlagsmenge zu beobachten.

Wolken und Niederschlag sind das Bindeglied der Atmosphäre zum Ozean.

Die Wassermenge der Ozeane, Verteilt auf ihre Fläche ergibt eine durchschnittliche Tiefe von 3800m. Doch die tieferen Schichten des Ozeans beteiligen sich kaum an den Temperaturänderungen der Oberfläche. Ab einer bestimmten Tiefe, der sog. Thermoklinen gleicht sich die Oberflächentemperatur der Tiefentemperatur an.

Die Abbildung 5 zeigt die Zunahme des Wärmeinhalts des Ozeans von 1970 bis 2005 um ca. 1,6∙ 1023  J .

Im gleichen Zeitraum stieg die Oberflächentemperatur um  0,4°C. Daraus berechnet sich die  Lage der durchschnittlichen Thermoklinen bei einer Tiefe von ca. 300m. In dieser Wassertiefe sind ca. 1/13 der Wassermassen des Ozeans betroffen und erfordern für die Aufheizung um 1K ca. 4∙ 1023  J.

 

Abb.5 Veränderung des Wärmeinhalts der Ozeane

http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT/ 

Die in der Atmosphäre enthaltene Wassermenge entspricht einem kondensierten Volumen von 1,3∙ 1013 m³. Verteilt man das Wasservolumen der Atmosphäre auf die Erdoberfläche von  511∙ 106 km 2, so erhält man eine Wassersäule von ca.25 mm, s. Abb. 3. Mit der Verdampfungswärme von 2257 kJ/kg Wasser, die zur Überführung des Wassers vom flüssigen in den dampfförmigen Zustand erforderlich ist, ergibt sich eine gesamte im Wasserdampf der Erde enthaltene latente Wärme von ca. 3∙ 1022 Joule, entsprechend 3∙ 104 EJ.

Die mittlere Verdunstungs-, bzw. Niederschlagsrate beträgt etwa 1000 mm Wassersäule pro Jahr. ( Baumgartner und Reichel 1975 ). Das bedeutet, dass der Zyklus  Verdampfung- Kondensation pro Jahr ca. 40 mal abläuft.

Nach dieser Abschätzung verdunsten so alljährlich 520.000Km³ Wasser von der Erdoberfläche. Die genaueren Zahlen liegen bei 505.000 km³, davon 434.000 km³ über den Ozeanen und 71.000 km³ über dem Land. Die in der Bilanz fehlende Menge von ca. 36.000 km³ wird den Ozeanen durch die Flüsse wieder zugeführt.

Mit der Verdunstungswärme von 2257 kJ/kg ergibt sich daraus eine Wärmemenge von 9,8∙ 1023 J/a, die den Ozeanen jährlich entzogen wird und eine Wärmemenge von 1,6∙ 1023 J/a , die von den Landflächen kommt, insgesamt also eine Wärmemenge von 11,4∙ 1023 J/a oder 1,14 ∙106 EJ pro Jahr. Diese werden im Gleichgewichtszustand wieder durch die Sonneneinstrahlung ausgeglichen.

Eine Abweichung der jährlichen Niederschlagsrate um 1% ( 10mm pro Jahr ) verändert diese Energiemenge für die Ozeane um ca. 1∙ 1022 J/a. daraus lässt sich eine Veränderung der Wärmeabstrahlungsleistung von  0,86W/m²  Ozeane errechnen.

Die unter Berücksichtigung der  Niederschlags- und Temperaturentwicklung berechnetet  Energiebilanz für den Zeitraum zwischen 1900 und 1998 ergibt nun folgendes Ergebnis:

-Zwischen 1900 und 1945 wurde dem Ozean eine Energiemenge von 1,6∙ 1023  J  zugeführt, die sich aus der geringeren Niederschlagsrate (im Mittel -1,2%) von ca. 570 mm  entsprechend ca. 5,7∙ 1023  J,  einer auf Grund der Temperaturerhöhung  des Ozeans  gestiegenen Wärmeabstrahlung von ca. 5,6∙ 1023  J und einer bis 1945 um ca.0,6 W/m² , gestiegenen Wärmeinstrahlung ( ca. 1,6∙ 1023  J) durch erhöhte Sonneneinstrahlung zusammensetzt. Der Anstieg der Wärmeeinstrahlung betrug pro Jahr ca. 0,013W/m².

-In der Zeit zwischen 1945 und 1980 stieg diese zusätzliche Sonneneinstrahlung  auf  0,93W/m². In dieser Zeit fielen 350mm mehr Niederschlag als im statistischen Mittel, d.h. im Durchschnitt jedes Jahr 1% mehr als normal. Das führte bis 1970 als die weiter steigende Wärmeinstrahlung den Wert des Wärmeverlustes durch die gestiegenen Niederschläge erreichte, zu  einem Temperaturrückgang. Ab diesem  Zeitpunkt überwog der Einfluss der gestiegenen Sonneneinstrahlung und die Temperatur stieg wieder.

-Im Zeitraum 1980 bis 1998 ist wieder eine unterdurchschnittliche Niederschlagsmenge von ca.  1%  in jedem Jahr zu verzeichnen, Im gleichen Zeitraum stieg die solare Einstrahlung auf  1,3W/m², was zu einer Temperaturerhöhung im Jahr 1998 um 0,55 K führte.

-Ab 1998 bis 2010 setzt  ein um 1,5% stärkerer Niederschlag ein. Eine Stagnation weiterer Temperaturerhöhung ab 1998 war die Folge.

Die Energiebilanzen der einzelnen Zeitabschnitte führen zu dem Ergebnis, dass die effektive solare Einstrahlung von 1900 bis 1998  um ca. 1,3 W/m² gestiegen sein muss. Dieses Ergebnis wird auch durch die nachfolgenden Überlegungen zu Albedoveränderungen  und Wolkenbildungsprozessen bestätigt.

Streuung und Reflektion der von der Sonne auf die Erdoberfläche treffenden Strahlung führt zu einer durchschnittlichen Albedo von 30%. Albedo ist der Betrag der Rückstreuung und Reflektion der Sonneneinstrahlung durch Atmosphäre, Wolken und Erdoberfläche, er kommt dem Wärmehaushalt der Erde nicht zugute.

Stärkere Bewölkung führt zu höheren Albedo-Werten, geringere zu niedrigeren Werten, letztere verbunden mit der dann höheren Einstrahlung auf die Erdoberfläche.

Die folgenden Abbildungen 6 und 7 zeigen die Messungen des Erdalbedos der Jahre 1985 bis 2010 im Vergleich zu der weltweiten Wolkenbedeckung  von 1983 bis 2010

Abb.6 Veränderung der Erdalbedo nach (Palle, E, et all 2004) http://www.iac.es/galeria/epalle/reprints/Palle_etal_Science_2004.pdf

 Abb.7 Weltweite Wolkenbedeckung ab 1983

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

Ca. 5% Änderung der gesamten Wolkenbedeckung haben nach diesen Ergebnissen eine Änderung der Erdalbedo um ca. 6% von 30 auf  28,2% zur Folge. Das bedeutet, dass jedes Prozent einer Änderung der Wolkenbedeckung eine Albedoänderung von 1,2 % bewirkt. Die solare Einstrahlung ändert sich damit um ca. +/-1,4 W/m² von 239,4 auf 240,8 W/m² bzw. 238 W/m² bei einer Änderung der Wolkenbedeckung um +/- 1%.

Nach  der Theorie von Svensmark ist die durch kosmische Strahlung verstärkte Ionenbildung für die Entstehung von zusätzlichen tiefen Wolken verantwortlich.

Abb. 8: Kosmische Strahlung und Bewölkung nach Svensmark

Marsh & Svensmark 2003 (DOI: 10.1029/2001JD001264. )

20 % Variation bzgl. der kosmischen Strahlung bedeuten danach 2% Variation in der Wolkenbedeckung.

Die kosmische Strahlung ist eine hochenergetische Teilchenstrahlung, die von der Sonne, der Milchstraße und von fernen Galaxien kommt.

Die Intensität der kosmischen Strahlung, die die Erdatmosphäre erreicht, ist abhängig von der durch die Sonnenaktivität  hervorgerufenen Störung bzw. Abschirmung des Erdmagnetfeldes.

Der Geomagnetische  Index, der sog. aa-Index, ist ein Maß für diese Störung und damit ein Maß für  die Abschirmwirkung  des Erdfeldes gegenüber kosmischer Einstrahlung.  Der aa- Index wird in nT angegeben. Sein Verlauf seit 1860 ist in der folgenden Abbildung 9 wiedergegeben, aus der erkennbar ist, dass der geomagnetische Index von einem Tiefpunkt, der um das Jahr 1900 lag, bis ca. 2000 ständig gestiegen ist.

 Abb.9: Geomagnetischer Index

[http://www.ngdc.noaa.gov/stp/geomag/aastar.html]

Zwischen kosmischer Einstrahlung CR und aa- Index besteht nach Palle der aus der folgenden Abb.10  ableitbare Zusammenhang: 

CR = 5000- 45 < aa> .

Abb 10.  The influence of cosmic rays on terrestrial low clouds and global warming
in the years 1984-1993

E. Palle Bago and C. J. Butler: Astronomy & Geophysics, August 2000. Vol 41, Issue 4, pp.18-22.

1900 lag der aa-Index bei 14nT  und stieg bis zum Jahr 1990 auf ca.30nT.

Damit ist die kosmische Einstrahlung von einem Wert von 4370 im Jahr 1900 auf  3650 im Jahr 1990 gesunken, und die Wolkenbedeckung mit tiefen Wolken verringerte sich bei Verwendung der Ergebnisse  von Svensmark um 2%.

Da die Wolkenbedeckung tiefer Wolken etwa 50% der  gesamten Wolkenbedeckung ausmacht, kann von einem Abfall der gesamten Wolkenbedeckung bis 1990 um ca. 1% ausgegangen werden, was eine zusätzliche solare Einstrahlung von ca.1,4  W/m² bis 1990 bedeutet.

Die von 1900 bis 1998 gestiegene Sonnenaktivität ist die alleinige Ursache für die Erhöhung der Globaltemperatur, die nur durch Perioden hohen Niederschlages in den Jahren 1945 bis 1970 unterbrochen wurde.

Seit dem Jahr 1998 geht die Sonnenfleckenaktivität deutlich zurück und erreicht mit dem Zyklus 24 Werte, die denen um 1900 entsprechen. Die kosmische Einstrahlung steigt und führt zu verstärkten Niederschlägen.

In den kommenden Jahren ist mit einem aa Index von ca. 15nT  zu rechnen, mit entsprechendem Anstieg der kosmischen Einstrahlung, höherer Wolkenbildung und absinkender Globaltemperatur.

Die verstärkte Niederschlagsmenge im Zeitraum 1945 bis 1970 ist auf eine zusätzliche Quelle ionisierender Strahlung zurückzuführen, deren Ursprung in den Kernwaffenversuchen der Zeitperiode 1945 bis 1963 zu suchen sind. Luftverschmutzungen scheiden als Ursache für diesen Zeitraum aus.

Riesige Mengen radioaktiver Stäube und fein verteilter Materie wurden durch die Explosionen  bis in die Stratosphäre geschleudert, verteilten sich mit den Luftströmungen weltweit und bildeten eine ständige Quelle von ionisierendem Mikrostaub für die Entstehung von Kondensationskeimen in der Troposphäre.

Zwischen 1951  und 1963  stieg z. B. der Strontiumgehalt in der Stratosphäre ständig an mit entsprechenden Auswirkungen auf das Wettergeschehen und nahm  ab 1963 nach dem  Atom-Versuchstop langsam bis 1974 wieder ab.

Erst ab dem Jahr 1974 ist diese Quelle radioaktiver Strahlung versiegt und kommt für Wolkenbildung nicht mehr in Frage.

Zwischen 1945 und 1974, wird die Wolkenbildung also von zusätzlicher radioaktiver Einstrahlung beeinflusst, die aus den Atomversuchen stammt, ein indirekter Beweis für die Theorie von Svensmark. Erst ab dieser Zeit setzt  sich der Einfluss der fallenden kosmischen Strahlung wieder als Klimafaktor durch und der Temperaturanstieg geht entsprechend der gestiegenen Sonneneinstrahlung weiter.

Ab 1998 sinkt der aa- Index und erreicht 2010 Werte um 15, wie sie Anfang des 19. Jahrhunderts herrschten. Die kosmische Einstrahlung und damit die Wolkenbedeckung steigen seit dieser Zeit.  Die solare Zusatzeinstrahlung sinkt auf Werte, die Anfang des 20sten Jahrhundert herrschten. Das führt  zu einem Rückgang der globalen Temperatur.  Wann diese Entwicklung zum Stillstand kommt hängt allein vom Verlauf der solaren Aktivität ab.

(Eine ausführlichere Darstellung kann als pdf – Datei geladen werden) 

Related Files




Stellungnahme und Anmerkungen mit den wichtigsten technischen und vor allem wirtschaftlichen Auswirkungen zu den Kosten der Energiewende

1. Erzeugung elektrischer Energie:

•  Die Abb. zeigt, daß der höchste Stromverbrauch in Deutschland ca. 70.000 MWel in der Spitze beträgt. Hierfür sind mit konventionellen Anlagen ca. 80.000 MW Leistung installiert;
•  zusätzlich sind 77.941 MW Leistung mit Wind+ und Solarenergie installiert;
•  Die gesamte installierte Leistung beträgt damit 159.941 MW also mehr als das Doppelte der erforderlichen  Leistung zur Versorgung der BRD;
•  Elektrische Energie ist nur mit extrem hohen Kosten speicherbar, die billigsten/wirtschaftlichen Speicheranlagen sind Pumpspeicherkraftwerke;
•  Am 6.1. und vom 19.1.-24.1 war die Einspeisung der "erneuerbaren Energie" gegen Null, Folge, die gesamte erforderlich Leistung mußte konventionell erzeugt werden;
•  Von der installierte Leistung von 77.941 MW waren zur Spitzenzeiten nur 45,7 % nutzbar;
•  Konventionelle Kraftwerke werden so konstruiert, daß sie in einem Lastbereich von 40% bis 100% regelbar sind, sich also dem Strombedarf anpassen können;
•  von der installierte Leistung der Solaranlagen konnten nur 1,46% der Auslegungsleistung genutzt werden;
•  mit einer installierten Gesamtleistung von 38.267 MW sind im Januar 31 Tage 744 h/ Monat 28.471 GWh erzeugbar, erzeugt wurden nur 561 GWh, das sind 1,9 %;
•  mit einer installierten Gesamtleistung Windkraft von 39.674 MW sind im Monat Januar mit 31 Tagen/744 h erzeugbar: 29.517 GWh, erzeugt wurden 9.463 GWh das sind 32%;

Abb. 1 (siehe auch Bild oben rechts, dort zum vergrößern anklicken, bzw als pdf im Anhang) Alt: Leistungsganglinien Wind – und Solarenergieanlagen Januar 2015) 

2. Transport elektrischer Energie:

•  Der Transport elektrischer Energie ist wegen der Wärmeverluste der teuerste Energietransport;
•  Daher Planungsgrundlage: Elektrische Energie kann am preiswertesten in der Nähe der Abnehmern erzeugt werden. Daher haben viele, vor allem energieintensive Betriebe, eine eigene Stromproduktion; Konventionelle Anlagen sind also standortmäßig frei planbar;
•  Dies geht nicht bei Wind und Sonne, die Anlagen müssen dort geplant werden, wo der Wind am häufigsten weht und die Sonne scheint.
•  Daher sind zur Fortleitung erneuerbarer Energien wesentlich längere und leistungsmäßigstärker Transportleitungen erforderlich;
•  Die Tarnsportverluste in elektrischen Fernleitungen sind hoch, abhängig von der Stromart: Gleichstrom oder Wechselstrom, von der Spannung und den Kabeln und natürlich von der Leitungslänge;
•  Die Stromverluste beim Transport sind wesentlich höher, als alle Einsparmöglichkeiten beim Betrieb elektrischer Geräte;
•  Beim Tranport von Gleichstrom kommen die Verluste der Umformung von Drehstrom auf Gleichstrom und zurück auf Drehstrom noch hinzu, dafür sind die Leitungsverluste aber geringer;
•  Die Transportverluste liegen zwischen etwa 15-40% der eingespeisten Leistung, vor allem in Abhängigkeit von der Entfernung;
•  Die Stromverluste beim Transport werden als Wärme in die Umgebung abgegeben. Strom erzeugt von kalten Wind über See erwärmt dann die Luft über Land, tragen also zur "Erwärmung des Klimas" bei;
•  Gebaut werden müssen die Transportleitungen für die maximal zu eizuspeisende Leistung, also 100%;
•  Anschaulich dargestellt ist dies in der Abbildung zu erkennen: Die Kabelkapazität muß der der roten Linie entsprechen, ausgelastet ist die Leitung aber nur mit dem blauen plus gelben Bereich; der hellblaue Bereich zeigt die Strommenge die transportierbar wäre. Die Auslegungskapazität der Transportleitungen wir also nur zu 17,3 % genutzt. Dies zeigt, daß die geplanten "Stromautobahnen" von der Nordsee nach Bayern nur im Durchnitt zu 17,3% ausgelastet werden können.

3. Reservehaltung für Erneuerbare Energien: wie kann Strom dann erzeugt werden, wenn Wind nicht weht und die Sonne nicht scheint.

•  Die Reservehaltung zur Produktion von Strom in Zeiten, in denen Wind- und Solarstrom nicht erzeugt wird könnten erfolgen durch Stromspeicher; Diese Anlagen haben enorm hohe Investitionskosten, sind de facto unbezahlbar, für Pumpspeicheranlagen sind die landschaftlichen Vorrausetzungen nicht vorhanden;
•  Die Netzstabilität wird durch die vorhanden konventionellen Kraftwerke realisiert. Deren volle installierte Kapazität ist hierzu zeitweise erforderlich;
•  Die Stabilisierung der Netze erfolgt durch Regelung der Frequenz im Bereich von 49,5 bis 50,5 Hz. Wenn diese Frequenz nicht eingehalten werden kann, fällt alles aus, das Netz bricht also zusammen; Die Erzeugung von elektrischer Energie ist der einzige Produktionsprozeß in der Wirtschaft, bei der in sekundenschnelle die Produktion der Abnahme angepaßt werden muß;
•  Die Erneuerbaren Energien  mindern   nur die Auslastung der Kraftwerke, deren Kosten bleiben bis auf die eingesparten Brennstoffkosten in gleicher Höhe, letztere können aber nur zum Teil verringert  werden,  da im  erforderlichen Schwachlastbetrieb der Erzeugungs-Wirkungsgrad geringer ist;
•  Zum Bau von Pumpspeicheranlagen oder Batterien: Die Abb zeigt deutlich daß hierzu etwa die drei- fünffache Produktionskapazität bereit gestellt werden muß, die Investitionskosten werden also um den Faktor 3 bis 5 erhöht. Hinzu kommen die Verluste bei Transport und Speicherung;
•  Eine weiter Möglichkeit besteht im Bau von Gaskraftwerken. Dies habe im Vergleich zu Kohlekraftwerken geringere Investitionskosten, dafür aber erheblich höhere Betriebskosten wegen der spezifisch höheren Kosten für Gas als für Kohle. Auch diese Anlagen können nur partiell betrieben werden, können aber mit geringeren Kosten und kürzerer Zeit abgeschaltet und wieder in Betrieb genommen werden. 
•  Eine weitere Möglichkeit besteht natürlich im Zukauf/Bezug von Strom aus Fremdnetzen. Dieser wird aber zu fast 100% mittels Kernkraft und konventionellen Kraftwerken produziert, die in Deutschland stillgelegt werden sollen; die zu vermeidende CO2-Produktion wird also nur von Deutschlamnd auf die Nachbarstaaten verlagert, deren Kraftwerke haben größtenteils einen schlecheteren Wirkungsgrad, die CO2-Produktion in diesen Anlagn ist also höher als in Deutschland.
•  Die dauerhafte Reservehaltung von konventionellen Anlagen ist nicht möglich, da diese Anlagen im Stillstandszeiten einen höheren Verschleiß haben und damit höhereKosten für Wartungsarbeiten haben, als in Betrieb befindliche Kraftwerke. Die Kosten für Reservehaltung ohne Stromerzeugung liegen also höher als die Gesamtkosten zum Betrieb.

4. Zusammenfassung.

Diese hohe Zahl von Kritereien zu einer wirtschaftlichen Stromerzeugung und Versorgung mittels Erneuerbarer Energien zeigt deren Komplexität. Deutschland hatte vor der irrsinnigen Energiewende die sicherste Stromversorgung mit preiswertester Energieerzeugung. Kraftwerksanlagen in Milliardenhöhe wurden exportiert. Hundertausende  hochqualifizierter Arbeitsplätze erwirtschafteten Milliarden an Steuereinnahmen. Das ist alles hin, heute werden Milliarden für dieses "Perpetuum Mobile" der Neuzeit als Subventionen vergeudet. Schon unsere Ahnen scheiterten am Versuch, ein Perpetuum Mobile zu erfinden. Beide Versuche scheiterten bzw. werden scheitern an den gleichen Naturgesetzen, die nicht beachtet werden.
Wissenschaftliche Grundlage für die Energiewende ist die wissenschaftlich höchst umstrittene These, daß CO2 zur Erwärmung des Klimas des Planeten Erde führen könnte. Diese These ist durch nichts bewiesen, sie beruht ausschließlich auf Modellrechnungen mittels Großrechnern, in die Faktoren eingegeben werden deren Größe und deren wechselseitige Abhängigkeiten weder qualitativ noch quantitativ ausreichend bekannt sind. Dies mußte der Direktor des PIK, Prof. Dr. Schellnhuber in einem mail-wechsel zugeben. In jede Modellrechungen können und werden die Faktoren so eingegeben, daß das Ergebnis herauskommt, das man vorher bestimmt hat. Dieser These hat niemand widersprochen, ihr kann auch nicht widersprochen werden, dies  ist aber politisch/ ideologisch nicht erwünscht und darf daher in der Öffentlichkeit nicht diskutiert werden. Wer es trotzdem tut, ist ein "Klimaskeptiker" und als Wissenschaftler nicht gefragt und zur Beratung von Politikern ungeeignet
Am fundiertesten und umfassendsten und genauesten  wird diese These widerlegt in den beiden  ZDF Sendungen. "Klima macht Geschichte" vom 11.01 2015 und 18.01.2015
In eine kürzliche Diskussion im Westfälischen Industrieklub sprach ein bekannter Professor, Direktor eines die Bundeskanzlerin beratenden bekannten Wirtschaftsinstitutes, von den schmutzigen Kohlekraftwerken. Auf meine Frage, ob sein CO2, das er aus seiner Lunge ausatmet, denn sauberer sei, als das aus Kraftfahrzeugen und Kohlekraftwerken, sah er mich verdutzt an, antwortete ausweichend, denn  er schien plötzlich zu erkennen daß es keine Unterschiede beim CO2 gibt, gleich durch welche Produktion, also durch Menschen, Tiere, Energieerzeugung usw.usw.  CO2 "als giftig oder gar als Giftgas zu bezeichnen", ist das Maximum an Dummheit.
Der Anteil des von den Menschen Deutschlands und deren Wirtschaft produzierten CO2 an der Gesamt CO2-Produktion des Planeten Erde beträgt, mehrfach veröffentlicht und von keinem Wissenschaftler widersprochen, 0,00001472 %. Dieser Wert stimmt ziemlich genau. Und damit wollen wir Bürger Deutschlands das Weltklima retten, mit völlig überflüssigen Milliarden von Steuergeldern und Abgaben, Größenwahn in allerhöchster Potenz.
Er lud mich dann zu einer Diskussion mit einem seiner Fach-Professoren ein. Nachdem ich das Diskussionsthema umrissen hatte, kam von diesem die Antwort, davon verstände er nichts. Exakt traf er damit den Kernpunkt der Energiewende, sein Wissen, daß er von all diesem nichts weiß, ist also 100% richtig, aber die Bundesregierung begründet mit diesem "Wissen" die Energiewende.
" Strom ist das Blut der Wirtschaft, hohe Strompreise wirken hier wie Leukämie, man ist krank, lebt dennoch für einige Zeit, nur der Tod kommt in Bälde mit Sicherheit!!!
Urban Cleve

Related Files




Stellungnahme II zum Grünbuch Strommarkt des BMWI

Sehr geehrte Damen und Herren,
hier folgt, was ich von Ihrem Grünbuch Strommarkt halte:
"Ein Strommarkt für die Energiewende" heißt der Titel des Diskussionspapiers des BMWE. Damit sind schon, ohne auf weitere Details eingehen zu müssen, die zwei Haupteinwände benannt: Ein Strommarkt, der die Bezeichnung Markt verdiente, existiert nicht und wird auch durch die in dem Diskussionspapier vorgeschlagenen Maßnahmen nicht geschaffen werden, und für die unsere Volkswirtschaft und unseren Wohlstand ruiniernde Energiewende fehlt jede rationale Begründung. 
Zum sogenannten Strommarkt: Ein Markt zeichnet sich dadurch aus, daß die gleichberechtigten Hersteller oder Händler eines Produktes dieses zu einem ihnen genehmen Preis den möglichen Nutzern des Produktes anbieten. Die Nutzer haben die freie Wahl zwischen den verschiedenen Anbietern und werden das für sie jeweils günstigste Angebot hinsichtlich Preis und Qualität auswählen. Es entsteht ein harter Wettbewerb der Anbieter um die Gunst der Kunden, bei dem die Anbieter, die zu teure oder zu schlechte Produkte verkaufen wollen, aus dem Markt ausscheiden. Die Folge ist eine beständige Anstrengung der Anbieter, ihr Produkt immer billiger und immer besser zu machen. Sie tun dies aus durchaus egoistischen Motiven, nämlich einen möglichst großen Marktanteil zu gewinnen und dadurch möglichst viel Geld zu verdienen. Den größten Nutzen aus diesen Anstrengungen haben aber andere, die Kunden, die immer weniger für ein immer besseres Produkt zu zahlen haben. Das alles funktioniert ohne jede Einmischung des Staates. Sobald der Staat sich einmischt, wird diese segensreiche Funktion des Marktes gestört oder gar zerstört. Der gegenwärtige sogenannte Strommarkt ist das beste Beispiel für die zerstörende Einmischung des Staates.
Es fängt damit an, daß die Hersteller des Produktes Strom nicht mehr gleichberechtigt sind. Die Hersteller des sogenannten "erneuerbaren" Stroms, also die Betreiber von Photovoltaikanlagen, Windturbinen und Biogasanlagen, sind privilegiert. Ihr wertloser, da höchst volatiler Strom genießt Einspeisevorrang vor dem wertvollen, da zuverlässigen Strom der konventionellen Anbieter, muß also  von den Netzbetreibern abgenommen werden ohne Rücksicht darauf, ob er überhaupt gebraucht wird, und das zu einer festen, garantierten Einspeisevergütung, auf die der Kunde nicht den geringsten Einfluß nehmen kann. An der Strombörse, die vom BMWE als Kennzeichen für einen funktionierenden Markt propagiert wird, kann dieser Strom dann zu beliebig niedrigem, ja selbst zu negativem Preis verhökert werden und die Selbstkostenpreise der konventionellen Anbieter unterbieten, da ja den Herstellern des privilegierten Stroms der Börsenpreis völlig gleichgültig ist: sie bekommen in jedem Fall ihre staatlich garantierte Einspeisevergütung. Das ist nichts anderes als staatlich gefördertes Preisdumping! Für inländische private Stromkunden sind die niedrigen Börsenpreise ohne jede Wirkung. 
Es setzt sich fort darin, daß der Kunde keine freie Wahl unter den Anbietern und ihren Produkten hat. Er kann nicht sagen, der erneuerbare Strom ist mir zu teuer, ich kaufe lieber preiswerten konventionellen Strom, nein, er muß den teuren, unzuverlässigen und daher wertlosen erneuerbaren Strom kaufen, staatlicher Zwang!
Es setzt sich weiter fort darin, daß die Hersteller konventionellen Stroms daran gehindert werden, ihre durch die Privilegierung des erneuerbaren Stroms unwirtschaftlich werdenden Kratftwerke abzuschalten. Die Regierung hat nämlich erkannt, daß diese und nur diese Kraftwerke die Versorgungssicherheit garantieren, daß sie ständig eine Minimalleistung von etwa 28 GW zur Stabilisierung des Netzes einspeisen müssen und daß eine abrufbare Leistung von mindestens 80 GW ständig verfügbar sein muß. Die konventionellen Stromerzeuger machen aber wegen des Preisdumpings der privilegierten Stromerzeuger und wegen der durch die vorrangige Einspeisung des erneuerbaren Stroms stark herabgesetzte Auslastung ihrer Kraftwerke zunehmend Verluste. Sie könnten ihre Kraftwerke nicht mehr weiterbetreiben, sobald sie insolvent werden. Daher plant das BMWE die Einführung eines sogenannten "Kapazitätsmarktes", in dem die Beteiber konventioneller Kraftwerke eine Vergütung erhalten sollen, nur damit sie ihre Kraftwerke einsatzbereit halten. Das hat mit Markt ebensowenig zu tun wie die garantierte Einspeisevergütung für erneuerbaren Strom.
Das Diskussionspapier des BMWE beschreibt also nichts anderes als die geplante Perfektionierung einer Plan- und Zwangswirtschaft auf dem Gebiet der Stromversorgung, das Gegenteil eines Strommarktes.
In der Einleitung des Grünbuches heißt es:
"Quantitative Ziele leiten den mittel- und langfristigen Umbau des Stromsektors.
Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen. Für 2050 hat die Bundesregierung weitere Ziele gesetzt: Die Treibhausgasemissionen sollen um 80 bis 95 Prozent gegenüber 1990 und der Primärenergieverbrauch um 50 Prozent gegenüber 2008 zurückgehen, wozu auch eine Verringerung des Stromverbrauchs beitragen soll. Gleichzeitig soll der Anteil erneuerbarer Energien am Stromverbrauch auf mindestens 80 Prozent steigen. —-"
Das Kapitel 8 ist überschrieben: "Die Klimaschutzziele erreichen".
Das ist also die eigentliche Begründung für den ganzen Wahnsinn der Energiewende: der Klimaschutz!
Man behauptet, daß eine katastrophale Erwärmung des globalen Klimas drohe, die durch den anthropogenen Ausstoß von Treibhausgasen, hauptsächlich CO2 und Methan, verursacht sei. Deshalb müsse der anthropogene Ausstoß von CO2 vermindert werden.
Es gibt für diese Behauptung keinerlei Unterstützung durch Messungen. Die Temperaturmessungen seit der Mitte des 19. Jh. zeigen einen allmählichen Anstieg, der sich in nichts von den seit dem Ende der letzten Eiszeit bekannten Temperaturanstiegen aus den vielen sogenannten "kleinen" Eiszeiten unterscheidet, deren letzte Mitte des 19. Jh. zu Ende ging. Der Temperaturanstieg ist seit 18 Jahren zum Stillstand gekommen, obwohl der CO2-Gehalt der Atmosphäre in dieser Zeit weiter zugenommen hat. Der sogenannte Treibhauseffekt des CO2 läßt sich zwar unter bestimmten Annahmen berechnen, aber die Gültigkeit dieser Annahmen läßt sich nicht beweisen oder durch Messungen belegen, ebensowenig wie der Treibhauseffekt gemessen werden kann. Die Behauptung stützt sich einzig auf die Ergebnisse von zweifelhaften Computermodellen, die nicht in der Lage sind, ausgehend von einem Zustand der Atmosphäre und der Erd- und Meeresoberfläche zu einem bestimmten Zeitpunkt die bis dahin bekannte Entwicklung des Weltklimas rückwärts zu berechnen, denen aber blind vertraut wird, wenn sie ihre Berechnungen in die Zukunft richten. Den gegenwärtigen Stillstand der Erwärmung seit 18 Jahren hat keines dieser Modelle vorausberechnet.

Richard Feynman, Nobelpreisträger für Physik, sagt dazu:
"Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt,
Egal, wie elegant sie ist,
Egal, wie plausibel sie klingt,
Egal, wer sie unterstützt,
Wenn sie nicht durch Beobachtungen und Messungen bestätigt wird, dann ist sie falsch."

Es gibt also keinen vernünftigen Grund, das Klima durch Reduktion des CO2-Ausstoßes schützen zu wollen. Ebenswenig gibt es einen Grund zum Energiesparen, koste es, was es wolle. Der einzige Grund, Energie nicht zu verschwenden, ist, daß sie etwas kostet, nicht, daß sie bald zu Ende ginge. Die Vorräte an den fossilen Brennstoffen Steinkohle, Braunkohle, Erdöl und Erdgas reichen bei heutigem Verbrauch noch für viele hundert Jahre, die Vorräte an den Kernbrennstoffen Uran und Thorium sind praktisch unerschöpflich, sobald die Brütertechnik allgemein eingesetzt wird und sobald man die Kernenergie einsetzt, Uran und Thorium aus dem Meerwasser zu gewinnen. Die Kernenergie ist die Energie der Zukunft, auch wenn man das in Deutschland heute nicht erkennen will.
Abschließend ist zu dem Grünbuch zu sagen, daß alle Probleme der Stromversorgung leicht gelöst werden könnten durch die ersatzlose Streichung des EEG und die Rückkehr zu einer Stromversorgung durch thermische Kraftwerke, wie wir sie bis vor 20 Jahren schon einmal hatten, mit preiswertem und zuverlässigem Strom und einer blühenden Volkswirtschaft. Dann gäbe es auch wieder einen Strommarkt!
Mit freundlichen Grüßen
Dipl.-Ing. Elmar Oberdörffer
Echbeck 16
88633 Heiligenberg




Mitmachen dringend erwünscht: Stellungnahmen zum Grünbuch des Bundeswirtschaftsministeriums

Mit dem Grünbuch "Ein Strommarkt für die Energiewende" (hier) will das Bundesministerium für Wirtschaft und Energie (BMWi) eine breite, lösungsorientierte Diskussion und eine fundierte politische Entscheidung über das zukünftige Strommarktdesign  ermöglichen. Dieses Grünbuch eröffnet eine öffentliche Konsultation bis März 2015.
Stellungnahmen zum Grünbuch bzw. zu einzelnen Kapiteln des Grünbuchs können bis zum 1. März 2015 an folgende E-Mail-Adresse geschickt werden: gruenbuch-strommarkt@bmwi.bund.de.
Die Stellungnahmen werden bei Einverständnis des jeweiligen Absenders in der nachstehenden Liste veröffentlicht.

Related Files