Erwärmungshysterie und 2°-Ziel – warum?

Und auch dort erinnert sich Herr Schellnhuber nicht mehr daran, dass er 2003 als Mitautor das Gegenteil publiziert hat, zitiert als [3]. Mit dem 2°-Ziel der Klimapolitik hat sich der Autor in „Fallgruben der Klimawandler“ befasst, und ebenso mit den Ursachen der Erwärmungshysterie, zitiert als [1]. Der Teil 4 der Video-Reihe und die Stockholmer Veranstaltung des IPCC veranlassen den Autor, die beiden Kapitel dieser „Fallgruben“ zu ergänzen. „Das 2°-Ziel der Politik“ wird hier behandelt, „Wie konnte die Klimawandel-Hysterie entstehen“ folgt in Kürze. 

Das 2°-Ziel der Politik

Was ist Klimawandel wirklich und wie entstand das 2°-Ziel ?

Begriff ‚Erderwärmung’

Zunächst ist eine Begriffsklärung nötig, denn Klimaforscher, Medien und Politiker sprechen oft von einer ‚Erderwärmung’, die wir Menschen ihrer Meinung nach verursachen. Der Begriff ist falsch! Dass sie diesen Begriff benutzen, charakterisiert allerdings ihren Kenntnisstand von der Erde,  und das gilt sowohl für den Erdkörper selbst als auch für seine Klimageschichte, denn von ihren 4,5 Mrd Jahren werden bestenfalls nur knapp 100 Jahre berücksichtigt, also der 45Million-ste Teil. 

Unter der Erdoberfläche schwankt die Temperatur des Bodens mit der aktuellen Temperatur der Luft. Im Boden verringern sich nach unten die Temperaturschwankungen und erreichen in etwa 10 m Tiefe die Jahresmitteltemperatur, die bei uns etwa 9,5°C beträgt. Zur Tiefe hin nimmt die Tempe­ratur dann mit der ‚geothermischen Tiefenstufe’ zu – bei uns sind das 3°C/100m; in 1000 m Tiefe beträgt die Temperatur also  9,5+ (10´3) = 39,5°C. Von örtlichen Besonderheiten abge­sehen er­reicht die Temperatur in etwa 50 km Tiefe die Schmelztemperatur der Gesteine von ca. 1500°C. Von dort sind es bis zum Zentrum des Erdkerns noch ca. 6320 km, wo die Temperatur 5000°C übersteigt.  Von Temperaturänderungen der Atmosphäre ist schon in Tiefen von 10 m nichts mehr zu spüren. Deshalb: von ‚Erderwärmung’ zu sprechen ist falsch.

Klimawandel  

Von offizieller Seite wird der Begriff ‚Klimawandel’ mit größter Selbstverständlichkeit benutzt und auf den gegenwärtigen Zustand des Klimas angewandt. Dabei wird in der Öffentlichkeit ständig der Eindruck erweckt, dass die in historischem Maßstab derzeit marginale Temperaturän­derung maßgeblich vom Menschen verursacht werde. Die jüngste IPCC-Veranstaltung in Stock­holm hat dies wieder bestätigt.

Aber was ist Klimawandel wirklich? Das Wetter wechselt von Tag zu Tag, von Woche zu Woche – etc., aber wie groß muss (darf, soll) eine Änderung sein, um als Klimawandel zu gelten? Wel­ches Kriterium ist ausschlaggebend für den Unterschied zwischen Tem­peratur­schwankungen und Klimawandel? Klare Definitionen gehören zu den Grundlagen der Naturwissen­schaften – schon als Schüler erfährt man, wie beispielsweise unsere Längen­maße definiert sind, und warum. Dass für den Kli­mawandel immer noch eine klare De­finition fehlt, ist er­staunlich, wo doch sonst alles mit Maß und Zahl ge­klärt ist. Könnte dies beabsichtigt sein, weil mit der ge­gen­wär­tigen Praxis sich auch schon die kleinen Temperaturschwankungen der Gegenwart als Klimawandel propagie­ren lassen?

Dass die Übergänge zwischen Eiszeiten und Warmzeiten einen Klimawandel darstellen, versteht sich von selbst, doch diese Änderungen erreichen Größenordnungen bis zu 10°C und mehr. Beim wirklichen Klimawandel kleineren – bzw. geringeren bzw. üblichen  – Ausmaßes wandelt sich ein Klima in ein anderes, und man kann die Größenordnung der einen Klimawandel bewirkenden Veränderung abschätzen, wenn man die Mittelwerte der Tem­peraturen mehrerer Klima­zonen vergleicht. Beispielsweise unterscheiden sich die Durch­schnitts­temperaturen von Mailand, Berlin und Stockholm um jeweils etwa 3°C, Vergleiche mit subtropi­schen oder perigla­zialen Zo­nen er­geben erheblich größere Unterschiede. Ein wirklicher Klimawan­del erfordert Än­derun­gen von einigen Grad.

Wie von Ewert in [1] dargestellt, ist die Temperatur seit etwa 1700 ausweislich der Langzeit-Temperaturreihen von 60 Stationen (von 82) weltweit jedoch nur um 0,6°C/100a angestiegen – allerdings nicht überall auf der Erde, denn während 3 Stationen keine Änderungen registrierten, verzeichneten 19 Stationen für die 310 Jahre eine Abkühlung ihrer Regionen von –0,2°C/100a. Die Erwärmungsrate enthält noch den Wärme-Insel-Effekt, der vor allem im 20 Jh. wirksam wurde. Schellnhuber (!) et alt. erhielten bei ihrer Auswertung von 95 Stationen weltweit ein noch ‚kühleres’ Ergebnis und folgerten schließlich, dass man „im größten Teil der Statio­nen keine Anzeichen für eine globale Erwärmung der Atmosphäre gefunden hat“  [2].

Nun beziffert selbst die etablierte und politisch motivierte Klimaforschung die Änderungen im vergangenen Jahrhundert mit nur einigen Zehntel Grad und bezieht sich dabei auf die von ihnen zu Grunde gelegte Beo­bachtungszeit seit etwa 1880. Wenn man berücksichtigt, dass im weitaus größeren Teil der Erdoberfläche bis vor etwa 40 Jahren mangels eines auch nur annähernd ausrei­chenden Stations-Netzes überhaupt nicht gemessen wurde, weil die Satelli­tenmessungen erst später begannen, scheint es angemessen zu sein, für die Temperaturänderung im 20. Jh. unter Abzug des Wärme-Insel-Effekts eine Größenordnung von 0,6°C (±0,2° ) anzu­nehmen. Wäre das wirklich schon ein Klimawandel?  Nein! Wie Abb. 1  zeigt, hat es in den letzten 9000 Jahren den üblichen Wechsel von Warm- und Kaltphasen mit Änderungen auch von mehr als 2°C gegeben. Der letzte Wechsel findet seit 1800 statt, nämlich die Rücker­wärmung nach dem Ende der Klei­nen Eis­zeit (roter Pfeil). Diese Rückerwärmung enthält außer den üblichen Temperatur­schwan­kungen auch Erwärmungs- und Abkühlungsphasen. Die 1708 beginnende Ganglinie der Station De Bilt liefert als repräsentati­ves Zeugnis der wirklichen Tempe­raturentwicklung keinen Beweis für ei­nen ‚men­schengemachten Kli­mawandel’. Die Ganglinie zeigt für das 20. Jh. keine Ent­wicklung, die es nicht vorher – und sehr viel stärker – auch schon gab.

 Abb. 1: Schwankungen der globalen Durchschnittstemperatur (oben: Comnispa-Temperaturkurve A.Mangini, Univ- Heidelberg), Temperaturganglinie der Station De Bilt seit 1708 (unten, aus [1])

Diese geringen Temperaturschwankungen wurden in einer politisierten und von Pro­fiteuren an­geheizten "Klima-Wandel-Hysterie" in einen angeblich anthropogenen Klimawandel  umfunktio­niert, und so von der UN übernommen. Er beruht auf einem politischen und auf einem wirt­schaftlichen Konzept, denn die Möglichkeit eines „long lasting bu­siness“ wurde schnell er­kannt. Die angenommene Zusammenhang zwischen Temperaturänderungen und CO2-Konzentra­tion kann nicht bewiesen werden – und ist nicht be­weisbar. Sie basiert auf Klimasimulationsmodellen, während die in der Natur gemessenen Fak­ten ignoriert werden. Das in den 1980er Jahren erfundene Mo­dell ‚anthropogener Klimawandel’ hat zu einem hektischen Aktionismus (CO2-Minderungs-Maß­nahmen) geführt, denen aber statt eines wirklichen Klimawandels nur die übli­chen Temperatur­schwankungen geringen Ausmaßes zu Grunde liegen.. Die weltweit praktizierte Klimabüro­kratie und der Klimatourismus von Rio bis Kopenhagen kosten Aber-Milliarden und leben von einem ‚Klimawandel’, der nicht stattfin­det.

Das 2°-Ziel

Kritische Einwände gegen diesen angenommenen  Klimawandel werden seitens der Regierung stereo­typ mit dem Argument abgelehnt, man folge mit der Akzeptanz des 2°-Zie­les der offiziel­len Klimapolitik, denn auf dem G-8-Gipfel im italienischen L’Aquila haben sich die USA, Ka­nada, Japan, Deutschland, Großbritannien, Italien, Frankreich und Russland am 08.07.2009 zu dem Ziel bekannt, den globalen Temperaturanstieg im Vergleich zum Beginn des Industriezeit­alters auf zwei Grad Celsius zu begrenzen. Danach soll die angeblich durch uns be­wirkte Erder­wärmung 2°C nicht erreicht werden, denn anderenfalls wäre die Existenz der Menschheit gefähr­det. 

In Die Zeit vom 20.8.2009 urteilte Prof. Dr. Hans von Storch (GKSS HH): „Zwei Grad ist eine politische, eine sinnlose Zahl. Ich halte das für Verarschung.“ In einem am 28.10.2009 veröf­fentlichten Interview der Frankfurter Allge­meinen Zeitung haben die Präsidenten des Geofor­schungszentrums Pots­dam, Prof. Dr. Hüttl, des Alfred-Wegener-In­stituts Bremerhaven, Prof. Dr. Lochte, und des Senckenberg-Mu­seums, Prof. Dr. Mosbrugger,  das 2°-Ziel als unbegründet und nicht zweckmäßig beurteilt. Dieses Urteil der höchsten geowis­senschaftlichen Fachinstanzen blieb unberücksichtigt. Die Bundesregierung und ein Teil der Wis­senschaft hielten daran fest – und selbstverständlich in populistischer Ausschlachtung auch die Medien. Kompetente Gegen­stimmen gab es genug, sie blieben unwirksam. Der geologischen Sicht des Autors kommt die Bewertung von Prof. Dr. Horst Malberg (FU Berlin) am nächsten [3]: "Wie ideologisch vermes­sen muss man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben. Der dominierende solare Ein­fluss auf unser Klima in Verbindung mit dem thermischen Gedächt­nis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch als Zauberlehrling ver­sucht."  

Wer die Entstehungsgeschichte dieses Gebotes erfährt, kann nicht glauben, dass eine durch nichts bewiesene und dazu noch völlig fachfremde Annahme zu einem  Handlungsgebot für die ganze Welt mutie­ren konnte. Joachim Müller-Jung, Fachjournalist der FAZ und durch viele Beiträge als Verfech­ter des Modells vom menschengemachten Klimawandel bekannt, hat diese Entstehungs-ge­schichte am 9.12.2009 in der FAZ in einem gründlichen Beitrag be­handelt. Danach hat die Ge­schichte der Zwei-Grad-Grenze 1977 durch William D. Nordhaus begonnen: Nordhaus war an der Yale-Universität Wirtschaftsprofessor, ohne eigenen fachlichen Bezug zum Klima und zur Kli­maforschung; d.h. das 2°-Ziel ist kein Ergebnis der Forschungen der Klimawissenschaft­ler, sondern eine Erfindung der Wirt­schaftswissenschaft.

Der tatsächlich fehlende Bezug zur Klimaforschung ergibt sich u.a. schon daraus, dass das 2°-Ziel in einer Abkühlungsphase entstand, in der Wissenschaftler eher eine Eiszeit be­fürchteten: Am 25.2.1977 zitierte die Frankfurter Allgemeine Zeitung den amerikanischen Chemi­ker und No­belpreisträger Linus Pauling mit dem Satz: „Die Klimaveränderung könne in eine glo­bale Katast­rophe münden, in den bisher härtesten Test für die Zivilisation“.  Damals fürchtete man sich vor einer neuen Eiszeit, heute vor der Erderwärmung. Am 22.4.2011,  also 34 Jahre später, schreibt  Welt Online dazu: „In den 70-Jahren hatten wir schon mal eine inten­sive Debatte um die Zukunft des Weltklimas. Damals warnten uns die Wissenschaftler aller­dings vor genau dem Ge­genteil: einer neuen Eiszeit. Was aus der Rückschau von heute besonders auffällt: Die erwar­te­ten Folgen glichen denen, die heute im Zusammenhang mit der Erder­wär­mung diskutiert wer­den, wie ein Ei dem anderen: Unbewohnbarkeit der Erde, Extremer­eignisse, Hurri­kane, Dürren, Fluten, Hungerkrisen und andere Katastrophen, die CIA er­wartete Klima­kriege. Auch machte man den Menschen verantwortlich für den sich abzeich­nenden Klimawan­del“. 

Das 2°-Ziel machte Karriere, weil manche Klimaforscher es gelesen oder davon gehört hatten,  seine Anwendbarkeit und Nützlichkeit für ihre Zwecke begriffen, und sich gegenseitig der Be­deu­tung dieses Zieles versicherten. Das 2°-Ziel ist nicht das Ergebnis wissenschaftlicher Unter­suchungen, sondern erinnert vielmehr an die Sage von der Wech­selbeziehung  zwischen dem Glöckner von Notre-Dame und dem Kanonier auf der Bas­tille: Wenn der Glöckner um die Mit­tagszeit sah, dass der Kanonier zur Kanone ging, begann er die Glocke zu läuten, und der erste Glo­ckenschlag veranlasste den Kanonier, den Mittagsschuss ab­zufeuern.

Carlo Jaeger , Ökonom, Soziologe und Humanökologe und Leiter des Forschungsfeldes Trans­dis­ziplinäre Konzepte und Methoden am Potsdam-Institut für Klimafolgenforschung (PIK), hat in ei­nem Buchkapitel geschrieben "Das Zwei-Grad Limit ist fast zufällig aufge­taucht, und es entwi­ckelte sich dann eigentümlich widersprüchlich weiter: Politiker haben es wie ein wissenschaftli­ches Er­gebnis behandelt, Wissenschaftler als eine politische Angele­genheit."

Weitere von Müller-Jung beschriebene Details können in diesem Rahmen nicht berücksichtigt wer­den. Zusammengefasst zeigt sich, dass der Einfall eines Wirtschaftsprofessors durch Weiter­erzählen Karriere machen konnte. Indem das 2°-Ziel auf dem G8-Gipfel zum Gebot einer offi­ziellen Klimapolitik erhoben wurde, ist es zum Handlungsgebot für die Welt geworden. Tatsäch­lich fehlt ihm jeder kausale Bezug zum Klima, wissenschaftlichen Begrün­dungen fehlen und seine Unvereinbarkeit mit Grundgesetzen der Physik ist bewiesen. Die Karriere des 2°-Ziels gleicht einer Ge­schichte aus einem Märchenbuch. Trotzdem dient es dem PIK und dem WBGU (Wissen­schaftlicher Beirat der Bundes­regierung Globale Umweltverände­rungen) als Handlungs­anweisung.  Der WBGU fordert einen Weltkli­mavertrag und schlägt sogar eine De-Karboni­sie­rung vor – also eine Begren­zung des Koh­lenstoff-Umsatzes, ungeachtet der Tatsache, dass Koh­lenstoff der Grund­baustein un­serer Nahrungsmittel ist, also lebensnotwendig. In der Politik und in führenden Medien gilt das 2°-Ziel längst als sakrosanktes Dogma, das zwar keiner ver­steht oder dessen Entste­hung kennt,  der aber jeden bemitleidet – oder ver­leumdet – , der es zu hinter­fragen oder gar zu kri­tisieren wagt.

Schließlich sei noch an eine Tatsache erinnert: Temperaturänderungen von ³ 2°C hat es in der Erdgeschichte immer wieder gegeben, die Ganglinie in Abb. 1 verzeichnet allein drei in 6000 Jahren. Warm­zeiten sind dem Leben auf der Erde immer gut bekommen. Warum sollte eine sol­che Erwärmung also die Menschheit gefährden?  Die Weltbewegung ‚Erwärmung vermeiden’ unterliegt offen­sichtlich einer Auto-Hypnose.

4°C und mehr ?

In Unkenntnis klimatologischer Grundlagen haben die Agitatoren ‚unseres’ Klimawandels nicht berücksichtigt, dass die Sonne als Regisseur unseres Klimas es auf der Erde phasenweise wärmer oder kühler werden lässt. Gegenwärtig wird es wieder mal kühler, so dass die Diskrepanz zwi­schen Messwerten und Simulationsergebnis wächst. Vielleicht haben Anhänger des Modells ‚anthropogener Klimawandel’ auch nur ge­hofft, dass der Unter­schied zwi­schen Wunsch und Wirklichkeit erst nach Erreichen der eigenen Pensionsgrenze so offensichtlich wird, dass selbst die Hartliner die Realität nicht mehr übersehen können. 

Dieser Klimawandel wurde von Tei­len seiner Initiatoren als Geschäfts- und Beschäftigungsmo­dell angelegt, wie in Teil 2 dieser Stellungnahme begründet wird. Anderen An­hängern wurde er im Laufe der Zeit zu einer Ersatzreligion. Nun raubt ein seit 15 Jahren andauernder Erwärmungs-Stop mit einer deutlichen Tendenz zu einer neuen Abkühlungsphase den Propagandisten und den Gläubigen ihre Handlungsgrundlage. Wie darf man trotzdem dabei bleiben? Man erklärt sie als Pause und praktiziert Mark Twain (frei angepasst): „Als das Ziel ihren Augen entschwand, ver­doppelten sie ihre Anstrengungen, es zu erreichen.“  Also wird unsere Klimazukunft in noch düsteren Farben gemalt, damit die Politik weiter für die existenzsichernden Ressourcen sorgt. Der Weltklimarat prognostiziert jetzt eine noch stärkere Erwärmung und wieder einen viel stärkeren Anstieg des Meeresspiegels. Dass bei diesen Bemühungen naturwissenschaftli­che Grundkennt­nisse ver­gewaltigt werden, nimmt man in Kauf.

Und was wurde gemessen ?

Was zu erwarten war, ist eingetreten: Offiziell macht die Erwärmung nur eine Pause,  tatsächlich beweisen die gemessenen Temperaturen, dass statt der vorausberech­neten Erwärmung seit etwa 15 Jahren eine Ab­kühlungsphase stattfindet, wie die von Ewert vorgenommene Detail­auswer­tung der von NASA-GISS angebotenen Kurzzeit-Temperaturreihen von weltweit 1110 Stationen demonstriert. Dabei wurden für jede Ganglinie insgesamt und für deren aufeinanderfol­gende Warm- und Kaltphasen die Gradienten bestimmt; eine Kurzfassung ist bei EIKE archi­viert [4]. Die Ergebnisse sind in Tab. 1 zusammengefasst. Es zeigt sich, dass immerhin 22% der Stationen zwischen 1880 und 2010 überhaupt keine Erwärmung registriert haben, son­dern Gleichbleiben oder Abkühlung, und dass 72% aller Stationen in der letzten Phase eine deutliche Abkühlung ge­messen haben, die zwischen 1995 und 2000 beginnt und noch andauert. 

 

Tab. 1:  Ergebnisse der Auswertung von 1110 Kurzzeit-Temperaturreihen angeboten von NASA-GISS

  

Trotz dieser Abkühlung ist der CO2-Gehalt der Atmosphäre weiter gestiegen, wie Abb. 3 exem­plarisch zeigt. Solch’ gegenläufige Entwicklungen hat es in der Erdgeschichte wiederholt gege­ben, als der Globus trotz sehr viel größerer CO2-Gehalte weitreichend vergletschert war. 

Abb. 2:  Gegenläufige Entwicklung von Temperatur und CO2-Konzentration – links: ab 1979, rechts: ab 2002

 

Fazit

Die um 1800 beginnende natürliche Rückerwärmung nach der Kleinen Eiszeit umfasst Erwär­mungs- und Abkühlungsphasen, wobei dem generellen Trend entsprechend die Erwärmung stär­ker ausfällt, so dass im 20 Jh. die Erwärmung etwa 0,6°C erreicht. Es findet derzeit kein nen­nenswerter oder gar dramatischer wirklicher Klimawandel statt, denn für einem Wandel in ein wärme­res Klima werden einige Grad benötigt.

Das 2°-Ziel wurde in der Abkühlungsphase 1960-1980 zunächst wirtschaftswissenschaftlich de­finiert. Seinem Ursprung entsprechend hat es keine klimatologi­sche Bedeutung. Es wurde von Klimaforschern übernommen, die es für ihre Zwecke nützlich fanden. Und danach wurde es auf einem G8-Gipfel als Gebot der offiziellen Klimapolitik definiert.

Es bleibt abzuwarten, ob mit der gegenwärtigen Abkühlungsphase das Ende der Rückerwärmung nach der Kleinen Eiszeit erreicht ist, oder ob – und wann – eine neue Warmphase folgt. Die Kli­mage­schichte der Erde kennt viele Erwärmungsphasen von 2°C – und mehr. Sie haben das Leben der Primaten nicht gefährdet, Warmphasen haben das Leben gefördert.

Literatur

[1]  Ewert F-K: Langzeit-Temperaturreihen widerlegen menschengemachten Klimawandel. Fusion 32,

      2011, Nr. 3,  S.31-61, 29 Abb, 14 Tab.

[2]  Eichner J.F., Koscielny-Bunde E., Bunde A, Havlin  S. and Schellnhuber H.-J., Power-law persistence  

      and trend

       in the atmosphere: A detailed study of long temperature records, Phys. Rev. E 68, 046133 (2003)

[3]  Malberg H.: Beitr. z. Berliner Wetterkarte, 28.9.2010, 58/10, SO 26/10,   

       http://www.Berliner- Wetterkarte.de,

[4]  Ewert F-K.:  „Was lehren die GISS-Originaldaten?“  und „GISS ‚korrigiert’ seine Temperaturdaten“, Auswertungsberichte, 2011 bei EIKE archiviert; Publikation in Vorbereitung.

Der Beitrag kann auch als pdf heruntergeladen werden.

Related Files




Klimaänderung wird durch den Kreislauf des Wassers dominiert, nicht durch Kohlendioxid

Der Wasserkreislauf umfasst das Salzwasser der Ozeane, das Süßwasser der Flüsse und Seen und die gefrorenen Eiskappen und Gletscher. Er schließt auch die Strömungen innerhalb und zwischen den Ozeanen, der Atmosphäre und auf dem Festland ein, dort in Gestalt von Verdunstung, Niederschlag, Stürmen und Wetter. Der Wasserkreislauf geht mit enormen Energieflüssen einher, die das Erdklima, Temperaturtrends und Oberflächenphänomene prägen. Wassereffekte sind um Größenordnungen wirksamer als die gefürchteten Auswirkungen des Kohlendioxids.

Die Sonne bestrahlt direkt die Tropen, wo viel Energie absorbiert wird, und indirekt die Polargebiete, wo weniger Energie absorbiert wird. Alles Wetter dieser Erde wird angetrieben durch die Umverteilung von Wärme aus den Tropen zu den Polargebieten. Verdunstung erzeugt massive tropische Wettersysteme, die Wärmeenergie nordwärts in kühlere Breiten transportieren. Hochtroposphärische Winde zusammen mit den Wetterfronten, Zyklonen und Meeresströmungen des irdischen Wasserkreislaufes verteilen die Wärmeenergie von den Tropen zu den Polargebieten um.

Der Pazifische Ozean ist die größte Oberflächenstruktur der Erde. Er überdeckt ein Drittel des Globus’ und ist groß genug, alle Landmassen der Erde zu erfassen und noch Wasserfläche übrig zu haben. Ozeane haben 250-fach die Masse der Atmosphäre und können über 1000 mal mehr Wärmeenergie halten. Ozeane haben einen gewaltigen, jedoch erst wenig verstandenen Einfluss auf das Klima der Erde.

Selbst der Treibhauseffekt wird durch Wasser dominiert. Zwischen 75 und 90% des irdischen Treibhauseffektes wird durch Wasserdampf und Wolken verursacht.

Und doch propagieren das IPCC und die heutigen Klima-Modellierer, dass die „Fliege“ „den Hund“ schaukelt. Die Fliege ist natürlich das Kohlendioxid, und der Hund ist der Wasserkreislauf. Die Theorie der vom Menschen verursachten Erwärmung nimmt eine positive Rückkopplung von Wasserdampf an, angetrieben durch die menschlichen Emissionen von Treibhausgasen.

Sie argumentieren so: da wärmere Luft mehr Feuchtigkeit aufnehmen kann, wird der Wasserdampf in der Atmosphäre zunehmen, wenn sich die Erde erwärmt. Da Wasserdampf ein Treibhausgas ist, wird vermutlich zusätzlicher Wasserdampf eine Erwärmung zusätzlich zu der Erwärmung durch CO2 bewirken. Im Endeffekt heißt das, dass der Kohlenstoffkreislauf den viel mächtigeren Wasserkreislauf kontrolliert.

Aber während der letzten 15 Jahre ist die Temperatur der Erde mitnichten angestiegen, trotz steigenden CO2-Gehaltes. Alle Klimamodelle haben einen rapiden Anstieg der globalen Temperaturen vorhergesagt, doch steht dies im Widerspruch zu den tatsächlich gemessenen Daten. Die heutigen Modelle sind oftmals nicht in der Lage, die Wetterbedingungen auch nur einer Jahreszeit vorherzusagen, geschweige denn langfristige Klimatrends.

Ein Beispiel hierfür ist die Vorhersage atlantischer Hurrikane. Im Mai hat die National Oceanic and Atmospheric Administration (NOAA) seine Vorhersage für die Hurrikan-Saison 2013 ausgegeben, der zufolge es zu einer „aktiven oder extrem aktiven“ Hurrikan-Saison kommen soll. Zu jener Zeit sagte die NOAA 7 bis 11 atlantische Hurrikane voraus (mit Windspitzen von 74 mph [ca. 120 km/h] oder höher). Im August hat die NOAA ihre Vorhersage revidiert und spricht jetzt von 6 bis 9 Hurrikanen. Jetzt hat der Oktober begonnen, und bislang gab es lediglich zwei Stürme mit Winden in Hurrikanstärke. Computermodelle sind nicht in der Lage, eine Jahreszeit des Wasserkreislaufes in nur einem Gebiet vorherzusagen.

Das IPCC und die Befürworter der Theorie der vom Menschen verursachten Erwärmung sind mit ihrem Latein am Ende, und zwar durch den seit 15 Jahren anhaltenden Stillstand bzgl. steigender Temperatur. Dr. Kevin Trenberth vermutet hypothetisch, dass die Wärmeenergie durch den Treibhausgas-Antrieb in die Tiefen der Ozeane entschwunden ist. Falls das so ist, steht es eins zu null für den Einfluss der Ozeane auf die Klimaänderung.

Andere haben auf das Vorherrschen von La Niña-Bedingungen im Pazifik seit 1998 hingewiesen. Von 1975 bis 1998 gab es im Pazifik parallel zum Anstieg der globalen Temperatur häufiger warme El Niño-Ereignisse anstatt der kühleren La Niñas. Aber die Pazifische Dekadische Oszillation PDO, ein mächtiger Temperaturzyklus im Nordpazifik, ist vor etwa 10 Jahren in seine Kaltphase eingetreten. Mit der PDO in ihrer Kaltphase kommt es derzeit häufiger zu La Niña-Bedingungen.

Vielleicht sind die häufigeren La Niñas der Grund für den gegenwärtigen flachen Verlauf der globalen Temperatur. Aber falls das so wäre, ist das nicht ein Beweis dafür, dass der Ozean und die Auswirkungen des Wasserkreislaufes stärker sind als die Auswirkungen durch CO2?

Geologische Beweise aus den letzten Eiszeiten zeigen, dass Anstiege des atmosphärischen CO2-Gehaltes einem Anstieg der globalen Temperatur folgen und diesem nicht vorweg laufen. Wenn die Ozeane sich erwärmen, setzten sie Kohlendioxid frei. Klimaänderungen werden durch Änderungen im Wasserkreislauf dominiert, angetrieben durch solare und Gravitations-Kräfte, und das Kohlendioxid scheint dabei nur eine geringe Rolle zu spielen.

—————

Steve Goreham is Executive Director of the Climate Science Coalition of America and author of the new book The Mad, Mad, Mad World of Climatism: Mankind and Climate Change Mania.

Link: http://wattsupwiththat.com/2013/10/07/climate-change-is-dominated-by-the-water-cycle-not-carbon-dioxide/#more-95288

Übersetzt von Chris Frey EIKE




CDU MdB Arnold Vaatz: Bemerkungen zur Energiepolitik in Deutschland

Be­mer­kun­gen zur Ener­gie­po­li­tik in Deutsch­land

von Ar­nold Vaatz

1                 Das Er­neu­er­ba­re-Ener­gi­en-Ge­setz  (EEG) – Gen­esis und Wir­kungs­wie se

2                 Die Kos­ten des EEG (all­ge­meiner Teil)

3                 Die Kos­ten des EEG (spe­zi­el­ler Teil)

4                 Zur Grund­last­fä­hig­keit von Son­nen- und Wind­strom

5                 Zu­sam­men­fas­sung 

6                 Quel­len 

Die Bun­des­re­gie­rung stellt in ih­rem Ener­gie­kon­zept von 2010 an die Ener­gie­ver­sorgung drei An­for­de­run­gen: Sie soll wirt­schaft­lich (so­wohl aus der Sicht der Wirt­schaft als auch der Ver­brau­cher), si­cher und um­welt­scho­nend sein.  Um dies zu er­rei­chen, soll bis 2050 60 % des Brut­to­ener­gie­ver­brauchs und 80 % der Strom­er­zeu­gung von so­ge­nann­ten Er­neu­er­ba­ren Ener­gi­en ab­ge­deckt wer­den. Am 30. Juni 2011 prä­zi­sier­te der Deut­sche Bun­des­tag die­se Plä­ne durch die For­de­rung, bis zum 31. De­zem­ber  2022 vollstän­dig auf die Strom­er­zeu­gung aus Kern­ener­gie zu ver­zich­ten. Die Un­ter­neh­men RWE und E.on reich­ten da­rauf­hin Kla­ge beim Bun­des­ver­fas­sungs­ge­richt ein, Vat­ten­fall rief das in­ter­na­ti­o­na­le Schieds­ge­richt für In­ves­ti­ti­ons­strei­tig­kei­ten in Wa­shing­ton an. Die Ent­schei­dun­gen in die­sen Fra­gen ste­hen aus.

Wohl wis­send, dass die Strom­er­zeu­gung nur etwa 15 % des Ener­gie­ver­brau­ches in Deutsch­land aus­macht, möch­te ich mich in mei­nen Aus­füh­run­gen aus­schließ­lich auf die Strom­be­reits­tel­lung kon­zen­trie­ren, da ich hier den größ­ten Kor­rektur­be­darf sehe.

Ich möch­te mich mit fol­gen­den Fra­gen be­fas­sen:

•  Sind die ener­gie­po­li­ti­schen Zie­le ver­nünf­tig und er­reich­bar?

•  Be­wirkt die im­ple­men­tier­te Ge­set­zes­la­ge eine den ge­nann­ten An­for­de­run­gen entspre­chen­de Ener­gie­be­reits­tel­lung?

Po­li­tik be­ginnt mit der Be­trach­tung der Re­a­li­tät und setzt sich fort mit der Wahl der Wor­te. Die­se kön­nen die Re­a­li­tät  kor­rekt be­schrei­ben oder auch ver­ber­gen – je nach po­li­ti­scher Ab­sicht. Der Ter­mi­nus Er­neu­er­ba­re Ener­gie ge­hört zur letz­te­ren Ka­te­go­rie. So wie der Be­griff Gen­mais sug­ge­riert, ge­wöhn­li­cher Mais habe kei­ne Gene und der Be­griff CO2-freie Ge­sell­schaft es sei mög­lich ohne die Ab­ga­be von CO2 in die At­mo­sphä­re zu le­ben, ist auch der Be­griff Er­neu­er­ba­re Ener­gie ein Ap­pell an den phy­si­ka­li­schen Anal­pha­be­tis­mus der Ge­sell­schaft – denn dass Ener­gie nicht er­neu­ert son­dern verschie­de­ne Ener­gie­for­men le­dig­lich in­ei­nan­der um­ge­formt wer­den kön­nen, lernt man be­kannt­lich im ers­ten Jahr des Phy­sik­un­ter­rich­tes. Ich ver­mei­de den Be­griff Er­neuer­ba­re Ener­gi­en oder des­sen Ko­se­form "Die Er­neu­er­ba­ren", in­dem ich statt­des­sen von al­ter­na­ti­ven Strom­er­zeu­gungs­for­men spre­che -es sei denn, ich muss ihn zi­tie­ren – etwa im Kür­zel EEG für Er­neu­er­ba­re Ener­gi­en Ge­setz.

Ei­nes der all­ge­gen­wär­ti­gen neu­en po­li­ti­schen Prin­zi­pi­en des 21. Jahr­hun­derts – oder we­nigs­tens sei­ner ers­ten bei­den Jahr­zehn­te – ist die um­fas­sen­de Öko­lo­gi­sie­rung al­ler po­li­ti­schen Dis­zip­li­nen. Ins­be­son­de­re die Ener­gie­po­li­tik in Deutsch­land und der Eu­ro­pä­i­schen Uni­on ist heu­te fak­tisch eine Un­ter­dis­zip­lin der Kli­ma­schutz­po­li­tik. Die wie­der­um be­ruht auf der An­nah­me von der Kli­ma­schäd­lich­keit ei­ner er­höh­ten CO2-Kon­zen­tra­ti­on in der At­mo­sphä­re. Ge­gen die­se An­nah­me meh­ren sich Zwei­fel. Ich ver­wei­se auf das 2012 er­schie­ne­ne Buch „Die Kal­te Son­ne“ von Fritz Vah­ren­holt und Sebastian Lüning [1]. Die Vermutung, eine erhöhte CO2-Konzentration in der Atmosphäre bewirke eine gefährliche Temperaturerhöhung auf der Erde, stützt sich auf Prognose-Modellrechnungen. Eine empirische oder experimentelle Verifikation steht aus.  Für die seit mehr als 10 Jahren stagnierende  Erdtemperatur bei rasant ansteigender CO2-Konzentration haben die Behaupter des CO2-getriebenen Klimawandels keine plausible Erklärung. Bohrkernanalysen aus der Antarktis zeigen zudem, dass bei Klimaveränderungen in der Erdgeschichte in der Regel die CO2-Konzentration in der Atmosphäre der Temperaturveränderung folgte und nicht vorausging – was wenig überraschend ist, weil dies exakt die Veränderungen der Phasenveränderungen im Meer bei sich ändernden Temperaturen abbildet.  Es stimmt allerdings, dass die Mehrzahl der Klimaforscher noch immer der CO2-Erderwärmungsthese anhängt. Nur entscheiden eben über physikalische Gesetzmäßigkeiten und Sachverhalte keine Mehrheiten. Fällt die Kli­ma­prä­mis­se, dann ver­kehrt sich die von Deutschland re­kla­mier­te ener­gie­po­li­ti­sche Vor­rei­ter­rol­le in der Welt in eine Vor­rei­ter­rol­le bei his­to­risch wohl bei­spiel­lo­sen Fehl­al­lo­ka­ti­o­nen, die die kom­men­den Ge­ne­ra­ti­o­nen von ei­ner völ­lig an­de­ren Sei­te als er­war­tet be­las­ten wer­den. 

Aber auch, wenn das CO2 der all­ge­mein be­haup­te­te Kli­ma­kil­ler sein soll­te, er­hebt sich die Fra­ge, ob die er­bring­ba­ren deut­schen oder eu­ro­pä­i­schen Bei­trä­ge zur Emis­si­ons­minde­rung an der Welt­si­tu­a­ti­on et­was än­dern und ob nicht die – in Deutsch­land frei­lich er­folg­reich ta­bu­i­sier­te – Dis­kus­si­on über eine An­pas­sung  an die Kli­ma­verän­de­rung mehr Er­folg ver­spricht als die Dis­kus­si­on um de­ren Ver­mei­dung.

Und schließ­lich: Wenn das CO2-Min­de­rungs­ziel in der Tat dem Kli­ma­schutz die­nen soll­te, er­hebt sich die Fra­ge, in­wie­weit der ener­gie­ge­setz­li­che Rah­men dazu bei­trägt, es zu er­rei­chen. Ord­nungs­po­li­tisch sinn­voll und aus­rei­chend hier­zu ist der eu­ro­päische Em­mis­si­ons­han­del. Je­der da­rü­ber hi­naus­ge­hen­de Ein­griff macht die Sta­tik des Sys­tems über­be­stimmt und führt zu subop­ti­ma­len Re­sul­ta­ten. Hier­zu ver­wei­se ich auf ein­schlä­gi­ge Li­te­ra­tur: Die Kli­ma­po­li­tik Ka­ta­stro­phe von Jo­a­chim Wei­mann [2] und Das grü­ne Pa­ra­do­xon von Hans-Wer­ner Sinn [3]. Mit der dem Kern­ener­gie­aus­stieg ver­wei­gert sich Deutsch­land zu­dem ei­ner CO2-neu­tra­len Strom­er­zeu­gung und de­ren Wei­ter­ent­wick­lung.

1. Das Er­neu­er­ba­re-Ener­gi­en-Ge­setz (EEG) – Gen­esis und Wir­kungs­wei­se

Um der Strom­er­zeu­gung aus Wind, Son­ne, Was­ser und Bi­o­mas­se eine Chan­ce zu ge­ben, hat­te der Bun­des­um­welt­mi­nis­ter  Töp­fer im Jahr 1990 ein Strom­ein­spei­se­ge­setz ent­wor­fen, das per 1. Ja­nu­ar 1991 in Kraft trat und die kon­ven­ti­o­nel­len Ener­gie­versor­ger ver­pflich­te­te, al­ter­na­tiv er­zeug­ten Strom ab­zu­neh­men und pro Ki­lo­watts­tun­de mit 75 – 90 % je­nes Er­lö­ses zu ver­gü­ten, den sie selbst im be­tref­fen­den Ka­len­der­jahr pro Ki­lo­watts­tun­de aus dem Ver­kauf ih­res ei­ge­nen Stro­mes nach ei­nem be­stimm­ten Mess­ver­fah­ren er­zielt hat­ten. 

Die seit 1998 – 2008 am­tie­ren­de Rot-Grü­ne Ko­ali­ti­on un­ter Bun­des­um­welt­mi­nis­ter Trit­tin mach­te aus dem Tür­öff­ner für den Netz­zu­gang eine Geld­druck­ma­schi­ne für Wind-, Bio­gas-, Was­ser­kraft- und So­lar­an­la­gen­be­trei­ber (Ta­bel­le 1). Das Ge­setz er­hielt den Na­men Er­neu­er­ba­re-Ener­gi­en-Ge­setz und ver­sah die Lie­fe­ran­ten von Strom aus al­terna­ti­ven Quel­len mit ei­ner auf zwan­zig Jah­re gel­ten­den Ver­gü­tungs­ga­ran­tie ab dem In­be­trieb­nah­me­zeit­punkt, die sich bei So­lar­strom zu­nächst auf eine DM/kWh be­lief

– zu ei­nem Zeit­punkt, als der Her­stel­lungs­preis ei­ner Ki­lo­watts­tun­de aus kon­ven­tionel­len Quel­len etwa 5 Pfen­ni­ge be­trug.

 

Tab. 1: Das Er­neu­er­ba­re-Ener­gi­en-Gesetz vom 1. Ap­ril 2000

Der Aus­bau­grad mit EEG-pri­vi­le­gier­ten Strom­er­zeu­gern nahm nun ra­sant zu. Gleichzei­tig zeig­te sich die Wir­kung der Vo­la­ti­li­tät von Wind- und So­lar­stromdar­ge­bot: Es kam zu Netz­über­las­tun­gen und es muss­te aus Grün­den der Netz­sta­bi­li­tät Strom ab­ge­wie­sen wer­den. Die Kon­se­quenz war eine Re­gu­lie­rung der hier­aus er­wach­senden Er­trags­schä­den. Die­se ge­schah mit der EEG-No­vel­le von 2009 in der Ägi­de des Bun­des­um­welt­mi­nis­ters Gab­riel und trat in der fol­gen­den Le­gis­la­tur­pe­ri­o­de in Kraft.

Das EEG vom 1. Ja­nu­ar 2009

§ 12: Wird die Ein­spei­sung von EEG-Strom we­gen ei­nes Netz­eng­pas­ses re­du­ziert, sind die von der Maß­nah­me be­trof­fe­nen Bet­rei­be­rin­nen und Be­trei­ber für 95 Pro­zent der ent­gan­ge­nen Ein­nah­men zu ent­schä­di­gen. Über­stei­gen die ent­gan­ge­nen Ein­nah­men in ei­nem Jahr ein Pro­zent der Jah­res­ein­nah­men, sind die Bet­rei­be­rin­nen und Be­trei­ber zu 100 Pro­zent zu ent­schä­di­gen.

Bet­rei­be­rin­nen und Be­trei­ber von EE-An­la­gen sol­len künf­tig spä­tes­tens am Vor­tag vom Netz­be­trei­ber über den er­war­te­ten Zeit­punkt, den Um­fang und die Dau­er des Ein¬spei­se­ma­na­ge­ments (Anm.: ge­meint ist z.B. das Stop­pen der Ein­spei­sung in sein Netz ) in­for­miert wer­den.

Da­mit war die völ­li­ge Ri­si­ko­be­frei­ung der EEG-Pri­vi­le­gier­ten er­reicht. Wind- und Son­nen­strom wur­den von nun an auch dann be­zahlt, wenn sie gar nicht ins Netz ein­ge­speist wur­den.

Die­ses Ge­setz war der Ab­schied von den Prin­zi­pi­en der Markt­wirt­schaft in Ener­giepo­li­tik:

•  Der Staat tritt als Vor­mund der Wirt­schaft  auf. Er über­lässt die Wahl ge­eig­ne­ter  Tech­no­lo­gi­en nicht der Wirt­schaft und der tech­ni­schen Ent­wick­lung son­dern trifft selbst eine Vor­aus­wahl. Für eine breit an­ge­leg­te, au­ßer­halb der staat­li­chen Pri­vile­gie­rungs­sche­ma­ta  an­ge­leg­te For­schung und Ent­wick­lung gibt es kei­nen An­reiz mehr, wir er­le­ben eine Eng­füh­rung der Ener­gie­for­schung. In der DDR war dies als das Rin­der­of­fenstall-Prob­lem aus der Rin­der­zucht be­kannt.

• Die we­sent­li­che markt­wirt­schaft­li­che Ka­te­go­rie der Nach­fra­ge  als be­gren­zende Grö­ße für das An­ge­bot und da­mit die Pro­duk­ti­on ist dau­er­haft sus­pen­diert. Nicht die Nach­fra­ge nach Grün­strom be­stimmt die Pro­duk­ti­on von Wind­rä­dern oder So­lar­ele­men­ten, son­dern die vom tat­säch­li­chen Be­darf ent­kop­pel­te staat­liche Ab­nah­me­ga­ran­tie. Als Kon­se­quenz ent­steht ein Zau­ber­lehr­ling-Ef­fekt: Das Grün­stromdar­ge­bot wächst über alle Gren­zen und muss in zu­neh­men­dem Maße

–  nach­dem es dem Er­zeu­ger ver­gü­tet wur­de – vom Netz ab­ge­wie­sen oder un­ter dem Her­stel­lungs­preis ver­kauft wer­den. In der DDR ist als das Brot­ver­füt­te­rungs­prob­lem in der Schwei­ne­zucht be­kannt.

• Das un­ter­neh­me­ri­sche Ri­si­ko des In­ves­tors ist sus­pen­diert. Es wird auf die Stromkun­den ab­ge­wälzt. Er al­lein über­nimmt die vollstän­di­ge Haf­tung für Fehl­al­lo­ka­tionen von In­ves­ti­ti­ons­ka­pi­tal.

• Das Ge­setz be­straft die öko­lo­gisch  er­wünsch­te spar­sa­me Ver­wen­dung des Stro­mes durch Preis­an­stie­ge: Schrän­ken die Strom­kun­den ih­ren Ver­brauch um 50 Pro­zent ein so müs­sen die EVUs die Um­la­ge auf die ver­brauch­ten 50 % ver­dop­peln.

• Das Ge­setz macht die Er­zeu­ger wett­be­werbs­re­sis­tent und be­raubt da­mit die              techno­lo­gi­sche Ent­wick­lung ih­res wich­tigs­ten An­triebs. Es ini­ti­iert mas­sen­wei­se In­vesti­ti­o­nen in Be­kann­tes.

Das Ge­setz ist fak­tisch kaum kas­sier­bar.  Es be­grün­det markt­frem­de Be­sitz­stän­de.               

Die Ei­gen­tü­mer wer­den ihre Ge­win­ne  zur Ver­tei­di­gung ih­rer Ein­nah­me­quel­le ein­set­zen.  Erst die so­zi­a­len Fol­gen der mas­si­ven Um­ver­tei­lung von un­ten nach oben durch die­ses Ge­setz wer­den Än­de­run­gen er­mög­li­chen.

2. Die Kos­ten des EEG (all­ge­mei­ner Teil)

Um die Kos­ten zu er­mit­teln, die das EEG dem Strom­kun­den auf­er­legt, habe ich die jährli­chen Ver­öf­fent­li­chun­gen der Netz­be­trei­ber he­ran­ge­zo­gen [4]. Ent­las­tend wur­den die ver­mie­de­nen Netz­ent­gel­te, die dann wirk­sam wur­den, wenn der Strom vom Er­zeu­ger zum Ver­brau­cher nicht das Über­tra­gungs­netz pas­sie­ren muss, von den Ge­samt­kos­ten ab­ge­zo­gen. So­dann wur­de an­ge­nom­men, dass die in je­dem Jahr neu hin­zu­ge­kom­me­ne Er­zeu­gungs­leis­tung von die­sem Jahr an 20 Jah­re lang an­fällt d.h. die neu­en An­la­gen eine Nut­zungs­dau­er von 20 Jah­ren ha­ben, also die EEG-Pri­vi­le­gie­rung voll aus­nut­zen.

 

Abb. 1: Be­reits fäl­li­ge EEG-Kos­ten, Sum­me: etwa 400 Mil­li­ar­den Euro (Zu­bau 2012 ge­schätzt)

Quel­le: http://www.eeg-kwk.net/de/ EEG_Jahresabrechnungen.htm

Als Re­sul­tat er­gibt sich (bei Schät­zung ei­nes Zu­wach­ses von etwa 3,5 Mrd. in 2012 – für das die Zah­len noch nicht vor­lie­gen) eine in­zwi­schen durch das Ge­setz ga­ran­tier­te Ge­samt­ver­bind­lich­keit von 400 Mil­li­ar­den Euro. Da­von wur­den in den Jah­ren bis 2013 etwa 90 Mil­li­ar­den EUR ab­ge­gol­ten, für die Jah­re bis 2032 wer­den wei­te­re 310 Mil­li­arden EUR fäl­lig. Haf­tungs­leis­tun­gen für un­ter­blie­be­ne Ab­nah­men – dazu spä­ter –, Re­fi­nan­zie­rungs­leis­tun­gen für den Lei­tungs­bau und stei­gen­de Kos­ten für Re­ge­le­nergie­ab­fra­gen oder Im­por­te da­bei nicht ent­hal­ten, sie sind, so­bald sie an­fal­len, hin­zuzu­ad­die­ren.

In di­ver­sen Stu­di­en – wie z.B. auch eine neu­e­re des DIW [5] – wird in der Re­gel da­rauf ver­wie­sen, dass al­ler­dings beim Ver­gleich der Kos­ten des EEG mit kon­ven­ti­o­nel­len Strom­er­zeu­gungs­tech­no­lo­gi­en de­ren ex­ter­ne Kos­ten zu be­rück­sich­ti­gen sei­en, da­run­ter fik­ti­ve Ver­si­che­rungs­kos­ten für Atom­un­fäl­le u.ä. Die­se wer­den dann aus will­kür­li­chen An­ga­ben zu­sam­men­ge­tra­gen und ad­diert. Bei al­ter­na­ti­ven Tech­no­lo­gi­en un­ter­blei­be­nin der Re­gel der­ar­ti­ge Über­le­gun­gen. Die Kos­ten der man­geln­den Ver­füg­bar­keit des Grün­stroms blei­ben ge­ne­rell un­be­rück­sich­tigt. Ich hal­te der­ar­ti­ge Vor­ge­hens­wei­sen für un­se­ri­ös.

 

Abb. 2: Kos­ten für 100 % al­ter­na­ti­ve Strom­er­zeu­gung bis 2050: 1,42 Bil­li­o­nen Euro

Quel­le: Sach­verstän­di­gen­rat für Umwelt­fra­gen, Son­der­gut­a­chen Jan. 2011 Wege zu 100 % er­neu­er­ba­rer Stro­merzeu­gung 

Die ge­nann­te Stu­die will be­wei­sen, dass der aus­schließ­li­che Ein­satz von al­ter­na­ti­ven Strom­er­zeu­gungs­for­men wirt­schaft­li­cher ist als Strom aus nuk­le­a­ren und fos­si­len Ener­gie­quel­len. Hier­für exis­tiert aber schon eine Aus­sa­ge des Sach­verstän­di­gen­ra­tes für Um­welt­fra­gen [6].

Die viel­fach kol­por­tier­te Aus­sa­ge von Bun­des­mi­nis­ter Pe­ter Alt­maier, wo­nach die Kos­ten der Ener­gie­wen­de bei etwa ei­ner Bil­li­on EUR lie­gen, wird also selbst dann von der Aus­sa­ge des Sach­verstän­di­gen­ra­tes noch über­trof­fen, wenn man da­von aus­geht, dass es bei dem avi­sier­ten Ziel der Bun­des­re­gie­rung bleibt, wo­nach nicht die ge­sam­te Strom­er­zeu­gung, son­dern nur 80 % bis 2050 aus al­ter­na­ti­ven Quel­len kom­men sol­len.

3. Die Kos­ten des EEG (spe­zi­el­ler  Teil)

Die all­ge­mein dar­ge­stell­ten Kos­ten des EEG-Stroms sa­gen je­doch noch nichts da­rü­ber aus, wie hoch kon­kret die Mehr­kos­ten für den Ver­brau­cher durch das EEG wer­den und auf wel­cher Wei­se sich die­se er­ge­ben. Dies soll nun an ei­ner Fall­stu­die er­läu­tert wer­den. He­ran­ge­zo­gen wird hier­zu die Ein­spei­se­gang­li­nie des EEG-Stroms im Mo­nat De­zem­ber 2012 (Ab­bil­dung 3) nebst Preis­ent­wick­lung (Ab­bil­dung 4).

 

Abb. 3: Ge­samt­ein­spei­sung von Wind- und So­lar­strom für De­zem­ber 2012 in das deut­sche Netz

 

Abb. 4: Ge­samt­um­satz: etwa 780 GWh (Ta­ges­be­darf in Deutsch­land etwa 1.600 GWh)

Quel­le: EEX Leip­zig Eu­ro­pe­an Energy Ex­change am Mitt­woch 26.12.2012

Am 26. De­zem­ber, dem 2. Weih­nachts­fei­er­tag  gab es eine gute Wind­strom­aus­beu­te, aber  fei­er­tags­be­dingt nur eine ge­rin­ge Ab­nah­me des Stroms. Die Ge­samt­bi­lanz er­gibt sich wie folgt:

• Kos­ten durch Ein­spei­se­ver­gü­tung an Er­zeu­ger (nur Wind­strom ge­rech­net):

• durch­schnitt­li­che Ver­gü­tung: etwa: 85.000 EUR/GWh

• Ver­lust aus Ein­spei­se­ver­gü­tung: etwa: 66 Mio. EUR

• Er­lö­se aus dem Strom­ver­kauf an den Im­por­teur:

•                  ver­kauf­te Ener­gie­men­ge: etwa: 780 GWh

•                  durch­schnitt­li­cher Ver­kaufs­preis: etwa: – 45.000EUR/GWh

•                  Ver­lust aus ne­ga­ti­ven Strom­prei­sen: etwa: 34 Mio. EUR

•                  Ver­lus­te für den Strom­kun­den an ei­nem Tag: etwa:        

100 Mio. EUR

Nun ist die­ser Ver­lust am zwei­ten Weih­nachts­fei­er­tag nicht sym­pto­ma­tisch für das ge­sam­te Jahr. Aber auch die Jah­res­rech­nung liegt vor und die be­sagt (Ta­bel­le 2):

 

Tab. 2: Ge­samt­ver­lus­te aus Strom­ex­por­ten im Jahr 2012

Quel­le: Sächs. Zei­tung v. 3. Ap­ril 2013

Dies ist ein Ver­lust von etwa 23 Mil­li­o­nen Euro pro Tag.

4. Zur Grund­last­fä­hig­keit von Son­nen- und Wind­strom

Aber leis­tet das EEG bei al­le­dem we­nigs­tens, was von ihm er­war­tet wird?                   Es soll­te die Sub­sti­tu­ti­on von un­er­wünsch­ten Strom­quel­len durch Grün­strom er­mög­li­chen.

Tut es das?

Die Ab­bil­dung 5 zeigt die schon aus Ab­bil­dung 4 be­kann­te Ein­spei­sungs­gang­li­nie in Deutsch­land für Wind (grü­ne Flä­che) und  So­lar­strom (klei­ne gel­be Spit­zen) im Mo­nat De­zem­ber 2012, ei­nem re­la­tiv win­drei­chen Mo­nat. Da­rü­ber ist eine Kur­ve mit der drei­fa­chen Or­di­na­ten­grö­ße ab­ge­tra­gen. Sie soll die (hy­po­the­ti­sche) Aus­stat­tung Deutsch­lands mit der drei­fa­chen Wind­verstom­ungs­ka­pa­zi­tät ge­gen­über dem Sta­tus quo mar­kie­ren. Das Re­sul­tat zeigt, dass dies zwar über gro­ße Ab­schnit­te die ver­minder­te Last­ab­ga­ben oder Ab­schal­tun­gen bei den grund­last­fä­hi­gen Strom­er­zeu­gern (Flä­che tür­kis) und schließ­lich Netz­ent­las­tun­gen zu ne­ga­ti­ven Strom­prei­sen (Flä­che gelb) er­zwingt, aber gleich­wohl dem Netz noch im­mer auch Un­ter­ver­sor­gungs­zei­ten (vi­o­let­te Flä­chen) be­schert, in de­nen die ge­sam­te oder na­he­zu die ge­sam­te Grund­last auf kon­ven­ti­o­nel­lem Weg be­schafft wer­den muss.

Abb. 5: Wind 12/2012 (real und bei hy­po­the­ti­scher drei­fa­cher in­stal­lier­ter Wind­strom­leis­tung)

Die Offs­ho­re-Wind­ener­gie könn­te hier die Ret­tung brin­gen.  Hier­zu gab es ehr­geizige Aus­bau­zie­le: bis 2013 soll­ten 3.000 MW Ma­xi­mal­leis­tung in­stal­liert oder im Bau sein. Zu er­war­ten sind beim ge­gen­wär­ti­gen Sach­stand bis Ende 2013 ma­xi­mal 305 MW, etwa 10 % des Plan­ziels.

Fol­ge: Enor­me Ein­nah­me­ein­bu­ßen der In­ves­to­ren, ein hef­ti­ger Haf­tungs­streit, da ei­ner­seits der the­o­re­tisch lie­fer­ba­re Strom man­gels Um­rich­ter-Platt­for­men und Zu­lei­tun­gen nicht ins Netz ab­ge­ge­ben wer­den kann und mit der bal­di­gen Fer­tig­stel­lung der be­nö­tig­ten Ein­hei­ten nicht kurz­fris­tig zu rech­nen ist, jedoch an­de­rer­seits der Ka­pi­tal­dienst für die In­ves­ti­ti­on zu er­brin­gen ist. Am 29. 8. 2012 be­schloss das Bun­des­ka­bi­nett ge­gen die Stim­me von Bun­des­ver­brau­cher­schutz-mi­nis­te­rin Ilse Aig­ner, die Haf­tung für die ent­gan­ge­ne Ein­spei­se­ver­gü­tung ab dem 11. Tag der Nicht­ein­spei­sung den Netz­be­trei­bern auf­zu­er­le­gen, die die­se dann auf die Strom­kun­den ab­wäl­zen kön­nen.

Aber wenn die Offs­ho­re-Win­dan­la­gen  der­mal­einst  in­stal­liert und zur Zu­frie­den­heit funk­ti­o­nie­ren: Wer­den sie dann den Grün­strom  zum prak­ti­kab­len Sub­sti­tut der kon­ven­ti­o­nel­len Ener­gie­er­zeu­gung ma­chen? Aber­mals Nein. Weil die Strom­aus­beu­te pro­por­ti­o­nal zur drit­ten Po­tenz der Wind­ge­schwin­dig­keit wächst und fällt, os­zil­liert der Offs­ho­re-Strom noch in viel kür­ze­ren Pe­ri­o­den von null auf Ma­xi­mal­leis­tung, so dass sich ein na­gel­brettar­ti­ges Aus­beu­te­pro­fil er­gibt (Ab­bil­dung 6).

Last­gang­li­nie beim Drei­fa­chen der in­stal­lier­ten Wind­strom­leis­tung Zu­schuss­be­darf zur De­ckung der Grund­last durch kon­ven­ti­o­nel­le Er­zeu­ger Un­ter­be­las­tungs­zei­ten der kon­ven­ti­o­nel­len Kraft­wer­ke Über­last­strom (Ver­kauf zu ne­ga­ti­ven Prei­sen)

 

Abb. 6: Offs­ho­re-Wind: wirk­li­che Gang­li­nie ver­sus ge­mel­de­te Leis­tung Quel­le: http://de.scribd.com/doc/109406767/Das-Offs­ho­re-Cha­os,Ten­net,Dar­stel­lung: Rolf Schus­ter

Da­ten­quel­le: Trans­po­wer / TEn­neT:Tat­säch­li­che ein­ge­speiss­te Leis­tung der Offs­ho­re-WE-An­la­gen

Dena-Chef Koh­ler sah sich des­halb be­züg­lich Offs­ho­re-Wind­strom  zu der Aus­sa­ge ver­an­lasst, dass von der ho­hen in­stal­lier­ten Leis­tung sei­en ge­ra­de ein­mal sechs Pro­zent wirk­lich ver­läss­lich ver­füg­bar sei­en.

Die Aus­sa­ge "Grund­last ist Den­ken von ges­tern" scheint da­her we­ni­ger mit be­last­ba­ren Prog­no­sen als mit Pfei­fen im Wal­de ge­mein­sam zu ha­ben. Dies gilt nicht ganz für jene Stim­men, die sa­gen, auch auf das Spei­chern von Strom käme es hin­fort nicht an. Als Aus­druck der Zu­ver­sicht sind sie frei­lich ver­fehlt. Die Aus­sa­gen sind rich­tig, wenn sie mei­nen, dass die zu spei­chern­den Ener­gie­vo­lu­mi­na – woll­te man die Wind­spit­zen spei­chern und in den Wind­sen­ken ein­spei­sen – so ge­wal­tig sind, dass sie für ef­fek­ti­ve Spei­cher­ar­ten wie Pump­spei­cher­wer­ke oder adi­a­ba­te Druck­luft­spei­cher ab­ge­se­hen von den ge­o­lo­gi­schen und ge­o­gra­phi­schen Gren­zen im ers­te­ren Fall nicht dar­stell­ba­re In­ves­ti­ti­ons­sum­men er­for­der­ten, an­de­re Spei­cher­prin­zi­pi­en aber im sta­tus nas­cen­ti ver­wei­len oder im Kos­ten-Wir­kungs­grad­ver­hält­nis nicht viel bes­ser sind, als den Strom weg­zu­wer­fen.

Der Strom­ver­brauch in Deutsch­land liegt bei etwa 1,6 TWh pro Tag. Bei aus­schließ­lich voll ge­füll­ten obe­ren Be­cken liegt die ma­xi­ma­le Ab­ga­be­leis­tung un­se­rer Pum­peicher­wer­ke über ganz Deutsch­land bei etwa 0,04 TWh. Das sind etwa 35 Mi­nu­ten Black­out-Re­ser­ve. Das Vier­zig­fa­che an Pump­spei­cher­ka­pa­zi­tät wäre etwa nö­tig, um ei­nen Ta­ges­ener­gie­be­darf bei Aus­fall des Grün­stroms zu kom­pen­sie­ren. Dies ist im groß­tech­ni­schen Maß­stab bis auf Wei­te­res nicht mög­lich. Man wird also in die­sem Fall ent­we­der auf Im­por­te zu­rück­grei­fen oder dras­ti­sche Ein­grif­fe bei den Strom­kun­den vor­neh­men müs­sen. Ers­te­res kann nur ge­lin­gen, wenn un­se­re eu­ro­pä­i­schen Nach­barn dann un­se­ren Be­darf zu de­cken imstan­de sind – was nur dann zu­ver­läs­sig mög­lich ist, wenn sie – an­ders als Deutsch­land – ihre grund­last­fä­hi­gen Strom­er­zeu­ger nicht ab­ge­schal­tet ha­ben und ge­nü­gend Über­schüs­se pro­du­zie­ren. Letz­te­res  aber ist nur un­ter In­kauf­nah­me grö­ße­rer wirt­schaft­li­cher Schä­den mit ent­spre­chen­den Haf­tun­gen denk­bar. Will man bei­des ver­mei­den, so er­for­dert dies die Vor­hal­tung von Strom­er­zeugungs­ka­pa­zi­tä­ten aus kon­ven­ti­o­nel­len Ener­gie­quel­len – das heißt:  Aus Kern­kraft oder fos­si­len Ener­gie­trä­gern. Da das Auf­kom­men an Wind-oder So­lar­strom über Stun­den und Tage ganz aus­fal­len kann, ge­nügt zur Vor­hal­tung die­ser Re­ser­ve­ka­pa­zi­tät auch nicht ein klei­ner Teil der jet­zi­gen Grund­laster­zeu­gungs­ka­pa­zi­tät, son­dern es muss die Fä­hig­keit zur Be­reits­tel­lung der vol­len Grund­last ste­tig im stand-by-mo­dus ge­hal­ten wer­den. Wenn für die­sen Zweck kei­ne Kern­kraft­wer­ke mehr zur Ver­fü­gung ste­hen, müs­sen die­se Auf­ga­be an­de­re fos­sil ge­feu­er­te Kraft­wer­ke (Gas oder Koh­le) über­neh­men, die zu die­sem Zweck er­for­der­li­chen­falls neu zu er­rich­ten sind.

Mit stei­gen­dem Ein­spei­se­an­teil an EEG-Strom steigt je­doch nicht nur das Vo­lu­men der EEG-Ver­gü­tun­gen ins­ge­samt an und er­höht den Strom­preis. Mit der rück­läu­fi­gen Nach­fra­ge nach Strom aus fos­si­len Quel­len bei der un­be­ding­ten Not­wen­dig­keit seiner Vor­hal­tung müs­sen die fos­si­len Kraft­wer­ke ent­we­der man­gels Wirts­chaft­lich­keit schlie­ßen oder ihre Prei­se um die stand-by-Be­triebs­kos­ten des ge­sam­ten Jah­res – ver¬teilt auf die im be­tref­fen­den Jahr an­ge­ge­be­ne Strom­men­ge er­hö­hen – und dies gilt für den ge­sam­ten grund­lastre­le­van­ten Kraft­werks­park. Will man dies ver­mei­den, so bleibt nur des­sen Vers­taat­li­chung, wo­mit die Mehr­kos­ten statt auf den Strom­kun­den auf den Steu­er­zah­ler ent­fie­len.

5. Zu­sam­men­fas­sung

Sind die ener­gie­po­li­ti­schen Zie­le ver­nünf­tig und er­reich­bar?

Die ener­gie­po­li­ti­schen Zie­le sind ver­nünf­tig. Si­cher­heit und Wirts­chaft­lich­keit sind un­ver­zicht­ba­re An­for­de­run­gen an jede Ener­gie­ver­sor­gung. Eben­so muss eine Ener­giever­sor­gung auch um­welt­scho­nend sein. Dies gilt ins­be­son­de­re für die Scho­nung der na­tür­li­chen Res­sour­cen, denn eine Ener­gie­ver­sor­gung, die Res­sour­cen auf­braucht, die sich nicht in der glei­chen Zeit re­ge­ne­rie­ren, ist stets li­mi­tiert. Da­her ist es nö­tig, hier­zu Al­ter­na­ti­ven zu er­for­schen und zu im­ple­men­tie­ren. Nur ent­spre­chen die da­für vor­ge¬ge­be­nen Zeit­ho­ri­zon­te will­kür­li­chen An­nah­men, die kei­ner Mach­bar­keitsüber­prü­fung stand­hal­ten. Der auf­ge­bau­te Zeit­druck ist un­ver­nünf­tig und führt zu un­aus­ge­reif­ten Ak­ti­vi­tä­ten. Über den Res­sour­cen­schutz hi­naus ist je­doch der Be­griff um­welt­scho­nend kon­kre­ti­sie­rungs­be­dürf­tig. Hier ist die prak­ti­sche Po­li­tik an will­kür­li­chen Pa­ra­me­tern aus­ge­rich­tet. Der Atom­aus­stieg und die Kli­ma­schutz­ab­sicht fal­len nicht zwin­gend in die Rub­rik um­welt­scho­nend – wohl aber die An­for­de­run­gen der Ener­gie­öko­no­mie.

Be­wirkt die im­ple­men­tier­te Ge­set­zes­la­ge eine den ge­nann­ten An­for­de­run­gen ent­spre­chen­de Ener­gie­be­reits­tel­lung?

Die im­ple­men­tier­te Ge­set­zes­la­ge steht der Er­fül­lung der ener­gie­po­li­ti­schen Zie­le im Weg und macht das mit­tel­fris­ti­ge Schei­tern der deut­schen Ener­gie­po­li­tik un­aus­weich­lich.

Sie be­wirkt eine un­wirt­schaft­li­che, un­si­che­re und öko­lo­gisch un­ver­tret­ba­re Vers­chwendung von Res­sour­cen.

• Sie ori­en­tiert sich nicht an zwei­fels­frei­en um­welt­po­li­ti­schen Zie­len (wie            Ressour­cen­schutz, Um­welt­öko­no­mie, Wir­kungs­grad­ver­bes­se­rung, Mi­ni­mie­rung des Ener­gie­ein­sat­zes), son­dern an ide­o­lo­gisch vor­ge­ge­be­nen und da­mit frag­wür­di­gen um­welt­po­li­ti­schen  Zie­len wie Kli­ma­schutz und Atom­aus­stieg.

• Sie hat den Markt eli­mi­niert und ist po­li­tisch au­ßer Kon­trol­le.  

•  Sie un­ter­bin­det die freie Er­for­schung nach­hal­ti­ger Strom­be­reits­tel­lungs­lö­sungen, in­dem sie eine Vo­raus­le­se vor­nimmt und mit ide­o­lo­gisch be­grün­de­ten Ta­bus (Nu¬kle­a­re Quel­len) und Prä­fe­ren­zen (Wind und So­lar) die Va­ri­a­ti­ons­brei­te ein­schränkt.

• Sie führt zu ei­ner mas­si­ven Kos­ten­stei­ge­rung des Strom­kon­sums ohne zum Stromspa­ren an­zu­re­gen.

• Sie ver­sucht grund­last­fä­hi­ge Vers­trom­ungs­tech­no­lo­gi­en durch nicht grund­last­fähige zu substi­tu­ie­ren, was miss­lin­gen wird und

• den Be­trieb zwei­er na­he­zu kom­plet­ten Strom­er­zeu­gungs­pa­ral­lel­struk­tu­ren erzwingt,

• die Kos­ten den aus der  Re­ser­ve­hal­tung von Grund­last­fä­hig­keit stän­dig er­höht,

• sie er­for­dert ein Netz­re­gi­me, das Deutsch­lands Netz in­kom­pa­ti­bel und zu ei­nem Fremd­kör­per im eu­ro­pä­i­schen Ver­bund macht.

• Sie er­zwingt eine so­zi­al un­er­träg­li­che Um­ver­tei­lung von Mit­teln zu Las­ten                   der all­ge­mei­nen Strom­kun­den und zu Guns­ten der Al­ter­na­tiv­an­la­gen­be­sit­zer

• Sie wird die Wett­be­werbs­fä­hig­keit Deutsch­lands we­gen der durch sie  ent­ste­henden sin­gu­lär ho­hen Ener­gie­prei­se und der ge­stei­ger­ten Ab­hän­gig­keit vom Aus­land mas­siv be­ein­tächti­gen

Gibt es Lö­sun­gen?

Die gibt es si­cher. Aber für ener­gie­po­li­tisch ver­nünf­ti­ge Ent­schei­dun­gen gibt es lei­der in Deutsch­land bis auf Wei­te­res kei­ne de­mo­kra­ti­schen Mehr­hei­ten. Ein übermäch­ti­ger me­di­al aus­ge­üb­ter Kon­for­mi­täts­druck hat die Ener­gie­de­bat­te in von ei­ner wis­sen­schaft­li­chen De­bat­te in eine mo­ra­li­sie­ren­de De­bat­te über gut und böse ver­wan­delt. Die­ser Zu­stand ist durch eine von öf­fent­li­cher Zu­stim­mung ab­hän­gi­ge de­mo­kra­tisch ge­wähl­te po­li­ti­sche Füh­rung kaum überwindbar, weil schon der Versuch, dies zu tun, im gegenwärtigen Meinungsklima mit hoher Wahrscheinlichkeit für jede politische Kraft, die dies wagt, den Entzug die­ses Füh­rungs­auf­tra­ges nach sich zieht. Wirt­schaft und Wis­sen­schaft scheu­en den Auf­wand des Strei­tes und ar­ran­gie­ren sich mit dem Sta­tus quo. Trotz mög­li­cher par­tei­über­grei­fen­der Ein­sicht wird auch die ei­gent­lich not­wen­di­ge Au­ßer­kraft­set­zung des EEG wird nicht ge­lin­gen. Statt­des­sen wird man mehr oder we­ni­ger um­ständ­li­che Scha­den­sbe­gren­zun­gen ver­su­chen. Wei­ter­ge­hen­de Ein­grif­fe wer­den an der Kraft zur Be­sitz­stands­ver­tei­di­gung der EEG-Pri­vi­le­gier­ten schei­tern.  Über wirk­li­che Aus­we­ge aus dem Di­lem­ma der Ener­gie­po­li­tik wird man erst re­den kön­nen, wenn die ge­genwär­tig ge­pfleg­ten Il­lu­si­o­nen begraben und die damit verbundene Umverteilung zu einem politischen Ärgernis geworden sind.

6. Quel­len

[1]              Vah­ren­holt, F.; Lün­ing, S.: Die kal­te Son­ne

[2]              Wei­mann, J.: Die Kli­ma­po­li­tik­ka­ta­stro­phe – Deutsch­land im Dun­kel der Ener­gie­spar­lam­pe

[3]              Sinn, H. W.: Das grü­ne Pa­ra­do­xon – Plä­doy­er für eine il­lu­si­ons­freie Kli­ma­po­li­tik

[4]              http://www.eeg-kwk.net/de/EEG_Jahresabrechnungen.htm

[5]              von Hirsch­hau­sen, C.; Kem­fert, C.; Kunz, F.; Men­de­le­vitch, R.: Stu­die: Eu­ro­pä­i­sche Stro­mer¬zeu­gung nach 2020: Bei­trag er­neu­er­ba­rer Ener­gi­en nicht un­ter­schät­zen. Wo­chen­be­richt des Deut­schen In­sti­tuts für Wirt­schafts­for­schung (DIW), Nr. 29.2013, 17. Juli 2013

[6]              Sach­verstän­di­gen­rat für Um­welt­fra­gen: Wege zu 100 % er­neu­er­ba­rer Strom­er­zeu­gung. Son­der¬gut­ach­ten, Jan. 2011

[7]              Keil, G.: Das Offs­ho­re-Cha­os. http://de.scribd.com/doc/109406767/Das-Offsho­re-Cha­os

Hinweis: Der Vortrag kann als pdf heruntergeladen werden. Diese Version weicht von der pdf Version geringfügig ab, denn die hier gezeigte

1. ist die aktuellere 

2. entspricht der gesprochenen Version

Mit Dank an Herrn A. Vaatz für die Korrekturen und an Leser Dr. E. Franz für den Hinweis auf diese Rede.

Related Files




Kampf dem Klimawandel durch das Töten von Adlern!

Wenn das sehr weit hergeholt klingt, dann betrachte man die Mitteilung, die der Fish and Wildlife Service der USA am 27. September veröffentlicht hat. Darin wird um öffentliche Kommentare gebeten zu einem Antrag, dem zufolge es einem Windprojekt erlaubt sein soll, während eines Zeitraumes von fünf Jahren fünf Steinadler zu töten, trotz des strengen Schutzes unter dem Bald and Golden Eagle Protection Act.

Die Genehmigung wird beantragt für das Windprojekt Shiloh IV in Solano County, Kalifornien. Falls sie durchkommt, würde man formell einen legalen Doppelstandard schaffen, der bereits hinsichtlich des Naturschutzes in Amerika besteht.

Windprojekte verletzen den Bald and Golden Eagle Protection Act und den Migratory Bird Treaty Act [ein Gesetz zum Schutz von Zugvögeln] routinemäßig, aber kein einziger Windpark war bislang Gegen­stand einer juristischen Verfolgung. Dabei werden Unternehmen der Öl- und Gasindustrie sowie andere Bereiche regelmäßig der Verletzung eben dieser Gesetze angeklagt.

Die illegalen Vogeltötungen bleiben nicht ohne Folgen. Am 11. September haben einige der besten Biologen bei Fish and Wildlife eine Studie veröffentlicht, der zufolge im Jahr 2011 24 Adler durch Windturbinen getötet worden waren. Im Jahr 2007 waren es zwei. Insgesamt wurden seit 1997 85 Adler getötet. Joel Pagel, der Leitautor der Studie, sagte mir vor Kurzem, dass diese Zahl „ein absolutes Minimum“ sei. Unter den Kadavern: sechs Weißkopfadler.

Die Studie von Mr. Pagels wurde veröffentlicht nur fünf Monate, nachdem Fish and Wildlife einen Bericht erstellt hatte, in dem es heißt: „Es gibt keine Schutzmaßnahmen, die wissenschaftlich belegt haben, dass sie die Sterberaten durch Rotorblätter bei Windprojekten reduziert worden seien“. Errichtet man also mehr Windturbinen, tötet man auch mehr Adler.

Einer Studie im Wildlife Society Bulletin vom März diesen Jahres zufolge töten Windturbinen insgesamt 573.000 Vögel pro Jahr einschließlich 83.000 Greifvögel. Und das, obwohl der Effekt der Reduktion des globalen Kohlendioxids durch Windkraft so gering ist, dass er nicht signifikant ins Gewicht fällt. Einfache Mathematik reicht zum Beweis aus.

Die American Wind Energy Association behauptet, dass die heimischen CO2-Emissionen im Jahr 2012 durch die Erzeugung von Windenergie um 80 Millionen Tonnen reduziert werden konnten. Im vorigen Jahr lagen die globalen Gesamt-Emissionen dieses Gases bei 34,5 Milliarden Tonnen. Folglich haben die 60.000 Megawatt der Winderzeugungs-Kapazität in den USA die globalen CO2-Emissionen um zwei Zehntel eines Prozentes reduziert. Um eine Reduktion der globalen CO2-Emissionen um 1% zu erreichen, müssten die USA mindestens 120.000 Turbinen zusätzlich installieren (unter der Voraussetzung, dass jede Turbine eine Kapazität von zwei Megawatt hat).

Im vorigen Jahr haben alle Windturbinen des Planeten ein Energie-Äquivalent von etwa 2,4 Millionen Barrel Öl pro Tag erzeugt. Aber während des vergangenen Jahrzehnts hat der Kohleverbrauch jährlich um ein Äquivalent von 2,6 Millionen Barrel Öl pro Tag zugenommen. Um auch nur ansatzweise Anschluss an den stark zunehmenden Kohleverbrauch zu halten, müssten die Stromerzeuger die gesamte globale Flotte von Windturbinen – etwa 285.000 Megawatt Kapazität oder grob geschätzt 142.000 Turbinen pro Jahr – jedes Jahr verdoppeln.

Dabei gibt es jetzt zwei Skandale. Erstens, Windturbinen töten gesetzlich geschützt Adler im Namen der Verlangsamung des Klimawandels, aber wie stark die Reduktionen des CO2-Ausstoßes dadurch auch immer sind – sie sind nicht mehr als der Pups eines Babys in einem Hurrikan.

Zweitens, die Windenergie-Industrie setzt sich massiv dafür ein, Steuervorteile bei der Energieerzeugung auszuweiten – die 2,2 Cent pro Kilowattstunde, die den Wahnsinn der Überschwemmung mit Windturbinen während der letzten paar Jahre so befeuert hat. Im vorigen Jahr wurde die Subvention für ein Jahr verlängert, was den Steuerzahler 12 Milliarden Dollar gekostet hat. Eine weitere Verlängerung um ein Jahr wird noch weitere zusätzliche Kosten von 6,1 Milliarden Dollar verursachen, jedenfalls einer vor Kurzem bekannt gewordenen Schätzung des Joint Tax Committees des Kongresses zufolge.

Es ist schlimm genug, dass diese so genannte grüne Industrie wünscht, weiterhin ungestraft Adler töten zu dürfen. Die Steuerzahler sollten dieses Schlachten aber nicht auch noch subventionieren müssen

Mr. Bryce ist ein leitendes Mitglied beim Manhattan Institute.

Link: http://hockeyschtick.blogspot.de/2013/10/wsj-op-ed-we-have-to-kill-eagles-with.html

Übersetzt von Chris Frey EIKE




Ein weiterer Grund des Scheiterns der IPCC-Vorhersagen (Projektionen):…

Bild rechts: Korruption im Prozess aus ehrenwerten Gründen

Die Verwendung von Zirkelschlüssen ist eine Standardprozedur des IPCC. So nimmt es zum Beispiel an, dass eine CO2-Zunahme Ursache für eine Temperaturzunahme ist. Sie können ein Modell mit dieser Annahme erzeugen, und wenn das Modell-Output eine Temperaturzunahme mit einer CO2-Zunahme zeigt, wird behauptet, dass es die Annahme beweise.

Zur Durchführung kombiniert das IPCC ein ökonomisches Modell, das eine CO2-Zunahme projiziert, mit seiner Klimamodellprojektion. Damit es genauer und vernünftiger aussieht, erschafft man Szenarien, die auf seinen Schätzungen zukünftiger Entwicklungen basieren. Das erzeugt, was das IPCC will, nämlich dass das CO2 zunehmen wird und die Temperatur katastrophal zunehmen wird, es sei denn, wir bringen die auf fossilen Treibstoffen basierenden Ökonomien zu einem raschen Ende.

Alle Prognosen des IPCC sind gescheitert, selbst die niedrigste Annahme, weil der CO2-Gehalt weiterhin steigt und die globale Temperatur zurückgeht. Anstatt zuzugeben, dass seine Arbeiten und Hypothesen falsch waren, fährt das IPCC wie üblich fort zu vernebeln, zu verstecken und Gegenangriffe zu führen.

Ein Teilaspekt der Verschleierung ist es, die Klimawissenschaft im Brennpunkt zu halten. Die meisten Menschen glauben, dass es bzgl. des IPCC ausschließlich um Klimawissenschaft geht, sie wissen nichts von der ökonomischen Verbindung. Sie wissen nicht, dass das IPCC eine CO2-Zunahme mit ökonomischen Modellen projiziert, die man so hinstellt, als würden sie die Zukunft kennen. Aber die Wahrscheinlichkeit, das wirklich zu wissen, liegt nahe bei Null, wie die Erfahrungen aus der Vergangenheit zeigen.

Am 1. September 2014 wird sich die [US-]Kriegserklärung gegen Deutschland zum 75. Mal jähren. Ich kenne niemanden, der jemals vorhergesagt hätte, was in diesen 75 Jahren alles passiert ist, nicht einmal ansatzweise. Ich bin sicher, dass man jemanden finden wird, der ein oder zwei der Ereignisse vorhergesagt hatte, aber nicht die gesamten sozialen, ökonomischen, technologischen und politischen Änderungen. Eine kurze Liste zeigt einige dieser Ereignisse:

● Der Kalte Krieg

● Der Koreakrieg

● Der Vietnamkrieg

● Der globale Terrorismus

● Der Zusammenbruch des Kommunismus

● China und Indien als Weltmächte

● Das Internet

● Landungen auf dem Mond und dem Mars

● Silikon-Chips

● Eine das Sonnensystem verlassende Raumsonde

● Das Hubble-Teleskop

● Fracking

Das IPCC behauptet, bzgl. seiner Klimawissenschaft und vermutlich auch seiner Vorhersagen zu 95% sicher zu sein. Das Problem ist: alle hatten von Anfang an unrecht. Bereits im Bericht aus dem Jahr 1995 hatte das IPCC zu Projektionen gewechselt. Es hat eine Bandbreite von Projektionen oder Szenarien von niedrig bis hoch ausgestreut, aber selbst die niedrigste war noch falsch. Roger Pielke Jr et al haben erklärt, dass die Annahmen für die Szenarien unrealistisch waren, besonders hinsichtlich technologischer Fortschritte bei der Energieversorgung und des Energieverbrauchs.

Die meisten Menschen denken, dass die Projektionen allein eine Funktion der Klimawissenschaft und der Klimamodelle sind, aber das ist nicht der Fall. Die Klimawissenschaft liegt falsch, und das trägt zu den gescheiterten Projektionen bei, weil es die zugrunde liegende AGW-Hypothese ist, dass eine CO2-Zunahme eine Temperaturzunahme zur Folge hat. Allerdings variieren die drei Projektionen infolge unterschiedlicher Annahmen hinsichtlich Wirtschaft und Gesellschaft in der Zukunft von hoch bis niedrig. Diese Schätzungen der Zukunft bestimmen hauptsächlich die Stärke der CO2-Zunahme, die es unter verschiedenen ökonomischen Szenarien geben werde. Richard Lindzen, Professor der Meteorologie am MIT sagte in einem Interview mit James Glassman: „Der IPCC-Bericht 2001 glich sehr stark einem Spiel von Kindern, die ausprobieren wollen, was vielleicht passieren wird, vorbereitet von einer ‚sonderlichen Gruppe’ mit ‚keinerlei technischer Kompetenz’“. Vielleicht, aber dieses Spiel erreichte seine politische Objektive, das CO2 zu isolieren und zu dämonisieren.

Nach der Veröffentlichung des Dritten Zustandsberichtes TAR im Jahre 2001 wurden zwei Studien von Ian Castles und David Henderson (C&H) veröffentlicht, die das Augenmerk auf die Probleme mit den Emissions-Szenarien lenkte, die zur Erstellung der drei Projektionen verwendet worden sind [1]. Castles erklärt die Bedenken folgendermaßen:

„Während der letzten drei Jahre habe ich und ein Mitautor (David Henderson, einst Leiter des Department of Economics and Statistics at OECD) die Behandlung ökonomischer Angelegenheiten seitens des IPCC kritisiert.

Unser Hauptkritikpunkt war die Verwendung von Wechselkursen, um das BSP verschiedener Länder auf eine gemeinsame Grundlage zu stellen zum Zwecke des Abschätzens und Projizierens von Wirtschaftsleistung, Einkommen, Energieintensität usw. Unter dem international anerkannten System of National Accounts [siehe hierzu Wikipedia] ist dies nicht gestattet. Das System war einstimmig von der Statistik-Kommission der UN im Jahre 1993 gebilligt worden und wurde noch im gleichen Jahr von den UN, der Weltbank, dem IMF [=International Monetary Fund], der OECD und der Kommission der Europäischen Gemeinschaften veröffentlicht, und zwar unter einem Vorwort, das  persönlich von den Leitern der fünf Organisationen unterzeichnet worden war“.

Ein Kommentator schrieb dazu:

„Diese beiden Ökonomen haben gezeigt, dass die vom IPCC durchgeführten Berechnungen hinsichtlich des Pro-Kopf-Einkommens, des wirtschaftlichen Wachstums und der Treibhausgas-Emissionen in verschiedenen Regionen fundamental falsch waren und das wahrscheinliche Wachstum in den Entwicklungsländern substantiell überschätzen. Die Ergebnisse sind daher unbrauchbar als Startpunkt für den nächsten IPCC-Zustandsbericht, der 2007 erscheinen soll. Unglücklicherweise sind es genau diese Berechnungen, die das IPCC bei nachfolgenden Projektionen verwenden will“.

Die Antwort des IPCC war typisch für die arrogante Übermacht und der Glaube an ihre Unangreifbarkeit, die dessen gesamte Verfahren durchdrungen haben:

Am 8. Dezember 2003 auf der COP 9_Tagung in Mailand gab Dr. Pachauri eine Presseerklärung ab, in der er die Feststellungen von Castles und Henderson in dieser Debatte kritisierte“.

Pachauris Vorwürfe gegen C&H, vor allem Castle, waren falsche persönliche Angriffe.

Richard Tol hat C&H sowie die Antwort des IPCC so kommentiert:

Castles und Henderson … kritisierten das IPCC wegen dessen Verwendung von Wechselkurs-Raten in der Wirtschaft, die als Basis für dessen SRES-Szenarien herhalten mussten. Das begann als ein Disput technischer Natur. Allerdings hat die ursprüngliche IPCC-Antwort – die charakterisiert werden kann als ‚Wir sind das IPCC. Wir machen keine Fehler. Geht weg!’ – die Balken aufgerichtet und die Debatte in eine solche über die Glaubwürdigkeit des gesamten IPCC verwandelt, eine Debatte, in der inzwischen auch Politiker und die Öffentlichkeit mitmischen. Howard Herzog vom MIT hat dies kürzlich auf den Punkt gebracht: ‚Das IPCC ist ein Wort mit vier Buchstaben’“.

Das UNFCCC hat dem IPCC die Ergebnisse vorgegeben, indem es das IPCC dazu verpflichtet hat, ausschließlich die menschlichen Ursachen der Klimaänderung zu untersuchen. Das IPCC hat den Brennpunkt dann auf das vom Menschen produzierte CO2 verengt. Es richtete seine Bemühungen darauf, seine Hypothese eher zu beweisen als sie zu widerlegen. Im Mittelpunkt dieser Objektive stand die Notwendigkeit, dass der atmosphärische CO2-Gehalt konstant steigen muss wegen des konstanten Anstiegs des anthropogenen CO2.

Das IPCC kontrollierte den steigenden atmosphärischen Gehalt mit Daten vom Befürworter der Erwärmung Charles Keeling und später seinem Sohn Roger und deren Messungen am Mauna Loa. Es gibt eine faszinierende, wenn auch verstörende Korrespondenz hierzu zwischen Ernst Georg Beck und Roger Keeling. Beck musste hinausgeworfen werden, weil seine Arbeiten gezeigt haben, dass der CO2-Gehalt der Atmosphäre im 19. Jahrhundert viel höher lag als vom IPCC zugrunde gelegt und von Guy Callendar und Tom Wigley erzeugt worden ist. Das IPCC hat die Zunahme des anthropogenen CO2-Gehaltes bestimmt, indem es ihn selbst erzeugt hat.

Man beachte, dass das IPCC den CO2-Anstieg von 6,5 GtC (Gigatons of carbon) 2001 auf 7,5 GtC im Bericht 2007 hat zunehmen lassen. Im Abschnitt FAQ beantwortet es die Frage „Wie erzeugt das IPCC seinen Bestand an Richtlinien?“ folgendermaßen:

„Es gehört zu den IPCC-Prozeduren, dass es Experten aus der ganzen Welt nominiert, die den Bericht entwerfen, der dann zweimal extensive begutachtet wird, bevor er vom IPCC genehmigt wird“.

In einem Artikel aus dem Jahr 2008 schreibt Castles über den Bericht 2007:

„Unglücklicherweise liegt den Hypothesen des IPCC eine erhebliche Überschätzung des Potentials der vom Menschen verursachten globalen Erwärmung zugrunde.

2001 hat das IPCC seine Vorhersagen substantiell steigender Temperaturen während des nächsten Jahrhunderts mit Vorhersagen über explosive Wachstumsraten der Wirtschaft in der Dritten Welt begründet – und damit einhergehend den Emissionen während des 21. Jahrhunderts. Tatsächlich hat das IPCC vorhergesagt, dass die Länder der Dritten Welt so schnell wachsen würden, dass sie die Wirtschaft der wohlhabenden westlichen Nationen überholen würden.

Ökonomen haben darauf hingewiesen, wie völlig unrealistisch diese Prognosen waren, aber in den sechs Jahren seit diesen Fehlleistungen des IPCC scheint sich nicht viel geändert zu haben“.

Richard Tol hat die Änderungen im AR 5 kommentiert:

Der AR 5 der Arbeitsgruppe 1 des IPCC wird daher auf Szenarien basieren, die früher unter der Bezeichnung SRES bekannt waren. Jetzt nennt man sie RCP“.

Eine Präsentation zu den Representative Concentration Pathways (RCPs) [?] von Jean-Pascal Ypersele, Vizevorsitzender des IPCC, legt die Herausforderung offen.

In einer klassischen Darstellung bürokratischer Wege zeigt er, dass eine Änderung im Gange ist, die unter Anderem die Rolle ökonomischer Entwicklung unklar zu machen scheint.

William Kininmonth, einst Leiter des National Climate Center von Australien und deren Delegationsleiter bei der WMO-Kommission für Klimatologie sowie Autor des aufschlussreichen Buches “Climate Change: A Natural Hazard” schrieb Folgendes in einer E-Mail an die Website von ClimateSkeptics:

„Zuerst war ich irritiert über das Auftauchen des RCP-Konzeptes im AR 5. Ich bin zu der Schlussfolgerung gekommen, dass RCP nicht mehr ist als ein Taschenspielertrick, um die Leser zu verwirren und Absurditäten der früheren Vorgehensweise zu verstecken.

Man wird sich erinnern, dass die früheren Kohlenstoff-Emissionsszenarien angeblich auf soliden ökonomischen Modellen fußen. Allerdings ist diese Basis von angesehenen Ökonomen in Frage gestellt worden, und die ökonomische Modellierung des IPCC war ziemlich gerupft zurückgeblieben mit einem riesigen Fragenzeichen dahinter.

Ich fühle, dass die RCP-Methode die betrügerische ökonomische Modellierung umgehen soll: die Modelle wurden mit vorgegebenen Strahlungsantrieben gefüttert, um einen zukünftigen Temperaturanstieg herauszubekommen – falls der Strahlungsantrieb nach dem Jahr 2100 bei 8,5 W/m² ein Plateau erreicht, wird der Temperaturanstieg 3°C betragen. Aber was bedeutet 8,5 W/m²? Ursprünglich war vermutet worden, dass eine Verdoppelung des CO2 einen Strahlungsantrieb von 3,7 W/m² ergeben würde. Um einen Strahlungsantrieb von 7,4 W/m² zu erreichen, wäre folglich eine weitere Verdoppelung erforderlich – 4 mal die jetzige CO2-Konzentration. Um RCP 8,5 zu erreichen, muss die atmosphärische CO2-Konzentration ein Äquivalent von 1120 ppm nach dem Jahr 2100 erreichen.

Wir bleiben zurück mit der Frage, wie realistisch ein RCP 8,5-Szenario ist. Gibt es irgendeine Chance, dass das atmosphärische CO2 etwa 1120 ppm bis zum Jahr 2100 erreichen wird? Das IPCC hat ein Strohmann-Szenario aufgebracht, um einen ‚gefährlichen’ globalen Temperaturanstieg um 3°C Anfang des 22. Jahrhunderts zu bekommen, wobei dem IPCC wohlbekannt ist, dass eine solche Konzentration extrem unwahrscheinlich zu erreichen ist. Aber natürlich hat man dies den Politikern nicht erklärt. Man hat ihnen etwas von gefährlichen Folgen erzählt, wenn man dem RCP 8,5 folgt, ohne zu sagen, wie gering die Wahrscheinlichkeit eines solchen Vorgangs ist.

Eine Absurdität nach der anderen! Oder habe ich etwas Fundamentales übersehen?“

Ich glaube nicht, dass er etwas übersehen hat. In Wirklichkeit spielt es keine Rolle, ob das irgendetwas ändert, weil das Unterfangen der Klimawissenschaft und der Ökonomie von genauen Daten und der genauen Kenntnis der Mechanismen abhängt.

Wir wissen, dass die Wetterdaten unzureichend waren, auf denen man Klimamodelle begründen kann, und die Lage verschlimmerte sich noch, als Wetterstationen eliminiert und willkürlich herausgepickte Daten dann ‚adjustiert’ worden sind. Wir wissen, dass die Kenntnisse der Mechanismen unzureichend sind, weil der Wissenschaftsbericht der Arbeitsgruppe 1 des IPCC das benennt.

„Unglücklicherweise sind die gesamten Wärme- und Wasserflüsse nicht gut beobachtet“

oder

„Damit die Modelle genau die jahreszeitlich sich veränderte Verteilung von Niederschlägen simulieren können, müssen sie korrekt eine Anzahl von Prozessen (z. B. Verdunstung, Kondensation, Transport) erfassen, die im globalen Maßstab schwierig zu evaluieren sind“.

Auf eine perverse Weise räumt das IPCC dies ein in Gestalt seines Versuches, den „Stillstand“ der Temperaturen während der letzten 15 Jahre mit irgendwelchen Prozessen im „tiefen Ozean“ zu erklären. Wieder hat Kininmonth aktuell den Kommentar in der SPM betrachtet, dem zufolge

„…es auch einen Beitrag von Unzulänglichkeiten der Antriebe und in einigen Modellen eine Überschätzung der Reaktion auf zunehmende Treibhausgas-Antriebe geben könnte (Dominiert von den Auswirkungen von Aerosolen). Hervorhebung von mir.

Mit der Unfähigkeit, den Stillstand seit 15 Jahren zuverlässig erklären zu können, ist das ziemlich vernichtend. (Zwei potentielle Erklärungen für den Stillstand werden präsentiert, eine mit geringem, die andere lediglich mit mittlerem Vertrauen – das heißt, es wird geraten). Es ist schwierig für die Gefolgsleute, uns jetzt mit den Worten niederzubrüllen „die Wissenschaft ist settled!’“

Ökonomische Projektionen sind wegen fehlender Daten sogar noch schwieriger. Sie sind unfähig, öffentliche Feedbacks und politische Reaktionen zu erahnen. Vor allem aber sind die unfähig, Fortschritte hinsichtlich Technologie und Innovation aufzuspüren. Das ist der kritische Teil der Liste von Ereignissen der letzten 75 Jahre, der den Verlauf der Geschichte vollkommen verändert haben. Es garantierte, dass jedwede Vorhersage oder Projektion falsch sein würde – die IPCC-Projektionen werden aus dem gleichen Grund falsch sein, aber mit dem zusätzlichen Problem schlechter Wissenschaft. Das muss dem IPCC bekannt sein und unterstreicht daher nur die politische Natur seiner Arbeit.

Sie haben schon jetzt gezeigt, dass es keine Rolle spielt, ob sie unrecht haben oder bei irgendetwas ertappt worden sind, weil die Objektive der Angst erzeugenden Schlagzeile erreicht wird durch die vollständige Abkoppelung zwischen ihren Wissenschafts-Berichten und der Summary for Policymakers SPM. Es ist auch kein Zufall, dass die SPM veröffentlicht wird, bevor nationale Politiker zusammenkommen, um ihre Budgets bzgl. Klimaänderung und IPCC festzulegen. Wie Saul Alinsky in seiner Schrift rules for radicals geschrieben hat: Das Ende rechtfertigt die Mittel.

REFERENCES:

[1] Ian Castles and David Henderson (2003) Economics, emissions scenarios and the work of the IPCC, Energy & Environment, vol. 14, no. 4.

Ian Castles and David Henderson (2003) The IPCC emission scenarios: An economic-statistical critique, Energy & Environment, vol. 14: nos.2-3.

Link: http://wattsupwiththat.com/2013/10/14/another-reason-why-ipcc-predictions-projections-fail-ar5-continues-to-let-the-end-justify-the-unscrupulous-means/

Übersetzt von Chris Frey EIKE