Ausstieg aus Kernenergie: Technologie-Transfer mit Dampferzeugern aus China

Eine Nation, die solche Kernkraftwerke bauen kann, ist auch jederzeit auf allen anderen Gebieten der Anlagentechnik (Chemieanlagen, Raffinerien, Spezialschiffbau etc.) ein ernsthafter Konkurrent. Wer andererseits freiwillig aus der „Hochtechnologie“ aussteigt, leitet unweigerlich die Deindustrialisierung ein. Der Fortschritt kennt nur eine Richtung: Wer die Entwicklung (freiwillig oder unfreiwillig) einstellt, muß gnadenlos auf dem Weltmarkt aussteigen. Der Niedergang der DDR ist ein schönes Beispiel dafür. Letztendlich führt das „Rumwursteln im Mangel“ immer auch zu einem gesellschaftlichen Zusammenbruch. (Quelle Bild rechts: http://www.nrc.gov/reading-rm/photo-gallery/index.cfm?&cat=Nuclear_Reactors)

Der Dampferzeuger als technisches Objekt

Was macht den Dampferzeuger eines Kernkraftwerks so besonders, daß weniger als eine Hand voll Länder dazu in der Lage sind? Die schiere Größe und die Komplexität. Trauriges Beispiel hierfür, sind die von Mitsubishi aus Japan neu gelieferten Dampferzeuger für das Kraftwerk San Onofre in USA. Sie waren in kürzester Zeit schwer beschädigt, was zu einem mehrmonatigen Ausfall des Kraftwerks geführt hat. Wahrscheinlicher Grund: Falsche Berechnung der Strömungsverhältnisse. Wieder einmal, ist die Kerntechnik der Antrieb für die Entwicklung verbesserter Simulationsprogramme. Die heute in vielen Industriezweigen verwendeten Thermo-Hydraulischen-Simulationen (Verknüpfte Berechnung von Strömungen und Wärmeübertragung) würde es ohne die Kerntechnik schlicht nicht geben. Die hierfür nötigen „Super-Computer“ ebenfalls nicht. Wer meint, aus dieser Entwicklung aussteigen zu können, endet zwangsläufig bei den bemitleidenswerten „Klimamodellen“ aus der Berliner Vorstadt, mit denen man uns weiß machen möchte, man könne die „Welttemperatur“ auf einige zehntel Grad genau berechnen.
Viel unmittelbarer ist der Zusammenhang auf der „mechanischen“ Seite. Ein solcher Dampferzeuger hat ein Gewicht von etwa 550 to bei einer Länge von 25 Metern. Wer solche Massen wie ein rohes Ei heben, transportieren und auf den Millimeter genau absetzen kann, braucht sich auch vor anderen Baumaßnahmen nicht zu fürchten. Dies erfordert eine entsprechende Infrastruktur und vor allem „Fachkräfte“ mit jahrelanger praktischer Erfahrung. Viel entscheidender ist jedoch, die Fertigung solch großer Teile, in der erforderlichen Präzision, aus speziellen Materialien. Bisher ist der Bau von Bearbeitungszentren eine Domäne der deutschen Werkzeugmaschinenindustrie.  Was geschieht aber, wenn Europa den Schwermaschinenbau immer mehr aufgibt? Die Werkzeugmaschinenhersteller werden ihren Kunden nach Asien folgen müssen.
Die Kerntechnik war stets ein Hort für die Verarbeitung exotischer Werkstoffe. Die Dampferzeuger sind ein typisches Beispiel. Sie müssen die gesamte im Reaktor erzeugte Wärme übertragen und daraus Dampf erzeugen. Dazu ist eine entsprechende Druckdifferenz und Wärmeübertragungsfläche nötig. Ein Druckwasserreaktor muß wegen der Neutronenphysik mit flüssigem Wasser betrieben werden. Ein Turbine mit Dampf. Damit das Wasser bei einer Temperatur von rund 330 °C noch flüssig bleibt, muß es unter einem Druck von etwa 155 bar stehen. Der damit hergestellte Dampf von knapp 300 °C hat aber nur einen Druck von etwa 78 bar. Diese enorme Druckdifferenz von etwa 80 bar muß sicher beherrscht werden. Für solch hohe Drücke kommen praktisch nur dünne Rohre in Frage, denn die Wärme soll ja durch die Rohrwand hindurch übertragen werden. Solche Dampferzeugerrohre haben eine Wandstärke von lediglich einem Millimeter, bei einem Außendurchmesser von weniger als 2 Zentimetern. Wie kann man aber fast 24.000 Liter pro Sekunde durch solch enge Rohre pumpen? Nur indem man tausende Rohre parallel schaltet und genau das ist die nächste Herausforderung: Zehntausende Röhren müssen pro Reaktor hergestellt, gebogen, befestigt und abgedichtet werden. Das Material muß eine gute Wärmeleitung besitzen, bei möglichst hoher Festigkeit und Korrosionsbeständigkeit. Hinzu kommen noch jede Menge Einbauten und Instrumentierung. So etwas kann man nur in einer Fabrik bauen, die eher einem Labor oder Krankenhaus gleicht, aber nicht in einer Schlosserei. Mit hoch qualifizierten (und deshalb auch gut bezahlten) Fachkräften.

Die gesellschaftlichen Konsequenzen

Die ersten vier Dampferzeuger für den Block Taishan 1 wurden noch komplett bei bei Areva in Chalon-StMarcel gefertigt. Die weiteren vier für Taishan 2 kommen bereits aus chinesischer Fertigung. Das Lerntempo ist bemerkenswert. Entscheidend ist aber folgendes: Niemand baut eine eigene Fabrik für nur vier Dampferzeuger. Ein solcher Schritt macht nur Sinn, wenn man vor hat, noch ganz viele zu bauen. Zuerst lockt der eigene Inlandsmarkt. Für Areva dürfte sich schon dieses Geschäft mit dem Wissenstransfer erledigt haben. Der chinesische Markt für Kernkraftwerke ist gegenüber dem europäischen gigantisch. China kann also in kürzester Zeit Kostenvorteile durch Serienproduktion erzielen. Mit diesen Kostenvorteilen wird es in spätestens einem Jahrzehnt massiv auf den Weltmarkt drücken. China wird aber auch die eingekaufte Technik weiterentwickeln. Die „kleine“ Areva hat langfristig keine Chance mitzuhalten. Wenn nicht jetzt massiv umgedacht wird, hat Europa in weniger als einer Generation eine weitere Schlüsseltechnik verspielt: Nach dem Bau von Computern wird auch der Kraftwerksbau aus Europa verschwinden und mit ihm im Fahrwasser, ganze Industriezweige. Aber wahrscheinlich ist das der wahre Grund für die „Energiewende“: Es geht nicht um ein bischen „Ökologismus“ sondern schlicht weg (mal wieder) um „Gesellschaftsveränderung“.
D. Klaus Dieter Humpich ist Betreiber der Website NukeKlaus.
Sein Selbstverständnis beschreibt er u.a. dort so:

Kerntechnik gilt auch innerhalb der Ingenieurwissenschaften als „schwer verständlich“. Der Autor entsinnt sich noch an die Kritik in seiner eigenen Studienzeit, warum er sich das antuen wolle. Gemeint war die viele Mathematik und der Arbeitsaufwand. Eine grüne Partei war noch nicht einmal gegründet. Schon damals beschlich den Autor das Gefühl, daß sich dieser Rückzug in einen elitären Turm der Wissenschaft eines Tages fürchterlich rächen könnte. Heute gibt es wohl keinen Kerntechniker mehr, der über einen „Atomexperten“ (meist Synonym für Sozialwirt, Deutschlehrer, Rechtsanwalt etc.) lächelt. Längst wird in Deutschland die veröffentlichte Meinung durch Aberglauben bestimmt.




Die hohen Kosten geringer Windkapazität

Armselige Rechtfertigungen
Trotz ihrer offensichtlichen Schwächen werden Energie-Subventionen in zahlreichen Wegen nach wie vor gerechtfertigt – am deutlichsten für erneuerbare Quellen wie die Energieerzeugung mit Windpropellern. Die am meisten gehörten Argumente von Befürwortern erneuerbarer Energie waren: „Wir brauchen lediglich noch etwas mehr Zeit, um im vollen Umfang wettbewerbsfähig zu sein“ und „Zweimal etwas Falsches tun macht in Wirklichkeit etwas Richtiges“. In jüngerer Zeit kamen hier noch „grüne Jobs“ hinzu sowie Argumente bzgl. ökonomischer Entwicklung, als ob subventionierte Erneuerbare die ökonomische Erlösung bringen könnten. Keines dieser Argumente ist stichhaltig.
Diese erste Rechtfertigung ist nichts als die jüngste Inkarnation des “Junge Industrie”-Arguments, das erstmals von Alexander Hamilton vor über 200 Jahren formuliert worden war. Diesem Argument zufolge braucht die Erzeugung durch Erneuerbare einfach mehr Zeit für Innovationen und zur Reduktion der Kosten auf das Niveau der fossilen Erzeugung, an welchem Punkt es zu einer machbaren, den Wohlstand fördernden Industrie wird. Aber die Erzeugung mit Erneuerbaren ist seit 35 Jahren sehr stark subventioniert worden, seit Präsident Carter das Public Utilities Regulatory Policy-Gesetz und das Energiesteuer-Gesetz im Jahr 1978 unterzeichnet hat. Mit der Bestätigung des Energiepolitik-Gesetzes im Jahr 1992 und der Einführung sowohl des Investment Tax Credit (ITC) als auch des Production Tax Credit (PTC) sind diese Subventionen ausgeweitet worden.
Der PTC beträgt gegenwärtig 2,2 Cent pro Kilowattstunde nach Steuern. Basierend auf der jetzigen Umsatzsteuerrate von 35 Prozent ergeben sich daraus vor Steuern 3,4 Cent pro Kilowattstunde, liegen also oftmals höher als der Großhandelspreis von Strom.
Die zweite Rechtfertigung ist einfach eine Version des „Das ist nicht fair“-Arguments, das Eltern sehr gut kennen. Befürworter der Erzeugung mit Erneuerbaren argumentieren, dass die konventionelle Erzeugung über ein Jahrhundert lang subventioniert worden ist; daher ist es nur fair, wenn jetzt die Erneuerbaren ebenfalls subventioniert werden. Während einige Formen der Erzeugung indirekt subventioniert werden wie z. B. die Begrenzung der Verantwortlichkeit von Kernkraftwerks-Betreibern bei Unfällen im Rahmen des Price-Anderson-Gesetzes, stehen andere Subventionen oft im Zusammenhang mit allgemeinen Provisionen der Steuerklasse, wie z. B. beschleunigten Werteverlusten und mit Steuern finanzierte Maßnahmen von Gemeinden und Kommunen. Man kann darüber streiten, ob es sich hierbei um „Subventionen“ handelt, aber sie werden allen erzeugenden Quellen zur Verfügung gestellt. Die Erzeugung mit Erneuerbaren ist die einzige Erzeugung, die von garantierten Einnahmen profitiert.
Die dritte und jüngste Rechtfertigung, dass nämlich die ökonomische Erlösung auf einem subventionierten Pfad „grüner Energie“ liegt, ist nicht nur die letzte Zuflucht für marktfeindliche Schurken, sondern ist auch durch die Erfahrung diskreditiert worden. Nicht umsonst haben Länder wie Spanien und Deutschland erfahren, dass grüne Energie einen hohen ökonomischen Preis fordert in Gestalt in die Höhe schnellender Strompreise, die andere Unternehmen schädigen. Hier in den USA wird das Versprechen einer neuen grünen Energiewirtschaft durch den Bankrott vieler Unternehmen verdorben, die riesige Schecks vom US-Energieministerium erhalten haben, dank politischer Verbindungen und nicht wegen technologischer und ökonomischer Vorteile.
Strom von geringem Wert
Anders als andere Wirtschaftsgüter variieren die Werte fortwährend als Ergebnis ständiger Änderungen von Versorgung und Nachfrage. Folglich ändert sich der Strommarkt ständig, von tausenden Dollar pro Megawattstunde in Zeiten extremer Nachfrage bis zu Werten unter Null, wenn die Märkte mit Strom überflutet werden, der von den ihn erzeugenden Quellen wie Kernkraftwerken stammt. Er kann nicht kostenlos oder von Augenblick zu Augenblick hoch- und herunter gefahren werden.
Die stetige Veränderung des Marktwertes und der Einfluss der subventionierten Erzeugung mit Windkraft auf diese Werte enthüllt eines der größten Defizite der Winderzeugung und einen der Gründe, warum die Subventionierung so erheblich ineffizient ist: Wind erzeugt niedrig-wertige Energie. Um zu verstehen, warum das so ist, muss man wissen, dass die Stromnachfrage eine Kombination aus Grund-, Mittel- und Spitzenlast ist. Grundlastgeneratoren wie Kernkraftwerke erfordern hohe Kapitalkosten, zeitigen aber in Betrieb nur relativ niedrige Kosten. Außerdem laufen sie kontinuierlich, jede Stunde jeden Tag. Spitzenlast-Generatoren, oftmals mit Öl und Erdgas betriebene Generatoren [simple-cycle generators] arbeiten, wenn die Stromnachfrage am größten ist, wie z. B. bei heißem und feuchtem Wetter. Spitzenlasteinheiten haben relativ geringe Kapitalkosten, aber hohe variable Kosten. Zum Beispiel gibt es in New York City viele sehr alte und ineffiziente Ölkraftwerke. Weil sie im Betrieb so teuer sind, laufen sie nur, wenn der Stromnachfrage am größten ist.

Abbildung 1 zeigt ein Beispiel. Die dicke schwarze Linie nennt man eine „Lastkurve“ [„load duration curve“]. Sie repräsentiert die Stromnachfrage von der Stunde der höchsten bis zur Stunde der niedrigsten Nachfrage. Grundlastgeneratoren, B, laufen während aller 8760 Stunden des Jahres. Es gibt zwei Arten von Mittellast-Generatoren, I1, die HI-l Stunden während des Jahres arbeiten, und I2, von dem man annimmt, dass er stärker variable Kosten aufweist und folglich HI-2 Stunden während des Jahres arbeitet. Schließlich gibt es die Spitzenlastquellen P, die am wenigsten laufen, HP Stunden während des Jahres. Die Auswahl, welche Art Generator läuft, richtet sich danach, die Nachfrage in jeder Stunde zu den niedrigst möglichen Kosten zu decken.
Der Wert des Stromes in jeder Stunde repräsentiert die Wechselwirkung zwischen Angebot und Nachfrage. Wenn die Nachfrage am größten ist, sind die Verbraucher willig, einen hohen Preis für Strom zu bezahlen, um es während der heißesten Tage kühl zu haben. Darum laufen zu diesen Zeiten Spitzenlasteinheiten mit stark variablen Betriebskosten. Folglich hängt der Wert einer bestimmten Art der Erzeugung von der Fähigkeit ab, den Strom zur Verfügung zu stellen, wenn er gebraucht wird. Ein Generator, der in der Vergangenheit oft zusammengebrochen ist und keinen Strom erzeugt hat, ist weniger wertvoll. Außerdem zahlt er sich weniger aus als eine vergleichbare Einheit, die nahezu fehlerfrei arbeitet, weil es unsicher ist, ob die unzuverlässige Einheit zur Verfügung steht, wenn sie am dringendsten gebraucht wird. Genauso hätte eine Spitzenlasteinheit, die nicht in der Lage ist, eine Spitzennachfrage zu decken, geringen oder gar keinen ökonomischen Wert.
Die Erzeugung durch Windkraft ist unzuverlässig und zeigt folglich genau dieses Schicksal. Windkraft ist inhärent veränderlich und sporadisch; Strom wird nur erzeugt, wenn der Wind weht. Folglich kann man sich auf Windkraft niemals „verlassen“, verfügbar zu sein, wenn sie gebraucht wird. Schlimmer jedoch ist die ökonomisch wie Kraut und Rüben verteilte Windkraft in großen Teilen der USA: die geringste Menge von Strom aus Windkraft ist verfügbar, wenn der ökonomische Wert des Stromes am größten ist.
Empirische Analyse
Die Grundlage dieser Analyse ist eine Erhebung, die meine Firma während stündlicher Erzeugungsdaten über fast vier Jahre (Januar 2009 bis August 2012) in drei regionalen Versorgungs-Organisationen [regional transmission organizations RTO] mit den größten Mengen installierter Windkraft durchgeführt hat: die Pennsylvania-New Jersey-Maryland (PJM) Interconnection, die die mittelatlantischen Staaten versorgt; den Midwest Independent System Operator (MISO), der den nördlichen Teil des Mittleren Westens abdeckt; und den Electric Reliability Council of Texas grid (ERCOT) für Texas. Zusammen stehen diese drei Regionen für etwa 27000 MW Windkraft-Kapazität, das ist mehr als die Hälfte der etwa in den USA installierten Windkraft-Kapazität von 50000 MW. Mit einer Kapazität über 10000 MW aus Windkraft gibt es in Texas die größte Menge von Windstrom aller US-Staaten.
Unsere Analyse zeigt, egal ob man die Tage mit der höchsten Stromnachfrage in jedem Jahr auf saisonaler Basis oder basierend auf stündlichen Mittelwerten während der gesamten Periode untersucht, dass winderzeugter Strom gerade dann am wenigsten verfügbar war, wenn die Nachfrage am größten war. Mehr noch, diese umgekehrte Korrelation war sehr stark.

Man betrachte zunächst das mittlere Verhalten der Winderzeugung auf stündlicher Basis während jeden Tages in ERCOT (Abbildung 2). Die jährliche Winderzeugung in ERCOT erreichte die Spitze zwischen Mitternacht und 1 Uhr früh (gestrichelte rote Linie), als die Stromnachfrage fast auf dem niedrigsten Niveau lag (gestrichelte schwarze Linie). Schlimmer noch, im Sommer, wenn die Stromnachfrage am späten Nachmittag viel höhere Spitzenwerte erreicht als während des Jahres insgesamt (durchgezogene schwarze Linie), ist die Winderzeugung viel geringer als während des Jahres allgemein (durchgezogene rote Linie). Das ist genau entgegengesetzt dem Wert des Stromes während dieser Stunden. Das relative Fehlen von Windkraft kommt nicht überraschend: an den schlimmsten Tagen des Sommers ist es heiß, feucht und windstill. Dieser Aspekt des winderzeugten Stromes  ist es, den deren Befürworter zu diskutieren ablehnen. Wir untersuchten auch die jahreszeitliche Verteilung des winderzeugten Stromes in jedem Jahr. Für jede Jahreszeit haben wir die „Lücke“ in der Windlast [the load-wind „gap“] berechnet, definiert als der Unterschied zwischen dem mittleren saisonalen Verfügbarkeits-Verhältnisses (d. h. mittlere saisonale Erzeugung relativ zur mittleren Jahreserzeugung) und der saisonalen Lastrate (d. h. die mittlere Last während der Jahreszeit relativ zur mittleren jährlichen Last).
Nehmen wir beispielsweise an, die mittlere Last im Frühjahr liegt bei 90 Prozent der mittleren jährlichen Last, während die mittlere Winderzeugung im Frühjahr 120 Prozent der mittleren jährlichen Erzeugung beträgt. Die „Lücke“ in der Windlast würde folglich 120 – 90 = 30 Prozent betragen. Ein positiver Wert der Windlast-Lücke bedeutet, dass relativ mehr Winderzeugung verfügbar ist, um die Last zu decken; ein negativer Wert der Windlast-Lücke bedeutet, dass dafür weniger Winderzeugung zur Verfügung steht. Idealerweise ist der ökonomische Wert der Windkraft maximal, falls der meiste durch Windkraft erzeugte Strom bei höchster Last anfällt. Aber gerade das Gegenteil beobachtet man saisonal in jedem Gebiet. Im Sommer ist die Windlast-Lücke stark negativ, was bedeutet, dass die geringste Menge Windstrom im Sommer erzeugt wird, wenn die Lasten im Mittel am höchsten sind. In PJM betrug diese Lücke beispielsweise in den Sommern 2010 und 2011 -70 Prozent und -60 Prozent im Sommer 2012 (Abbildung 3). Eine ähnliche Verteilung zeigt sich in ERCOT und MISO.

Und schließlich haben wir die Winderzeugung an Sommertagen berechnet, an denen die Stromnachfrage am größten war. Es sind diese Tage, an denen der ökonomische Wert des Stromes am größten ist und die Versorger folglich verfügbaren Strom ausreichend liefern wollen. Im Besonderen haben wir für jede der vier Sommersaisons die mittlere Winderzeugung berechnet relativ zur gesamten potentiellen Winderzeugung an den 10 Tagen mit der höchsten Nachfrage. Und wieder zeigen sich ähnliche Ergebnisse: Es gibt wenig tatsächliche Windstrom-Erzeugung, als der Strom am wertvollsten war (Tabelle 1) und viel weniger als das mittlere Niveau der Winderzeugung relativ zum Gesamtpotential während des ganzen Jahres.

Wie Tabelle 1 zeigt, lag die mittlere Verfügbarkeit der Winderzeugung an den Tagen mit der höchsten Nachfrage viel niedriger als während des ganzen Jahres. In MISO beispielsweise bewegte sich die mittlere Verfügbarkeit zwischen 1,8 und 7,6 Prozent während der vier Sommersaisons, während die mittlere Gesamt-Verfügbarkeit aus Wind bei 27 Prozent lag. Folglich, falls 1000 MW Winderzeugung eine mittlere Strommenge von 270 MW über das ganze Jahr erzeugten, läge die Erzeugung an den heißesten Sommertagen im Mittel bei kaum mehr als 18 bis 76 MW.
Die perversen Auswirkungen der Wind-Subventionen
Unsere Analyse zeigt, dass subventionierter Windstrom dann am wenigsten verfügbar ist, wenn der Wert des Stromes am größten ist. Folglich ist Wind nicht nur eine sporadische, unvorhersagbare Ressource, sondern man kann auch nicht auf sie bauen, wenn sie am meisten gebraucht wird (und am wertvollsten ist).
Man muss wohl sehr lange suchen, um eine noch perversere Subvention zu finden, die einer Erzeugungsquelle zugute kommt, die Strom dann erzeugt, wenn er am wenigsten gebraucht wird.
Die widrigen ökonomischen Auswirkungen subventionierter Winderzeugung gehen über die Subvention einer geringwertigen Erzeugungsquelle hinaus. Die Winderzeugung unterdrückt kurzfristig Marktpreise, wenn Strom zur Verfügung gestellt wird, wenn der Wind weht. Einige Befürworter der Windkraft glauben, dass unterdrückte Marktpreise für die Verbraucher vorteilhaft sind, indem man „unrechtmäßig erworbene Gewinne“ von den Erzeugern auf sie umlegt. In dieser Hinsicht wird eine Art „Windkraft-Profit“-Steuer auf bestehende Generatoren erhoben. Allerdings sieht die Wirklichkeit im Gegensatz zu den Befürwortern der Preisunterdrückung so aus, dass derartige Maßnahmen nicht die Marktdynamik erreichen und das Verhalten der Versorger als Reaktion auf niedrigere Preise.

Ein einfaches Beispiel der dynamischen Folgen subventionierten Windes zeigt Abbildung 4. Diese Abbildung reproduziert die Lastkurve von Abbildung 1 sowie die vier Arten der Erzeugungs-Ressourcen. Nehmen wir jetzt einmal an, dass die subventionierte Winderzeugung W dem Mix hinzugefügt wird (das Viereck unten). Basierend auf der Analyse zuvor ist die geringste Menge von Windstrom während der Stunden mit höchster Nachfrage verfügbar. Folglich nimmt man in Abbildung 4 von der Menge der Winderzeugung an, dass sie zunimmt, wenn wir uns weiter nach rechts auf der Lastkurve bewegen.
Wenn mehr Windstrom erzeugt wird, der die Marktpreise drückt, werden bestehende wettbewerbsfähige Generatoren niedrigere ökonomische Einnahmen verzeichnen. Konsequenterweise werden marginale Grund- und Mittellast-Generatoren anfangen, aus dem Markt zu gehen. In der Abbildung wird von B‘ (Grundlast-Kapazität), I1‘ von Typ 1 (Mittellast-Kapazität) und I2‘ von Typ 2 Mittellast-Kapazität angenommen, dass sie kurzfristig vorzeitig ausscheiden als Folge der ursprünglich unterdrückten Marktpreise. Weil jedoch so wenig Windstrom in den Stunden höchster Nachfrage erzeugt wird, wird die bestehende Spitzenerzeugung P den Ausfall durch den Wegfall der anderen Generatoren ausgleichen. Zusätzlich werden in den Stunden höchster Nachfrage sogar noch teurere Spitzen-Ressourcen P‘ auf den Markt geworfen, um die Nachfrage zu decken. Langfristig wird die subventionierte Winderzeugung auf diese Weise dafür sorgen , dass die Marktpreise steigen.
[Dieser Absatz hat sich mir sinngemäß nicht erschlossen. Daher füge ich hier den Original-Wortlaut an:
„As more wind is generated, suppressing market prices, existing competitive generators will realize lower economic returns. Consequently, marginal baseload and intermediate generators will begin exiting the market. In the figure, B‘ of baseload capacity, I1′ of Type 1 intermediate capacity, and I2′ of Type 2 intermediate capacity are assumed to exit prematurely in response to the initially suppressed market prices over the short run. However, because so little wind generation is produced during peak hours, existing peaking generation, P, will then pick up the slack from the other generators’ exit. In the highest demand hours, additional, even-higher-cost peaking resources, P‘, will be brought online to meet demand. The net result is that in the long run, subsidized wind generation will cause market prices to increase.”]

Eine andere Art, diese Auswirkungen darzustellen, zeigt Abbildung 5. In der Abbildung ist der Marktpreis zu einer gegebenen Stunde mit der Nachfrage DH P*. Die Nachfrage wird  mit den vier Ressourcen-Typen gedeckt, B, I1, I2 und P, die jeweils QB, QI-1, QI-2 und QP versorgen. Als nächstes wird die subventionierte Winderzeugung W eingeführt, die bis zu QW Megawattstunden erzeugt. Dies dehnt die Versorgungskurve nach rechts aus und reduziert den Marktpreis von P* auf PW-SR.
Allerdings ziehen als Folge der niedrigeren Marktpreise bestehende Versorger Kapazitäten zurück, was die Versorgungskurve nach links zurück verschiebt. Als Folge wird in Stunden hoher Nachfrage viel weniger Windstrom zur Verfügung stehen. Nehmen wir mal an, dass bei einer Nachfrage DH nur QW‘ MWh Windstrom erzeugt werden. Mit den vorherigen Zurücknahmen erzeugen B, I1 und I2 weniger Strom, was die Mengen für jeweils QB‘ QI-1‘ und QB-2‘ reduziert und eine neue langfristige Versorgungskurve erzeugt (rote Linie). Die reduzierten Mengen von Grund- und Mittellast-Erzeugung erfordern eine größere Erzeugung von der zuvor benutzten Spitzenerzeugung P. Folglich wird angenommen, dass QP auf QP‘ MWh zunimmt. Allerdings werden wegen des reduzierten Outputs der Wind-Ressource zusätzliche, teurere Spitzen-Ressourcen PP online gebracht, die die zusätzlich benötigten QPP MWh zur Verfügung stellen. Folglich führt der zusätzliche Windstrom zu höheren Marktpreisen.
Zusätzliche soziale Kosten der Windkraft
Die sozialen Kosten subventionierter Windkraft hören mit den umgekehrten Auswirkungen auf die bestehenden Versorger und langfristig höherer Preise nicht auf. Die geographische Verteilung der Ressource Wind – die Erzeugung von Windstrom findet typischerweise in den Randgebieten von Städten statt – erfordert den Bau von Hochspannungsleitungen, um den Windstrom in die Lastzentren zu transportieren. Allerdings tragen die Windkraft-Betreiber nur einen geringen Teil dieser Kosten, weil sie unter allen Nutzern des Transportsystems verstaatlicht sind. Solche Verstaatlichung ist das Ergebnis der politischen Maßnahmen der [US-] Bundes- und Staatsregierungen, um die Windstrom-Erzeugung zu fördern.
Die Verstaatlichung der Kosten einiger Transportsysteme wird gerechtfertigt, weil die Transportkapazität für eine zuverlässige Stromversorgung ein öffentliches Gut ist. Folglich kann man bis hin zu zusätzlicher Transport-Kapazität für die Zuverlässigkeit des Gesamtsystems ein ökonomisches Argument vorbringen, wonach alle Nutzer des Transportsystems von der verbesserten Verlässlichkeit profitieren, und die Kosten sollten unter allen Nutzern aufgeteilt werden.
Im Grunde ist dies eine Kontingentierung zwischen Kosten und Nutzen. Allerdings verbessert subventionierte (und nicht subventionierte) Windstrom-Erzeugung dessen Verlässlichkeit nicht. Sie reduziert die Verlässlichkeit wegen der inhärenten Variabilität des Windes, was eine zusätzliche Back-up-Erzeugung erfordert. Das führt zu „Wind-Integrationskosten“, um die Variationen des Windes zu „glätten“. Trotz dieses umgekehrten Verlässlichkeits-Effektes werden die Kosten neuer Hochspannungsleitungen, gebaut zum Transport des winderzeugten Stromes, staatlicherseits auf alle Verbraucher umgelegt, die damit noch höhere Kosten übernehmen müssen, um die Zuverlässigkeit des Stromsystems sicherzustellen, weil es durch den winderzeugten Strom belastet wird. Die Auswirkung insgesamt wird die Größenordnung der staatlichen Kosten steigen lassen, weil Subventionen den exzessiven Ausbau von Windkraft ermutigen.
Gibt es ausgleichende gesellschaftliche Vorteile der Windkraft?
Ein potentielles Argument für die fortgesetzte Subvention von Windkraft trotz der gegenteiligen Auswirkungen solcher Subventionen lautet, dass der Ausbau der Windkraft ausgleichende gesellschaftliche Vorteile bringt. In diesen öffentlichen Vorteilen ist die Schaffung von Arbeitsplätzen nicht enthalten – grün oder welche sonst immer – da Arbeitsplätze als solche kein ökonomischer Fortschritt sind, sondern stattdessen eine Form von Transferzahlungen repräsentieren. Wenn dieses „soziale Vorteile“-Argument gelten soll, müssten Wind-Subventionen erfolgreich zahlreiche Tests durchlaufen. Erstens, zeitigt also die subventionierte Windstrom-Erzeugung soziale Vorteile, und wenn ja, worin bestehen sie?
Zweitens, bietet die subventionierte Windstrom-Erzeugung diese sozialen Vorteile zu den niedrigst möglichen Kosten? Mit anderen Worten, können diese Vorteile auch durch alternative politische Maßnahmen erreicht werden, die die Subventionierung der Windkraft nicht erforderlich machen?
Die Standard-Litanei durch Windstrom geschaffener sozialer Vorteile sind (1) reduzierte Emissionen von Luftverschmutzern, (2) größere Energie-„Unabhängigkeit“, womit in der Regel eine reduzierte Abhängigkeit von Rohöl aus dem Nahen Osten und anderen, als „feindlich“ gegenüber den USA angesehenen Ländern gemeint ist, und (3) eine reduzierte Preis-Volatilität fossiler Treibstoffe.
Obwohl eine Reduktion der Emission von Luftverschmutzern einen sozialen Vorteil darstellt, gibt es keinen empirischen Beweis, dass die subventionierte Entwicklung der Windkraft die Emissionen in effizienter Weise reduziert, und zwar aus mindestens vier Gründen. Erstens, Verschmutzungs-Stoffe wie Schwefeldioxid und Stickstoff-Oxide werden schon jetzt unter dem Clean Air Act reguliert. Daher sind die sozialen Kosten dieser Verschmutzer bereits internalisiert. Zweitens, obwohl die Befürworter der erneuerbaren Energien deren Fähigkeit betonen, Kohlenstoff-Emissionen zu reduzieren, gibt es keinen Konsens über die sozialen Kosten der Kohlenstoffemissionen, wenn überhaupt welche anfallen. Drittens, die durch die Winderzeugung „vermiedenen“ Emissionen hängen von einem marginalen Generator ab. Viertens, die Variabilität der Winderzeugung erfordert die zusätzliche Backup-Erzeugung durch fossile Treibstoffe, was bedeutet, dass die fossile Stromerzeugung ineffizient ist. Eine Analogie wäre es, den Betrieb eines Autos im Stop-and-Go-Verkehr mit der konstanten Geschwindigkeit auf einer Autobahn zu vergleichen: Die Effizienz von Ersterem ist geringer als von Letzterem. Weiterhin muss jede Katalogisierung der vermeintlichen sozialen Vorteile der Windstrom-Erzeugung auch deren soziale Kosten berücksichtigen wie Auswirkungen auf die menschliche Gesundheit, wenn man dem niederfrequenten Lärm ausgesetzt ist, der Tötung von Zugvögeln und Wertminderungen durch die Verschandelung der Landschaft.
Energie-Unabhängigkeit ist kein sozialer Vorteil. Selbst wenn dem so wäre, gibt es keinen Beweis, dass die Windstrom-Erzeugung die Nachfrage der USA nach Rohöl aus „feindlich gesinnten“ Ländern reduziert. Im Jahre 2011 wurde weniger als 1 Prozent allen Stromes mit ölbasierten Treibstoffen erzeugt.
Und unter der Voraussetzung, dass mit Öl befeuerte Generatoren typischerweise als Spitzenlast-Ressourcen genutzt werden, zeigt die obige Analyse, dass diese Erzeugung als Folge der Wind-Subventionen allgemein üblicher wird. Was die Windstrom-Erzeugung für den Betrieb von Elektromobilen betrifft und dem damit einher gehenden geringeren Ölverbrauch für das Transportwesen, werden alle Auswirkungen verschwindend gering sein, wenn man den gegenwärtigen und vermutlich auch zukünftigen Anteil dieser Fahrzeuge an allen Fahrzeugen betrachtet.
Reduzierte Volatilität der Preise fossiler Treibstoffe ist ebenfalls kein sozialer Vorteil. Mehr noch, es gibt keinen Beweis, dass die Windstrom-Erzeugung die Volatilität der Treibstoffpreise reduziert. Behauptete Reduktionen der Preis-Volatilität basieren auf einer einfachen – und falschen – Hypothese, dass nämlich die Preis-Volatilität fossiler Treibstoffe zunimmt, wenn die Nachfrage nachlässt. Während es sicherlich stimmt, dass, wenn die Nachfrage nach einem Gut bei Null liegt, es auch keine Volatilität des Preises für dieses Gut gibt, gibt es keinen Beweis, dass die Entwicklung der Windkraft die Volatilität der Preise fossiler Treibstoffe reduziert hat. Abgesehen davon, traditionelle Sicherheits-Werkzeuge können die Preis-Volatilität auf jedes vom Verbraucher gewünschte Niveau reduzieren, zu niedrigeren Kosten und ohne Bedarf für Subventionen.
Schlussfolgerung:
Fortgesetzte Subventionen für die Windstrom-Erzeugung, sowohl in Form von Steuervorteilen als auch obligatorische erneuerbare Portfolio-Standards, repräsentieren eine schlechte Wirtschafts- und Energiepolitik, und zwar aus mindestens drei Gründen. Erstens und am schwerwiegendsten, die Windstrom-Erzeugung ist nicht nur volatil und unvorhersagbar, sondern hat auch einen geringen ökonomischen Wert. Anstatt die hoch variablen Kosten fossiler Energieerzeugung [high variable-cost fossil generating resources] zum Befrieden der Spitzennachfrage zu ersetzen, erreicht die Verfügbarkeit von Windstrom dann einen Spitzenwert, wenn die Stromnachfrage am geringsten ist.
Als Folge tendiert die Windstrom-Erzeugung dazu, die Erzeugung zu gering variablen Kosten zu ersetzen, oder sie zwingt einfach Grundlast-Generatoren, mehr zu zahlen, um den Strom in das Netz zu speisen, weil deren Einheiten nicht kosteneffektiv hoch- und herunter gefahren werden können. Folglich werden die Verbraucher und Steuerzahler gezwungen, geringwertigen Strom zu subventionieren.
Zweitens, subventionierte Windstrom-Erzeugung verzerrt wie alle Subventionen den Strommarkt, indem kurzfristig die Strompreise verringert werden, die langfristig dadurch aber steigen. Dies bedeutet schädliche Auswirkungen für im Wettbewerb stehende Erzeugung und den Verbraucher.
Subventionen vertreiben Konkurrenten und verstärken die finanzielle Unsicherheit, was wiederum die Kapitalkosten für neue Investitionen in die Stromerzeugung steigen lässt. Langfristig bestehen die Auswirkungen von Subventionen darin, dass die Strompreise höher sind als sie unter reinen Marktgesetzen wären.
Drittens, subventionierte Windstrom-Erzeugung resultiert in zusätzlichen Kosten, die vom Verbraucher getragen werden müssen. Diese Kosten schließen Milliarden Dollar ein, die man für den Bau zusätzlicher Hochspannungsleitungen ausgeben muss und die ihre eigenen gegenteiligen gesellschaftlichen Auswirkungen haben. Weitere Zusatzkosten entstehen durch die Integration des durch veränderlichen und unterbrochenen Wind erzeugten Stromes in das Netz. Mit anderen Worten, Winderzeugung drückt anderen Marktteilnehmern externe Kosten auf. Nach 35 Jahren direkter und indirekter Subventionen gibt es keinen ökonomisch einleuchtenden Grund, mit der Subventionierung der Windstrom-Erzeugung weiterzumachen.
Auf [US-]Bundesebene sollten direkte Subventionen wie PTC sofort eingestellt werden. Subventionen auf [US-]bundesstaatlicher Ebene, seien es durch staatliche Regulierer festgelegte Einspeisetarife oder gesetzlich festgelegte RPS-Verfügungen [?], verschärfen Marktverzerrungen und lassen die Strompreise steigen, wieder zum Nachteil der Verbraucher. Diese staatlichen Subventionen sollten ebenfalls sofort eingestellt werden.
Und schlussendlich belohnt die fortgesetzte Subventionierung der Windstrom-Erzeugung einfach Nischen-Erzeugungsunternehmen und deren Zulieferer auf Kosten vieler anderer. Angesichts der massiven öffentlichen Schulden und der schleppenden Erholung der US-Wirtschaft kann diese Art der schädlichen Umverteilung des Wohlstands nicht gerechtfertigt werden.
Jonathan A. Lesser ist Gründer und Präsident von Continental Economics Inc.
ENERGY & Environment
Link: http://www.cato.org/sites/cato.org/files/serials/files/regulation/2013/3/v36n1-8.pdf
Übersetzt von Chris Frey EIKE
Hinweise des Übersetzers, dem jedes wirtschaftliche Hintergrundwissen fehlt: Falls in dieser zeitweise im Blindflug erstellten Übersetzung sachliche Fehler enthalten sind, bitte ich die Energiefachleute unter den Lesern, diese konstruktiv in Kommentaren aufzuzeigen.
Das Anklicken des Original-links hat bei mir zuletzt nicht mehr funktioniert. Es kann aber an meinem Laptop liegen.
C. F.




Klimawandel in Deutschland bedeutet Abkühlung – trotz deutlicher Zunahme von CO2, Teil 2

Mehr noch, wie wir zeigen konnten, uns in dieser, seit fast 30 Jahren, bereits befinden. Unser ausgewertetes Datenmaterial des DWD zeigt eindeutig, dass die Winter in Deutschland seit nunmehr fast 30 Jahren kälter werden. Die Jahrestemperaturen seit fast 15 Jahren nicht steigen, sondern teils deutlich sinken. Wird der Wärmeinseleffekt berücksichtigt, haben wir in Deutschland heute ein ähnliches Klima/Temperaturniveau, wie im Jahr 1881, dem Beginn der DWD-Temperaturdatenreihe. Auch wenn solche spätgermanischen Seher, wie Herr Dr. Tiersch, angesichts des Hochwassers im Süden und Osten unseres Landes, einmal mehr, einen menschengemachten Klimawandel dafür aus dem Hut zaubern.
Ödnis oder grüne Landschaften? Unser Bericht wird zeigen, dass ein CO2-Pegel von 400ppm für die Natur und damit auch für uns, kein Fluch, sondern ein Segen ist.
Die (leichte) globale Erderwärmung (sofern man sich auf die Diskussionsebene von Mittelwerten begeben möchte), die zum Anlass der Klimahype wurde, dauerte seit Ende der Kaltzeitepoche, gegen Ende der 1970-Jahre, bis gegen Ende des vorigen Jahrhunderts. Also maximal 20 Jahre. Je nach Betrachtungslage der verfügbaren Temperaturdaten und ohne WI-Bereinigung der Daten, bestand die Erwärmungsphase weitgehend aus dem El- Niño- bedingten Temperatursprung von 1997-1998. Bei linearer oder progressiver Trendberechnung, wie üblicherweise in Veröffentlichungen verwendet, zeigt sich dann, ausgehend vom Ende der Abkühlungsphase der 1960er und 70er Jahre der (politisch gewünschte) „beschleunigte“ Temperaturanstieg am Ende des 20. Jahrhunderts.
  
Abbildung 1: Die monatlichen von UAH beobachteten globalen Temperaturanomalien der unteren Troposphäre, Stand 10. Mai 2013 (http://www.climate4you.com/). Deutlich sind die beiden El-Niño-bedingten Temperaturmaxima von 1998 und 2010 zu sehen. Wie Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigen konnte, werden El-Niño-Ereignisse durch drei unterschiedliche solare Ereignisse gesteuert und über die Hadley-Zellen und den Drehimpulserhaltungssatz, auf das irdische Klimasystem weitergegeben.

 Abbildung 2: Die gleiche Datenreihe mit beiden El Niño-Ereignissen und dem Temperaturverlauf vor und nach dem prägnanten El Niño-Ereignis 1998. Deutlich ist zu sehen, dass von 1979, dem Beginn der Satellitenaufzeichnungen bis 1998 der globale Temperaturverlauf flach, also ohne nennenswerte Erwärmung verläuft. Durch den El Niño wird die Temperaturkurve angehoben und stagniert seither auf höherem Niveau. Wird hingegen statistisch ein linearer Trend betrachtet, so ergibt dieser den bekannten, ansteigenden Temperaturtrend seit 1979, statistisch gesehen, obwohl dieser in der Realität längst vorbei ist und die Temperaturen seit ihrem Maximum von 1998, fallen.
In dieser Zeit ist die Kohlendioxidkonzentration weiter gestiegen. Dass jedoch „Treibhauseffekte“, wie sie vorrangig dem CO2 nachgesagt werden, keine erheblichen Erwärmungen bewirken können, wurde bereits vor 100 Jahren unter anderem mit dem sogenannten WOOD- Experiment bewiesen (Abbildung3):
Zum THE gab es bereits 1909 von dem Professor für Experimentalphysik, James W. Wood ein wegweisendes Experiment, welches das Prinzip des THE falsifiziert. 
 
Die Erwärmung eines Treibhauses (Gewächshauses) basiert also nicht auf eingesperrter Strahlung (einem sog. THE), sondern auf eingesperrter, warmer Luft (wird vom Boden erwärmt) und damit dem Ausbleiben der Konvektion. Wood beweist weiter, dass der Boden wenig Strahlung aussendet, und dessen Kühlung auf Wärmeleitung und Konvektion beruht.
Die folgende Abb.4 zeigt anhand von Satellitenmessungen, dass die weltweiten Temperaturanomalien praktisch gar nicht von den steigenden CO2- Konzentrationen beeinflusst werden:
 
Abbildung 4: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten. Auch hier erkennt man, dass 1998, El Niño- bedingt, weltweit das wärmste Jahr war, einen weiteren, El Niño- bedingten, schwächeren Peak, gab es 2010. Die farbigen Kurven sind die Temperaturanomalien, die sich nach Hansens Modellvorhersagen bei der reellen CO2- Entwicklung (Rot) sowie verminderten CO2-Emissionen (Orange) beziehungsweise ohne weitere Steigerungen des CO2-Gehalts (Grün) hätten ergeben sollen. Doch die reellen Anomalien (Schwarz) stagnieren und bleiben fast immer darunter- Prognosen und Realität laufen zunehmend auseinander! Quelle http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/ vom 03. März 2012.
Übrigens: Nach neuen Angaben soll im Mai 2013 auf der Referenzstation Mauna Loa die 400 ppm- CO2-Konzentration = 0,04% erreicht worden sein. Aber von einer „katastrophalen Erderwärmung durch den Treibhauseffekt“ war bislang weder weltweit und schon gar nicht in Deutschland irgendetwas zu spüren. Eine kleine Anmerkung:
Wir hoffen doch sehr, dass die Gilde der Treibhausbefürworter, sich bei der Mauna Loa Station dafür bedankt, dass ausgerechnet im AR5-Jahr, dem Jahr also, in dem das IPCC den neuen Zustandsbericht vorlegt, der atmosphärische CO2-Pegel die „historische“ Marke von 400 ppm erreicht – ein Schelm, der Böses dabei denkt. Bei diesen CO2-Werten handelt es sich bekanntlich nicht um Messwerte, sondern um kompliziert ermittelte mathematische Werte, denen eine Vielzahl von Messwerten zu Grunde liegen.
Wie bereits im Teil 1 gezeigt, steigen die CO2-Konzentrationen, aber die Temperaturen fallen. Dass ist das genaue Gegenteil, der von den „Treibhäuslern“ behaupteten Korrelation. Da CO2 keine erkennbare Klimarelevanz (Klimasensitivität) hat, soll nicht unerwähnt bleiben, welchen positiven Einfluss CO2 auf die Biosphäre und somit auf das irdische Leben ausübt (siehe Abbildung 4).
Pflanzen wachsen mit mehr Kohlendioxid viel besser
– Wir haben zu wenig CO2 in der Atmosphäre und nicht zu  
   viel –
Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. 

Abbildung 5 (Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf):
In der Abbildung links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er noch vor kurzem auf dem Mauna Loa gemessen wurde. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was etwa dem Verbrennen sämtlicher, heute bekannter und förderbarer fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Solches Basiswissen kann in jedem Biologiebuch nachgeschlagen werden. Es deckt sich daher mit Untersuchungen der NASA, dass die CO2-Zunahme seit den 1980-Jahren zu einem deutlichen Ergrünen unserer Erde geführt und sich damit bereichernd auf das Artenreichtum ausgewirkt hat.
Kohlendioxid ist neben Sauerstoff, Wasser und Wärme einer der Hauptfaktoren für das Leben auf der Erde. Ohne CO2 wäre die Erde lebensfeindlich und kahl wie der Mond, da jede Fotosynthese unmöglich wäre. Die Erde bräuchte mehr und nicht weniger Kohlendioxid. (siehe Abbildung 5)
 
Abbildung 6: Mit der CO2-Zunahme wird das Ausbreiten der Wüsten verhindert.
Dass auch ein wärmeres Klima besser als ein kälteres ist, braucht angesichts der Eiszeiten, denen unser Kontinent mehrmals unterworfen war, nicht eigens betont zu werden. Was also bleibt von solchen Aufrufen “Kampf dem Klimawandel“? Nichts, als die Tatsache, uns ein schlechtes Gewissen einzureden, damit die Politik uns dann treffend abzocken kann.
Eigentlich wäre es die Aufgabe der Medien, die Bevölkerung vor öffentlichen Scharlatanen zu schützen. Doch dieser Aufgabe werden deutsche Journalisten nicht gerecht. Schlimmer noch, plappern gedankenlos nach und werden damit zu Handlangern. Von investigativem Journalismus keine Spur. Dass deren Kenntnisse in Naturwissenschaften meist bereits an der Oberfläche enden und als sehr überschaubar anzusehen sind, kann angesichts der bereits stattfindenden Abzocke (siehe Strompreise) keine Entschuldigung darstellen. Lenin nannte Journalisten “Nützliche Idioten“. Insbesondere bei ZDF und Die Zeit (EIKE berichtete mehrmals darüber) scheint man diese Aussage immer wieder aufs Neue belegen zu wollen. So, dass auch in diesem Jahr mit weiteren Einlagen zu rechnen ist und dem obigen Lenin-Zitat zu weiterer Gültigkeit verholfen wird. Insbesondere, da der neue Sachstandsbericht des IPCC (AR5) in diesem Jahr veröffentlicht wird und somit reichlich Spielraum für Wahrsager und "Wunderheiler" erwarten lässt.

Ausblick

Auch wir möchten Betrachtungen zum weiteren Klimaverlauf anstellen. Nein, keine Sorge, wir werden nicht in die Rolle des "Regenmachers" treten, wie sie unlängst bei der „Klimatagung“ in Potsdam zu sehen war oder wie sie jüngst der DWD mit seiner Klimaprognose bis zum Jahr 2100 abgab oder das PIK mit seiner Eisentwicklung gar bis zum Jahr 2500 (EIKE berichtete jeweils darüber). Auch nicht, wie der Sommer 2013 wird, was bei Wetterprognosen, die von den Anfangsbedingungen abhängen, gar nicht möglich ist. Nun hängen Klimaprognosen oder Klimaprojizierungen von den Randbedingungen ab. Da aber auch hier die Randbedingungen, wie die Flüsse von latenter oder sensibler Wärme, nur unzureichend bekannt sind und deren Fehlertoleranzen um den Faktor 10 größer als das Ergebnis sind, ist jedes Ergebnis und damit jede Klimaprognose, wie z.B. die vom DWD, sinnlos. Da hilft auch kein Supercomputer weiter, da dieser nur Algorithmen, die ihm vorher eingegeben wurden, abarbeitet und wenn die Algorithmen sinnlos (z.B. wegen der großen Fehlerbalken) sind, als Endergebnis nur ein sinnloses Endergebnis herauskommen kann.
Wir können zwar wegen der großen Unsicherheiten für den weiteren Verlauf der Temperaturen 2013 keine sichere Prognose wagen, unseren Lesern aber aufzeigen, was für die Wärme verantwortlich ist: Die Sonne und die im Meer gespeicherte Sonnenenergie (kennt jeder von Heizungsanlagen, dass Wasser ein guter Wärmespeicher ist).

Abbildung 7 (Quelle: NASA), zeigt die solare Entwicklung anhand der Sonnenflecken bis zum Juni 2013 (24. Zyklus) und den vorherigen 23. Sonnenzyklus. Solare Zyklen haben meist eine Doppelspitze in ihrer Aktivität (warum dem so ist, hat Leistenschneider in seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ beschrieben). So wird aus den Reihen diverser Sonnenforscher (z.B.: Hathaway, NASA) für Mitte des Jahres das Maximum im 24. Zyklus prognostiziert. Wogegen die solare Aktivität im Dezember 2012 vergleichsweise gering war (vgl. mit kalten Temperaturen in Osteuropa). Derzeit sieht es so aus, dass auch der 24. solare Zyklus ein zweites Maximum ausprägt und wir für die Sommermonate 2013 aufgrund der höheren solaren Aktivität mit wärmeren Temperaturen rechnen können. Ob dies eintritt, wird die solare Aktivität, dem einzigen Energielieferanten der Erde, für die nächsten Monate zeigen – ob der Aufwärtstrend anhält und sich ein prägnantes zweites Maximum entwickelt.
Für Europa ist indes noch ein zweiter Parameter wichtig. Die im Wasser, hier im Atlantik, gespeicherte Sonnenenergie. Die AMO (Atlantic Multidecadal Oscillation) ist ein Maß dafür (siehe Abbildung 8).
 
Abbildung 8 (Quelle: http://www.climate4you.com) zeigt die AMO, die eine periodische Schwingung in den Nordatlantiktemperaturen wiedergibt. Diese lässt sich anhand von Messungen bis in die Mitte des 19. Jahrhunderts zurückverfolgen. Sie hatte in diesem Beobachtungszeitraum eine mittlere Zykluszeit von etwa 70Jahren und damit die doppelte Zykluszeit, wie der für die Erdtemperaturen wichtige Brückner-Landscheidt-Zyklus der Sonne. Weiter ist die AMO gegenwärtig in ihrem Maximum, das verursacht eine vermehrte Energieabgabe an die Atmosphäre, was aber nur bei beschleunigter Westwinddrift mildere Temperaturen für Mitteleuropa bedeutet, denn die Temperaturverhältnisse in Mitteleuropa können besonders im Winter bei ungünstigen Wetterlagen (übernormal häufige Nord- und Ostlagen beispielsweise im Winter 2012/13) nicht von dem wärmeren Atlantikwasser profitieren (schwache, bzw. negative NAO, Nordatlantik Oszillation – sie gibt die Druckverhältnisse zwischen Island und den Azoren wieder und ist somit ein Maß für Windbewegungen). Setzt man die Wassertemperaturen des Nordatlantiks in Relation zu den Temperaturmitteln der einzelnen Jahreszeiten in Deutschland (lineare Korrelation), so zeigt sich im Frühling, Sommer und Herbst ein allerdings nicht besonders straffer positiver Zusammenhang, der im Herbst mit bescheidenen 12% Bestimmtheitsmaß noch am deutlichsten ausfällt; während im Winter keinerlei Zusammenhang nachzuweisen ist.
Die positive, starke AMO- Phase war auch der Hauptverursacher für die in 08 und 09/2012 vergleichsweise große arktische Sommereisschmelze.
Aufgrund des prognostizierten solaren Maximums und des gegenwärtigen Maximums der AMO ist auch für 2013 eine Jahresmitteltemperatur etwas über dem Langfristmittel durchaus noch möglich. Voraussetzung wäre jedoch eine deutlich zu warme zweite Jahreshälfte, die aber nicht sicher prognostiziert werden kann (siehe oben). Nur so könnte das zwischen Februar und Mai entstandene Temperaturdefizit noch überkompensiert werden. Leider macht die (statistische) Bauernregel „Wie’s im April und Maien war, so wird das Wetter im Rest vom Jahr“ nicht viel Hoffnung auf dauerhafte Besserung- allerdings treffen derartige Regeln nicht immer zu. Pessimistisch stimmt leider ein Blick auf den Zusammenhang der Temperaturen des Zeitraumes Februar bis März zum folgenden August (Abbildung 9):
 
Abbildung 9: Wenn es in Erfurt im Zeitraum Februar und März zu kalt war, so folgte in den meisten Fällen auch ein kühler August. Weil die Zahl der Vergleichsfälle jedoch gering und der Zusammenhang mit knapp 25% nur mäßig ist, darf man allein aus dieser Tatsache aber noch nicht auf einen kühlen August 2013 schließen- Ausnahmen sind bei unserer wechselhaften Witterung immer möglich! Mit hoher Wahrscheinlichkeit lässt sich aber sagen, dass es in naher Zukunft und damit auch im Rest des Jahres 2013 zu extremen Temperaturschwankungen kommen wird, so dass neben längeren kälteren Witterungsphasen auch einzelne Hitzewellen möglich sind (Vergleichsfall 2010), weil das typisch für eine beginnende Abkühlungsphase ist (KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2013).
Weiterhin muss bedacht werden, dass das Langfristmittel 1961 – 1990, auf das sich bei heutigen Vergleichen immer bezogen wird, in einer Kälteepoche liegt. Schon deshalb wäre es nicht ungewöhnlich, wenn das Jahr 2013 dessen Wert erreichte oder etwas überträfe. Wird sich hingegen auf die letzten 25 Jahre bezogen, so liegen die heutigen Jahresmittelwerte nicht über, sondern bereits leicht unter dem Durchschnitt. Das zeigt uns Abbildung 10:

Abbildung 10: Ausgerechnet, seitdem das IPCC und andere selbst ernannten Klimaschützer mit ihren Panikmeldungen über eine angeblich sich ständig fortsetzende Erwärmung begonnen haben, stagnieren die Temperaturen und sind gegen Ende der Betrachtungsphase auch noch fallend. Umso mehr, wenn die Kurve auch noch um den Wärmeinselfeffekt (WI) für die letzten 25 Jahre bereinigt wird.
Die Abkühlung der letzten Jahre ist indes nicht gleichmäßig auf alle Monate verteilt. Interessant ist, dass vor allem der Wonnemonat Mai in Deutschland besonders kälter wurde. Auch der diesjährige Mai hat den anhaltenden Abwärtstrend der letzten Jahre fortgesetzt. Auf dem Lande, wo der Wärmeinseleffekt der Städte weniger wirkt, war es um einiges kälter, als die Gesamtkurve für Deutschland angibt. So mussten viele Maifeste 2013 wegen der kalten und vor allem extrem nassen Witterung abgesagt werden. „Komm lieber Mai und mache die Bäume wieder grün“, sagt ein 250 Jahre altes Lied aus der Kleinen Eiszeit. Im Mai 2013 war bei den Eichen und den Eschen, je nach Region und Höhenlage, erst zwischen dem 15. und 31. des Monats der Laubaustrieb beendet.

 Abbildung 11: Vor allem der Wonnemonat Mai zeigt die momentane Abkühlungsphase besonders deutlich. Mit 11,7°C liegt der Mai 2013 deutlich unter dem Schnitt der letzten 16 Jahre. Dieser beträgt 13,3°C. Sobald die Blattknospen aufgesprungen sind und die Fotosynthese angelaufen ist, beschleunigt die zunehmende CO2-Konzentration der letzten Jahrzehnte grundsätzlich das weitere Blatt- und Pflanzenwachstum (siehe Abb.4, CO2 ist ein Pflanzendünger, was seit langen auch angewendet wird). Dem wirkt die gerade erst wieder erlebte Maikälte entgegen. Mit einem CO2-Wert von 300 ppm, wie er für die Zeit von vor 250 Jahren anhand von Eisbohrkernuntersuchungen vorgeherrscht haben soll*, wäre der Blattaustrieb der Bäume wohlweiter zurück.
*Es gibt wissenschaftliche Untersuchungen, die diesen niedrigen atmosphärischen CO2-Wert anhand von Stomata-Untersuchungen von Blättern widerlegen. Diese wurden bereits vor mehr als 10 Jahren veröffentlicht (Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA). Aus einer weiteren Untersuchung ist die folgende Abbildung.
 
Abbildung12, Quelle: Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis  of  Tsuga heterophylla needles” (Geology, Januar 2005) zeigt den atmosphärischen CO2-Gehalt für die letzten 1.200 Jahre (grün) zu Law Dome-Eisbohrkern (Rechtecke).
Die Stomata-Daten zeigen, dass der atmosphärische CO2-Gehalt weitaus variabler ist, als die Eisbohrkerndaten dies ergeben. Der Grund dafür zeigen die Untersuchungen von Prof. Alexander Wilson und Prof. Austin Long. Der CO2-Gehalt ergibt keinen Hockey-Stick, mit einem gleichbleibenden, vorindustriellen CO2-Pegel von 280 ppm, der zum ausgehenden 20.Jahrhunert steil ansteigt, sondern eine Fluktuationskurve, in der der CO2-Gehalt in den vorherigen Jahrhunderten, insbesondere vor 1.200 Jahren (um das Jahr 800), ähnlich hoch war wie heute.
Bei der sog. Eisbläschen-Methode zur CO2-Ermittelung wird üblicherweise Eis gemahlen oder geschabt, wobei die in Blasen gefangene Luft entweicht und für Analysezwecke gesammelt wird. Bereits 1997 berichteten Prof. Alexander Wilson und Prof. Austin Long von der University of Arizona (Geophys. Res., 1997, 102(C12), 26601), dass sich andere und höhere CO2-Konzentrationen ergeben, wenn man das Kohlendioxid durch Verdunstung aus dem Eis abtrennt. Am deutlichsten waren die Unterschiede bei Eis aus größeren Tiefen, also aus älterem Eis des Bohrkerns, der aus vergleichsweise warmen Perioden stammte. Die Erklärung hierfür ist, dass CO2 aus den Luftbläschen in das feste Eis übergetreten ist, von wo es nur durch Verdunstung wieder gewonnen werden könne. "Kohlendioxid ist in Eis löslich", sagte Wilson. "Je tiefer man in den Eiskern eindringt, nehmen Zeit und Druck zu, und dies führt zu einem deutlichen Übertritt von Kohlendioxid ins Eis."
So ist natürlich auch die aktuelle Hochwasser- Situation in weiten Teilen Mittel- und Süddeutschlands kein Beleg für eine „Klimaerwärmung“- im Gegenteil. In der Vergangenheit traten Unwetter, verbunden mit Hochwasser oder die Sturmfluten an den Küsten, bevorzugt am Beginn der Abkühlungsphasen auf (schwerstes Hochwasser des 2. Jahrtausends in Deutschland 1342, als bis zu 14 Meter tiefe Schluchten innerhalb weniger Tage gerissen wurden, siehe GLASER 2008; Marcellus- Sturmflut 1362, Thüringer Sintflut Ende Mai 1613, Ostsee-Sturmflut November 1872). Leider hat es also fast auf den Tag genau 400 Jahre nach der „Thüringer Sintflut“ dort wieder ein schweres Hochwasser gegeben, dessen Auswirkungen glücklicherweise aber nicht ganz so dramatisch waren. Mögliche Ursachen für die verstärkten Unwetter in Abkühlungsphasen sind sich verschärfende Temperaturgegensätze zwischen hohen und niederen Breiten (die Abkühlungen setzen meist im Norden ein und fallen dort stärker aus) sowie die Trägheit des Klimasystems- die von der vergangenen Erwärmungsphase gespeicherte Energie wird nun freigesetzt.
Wetter und Klimasind also so normal wie schon immer. Erfreuen wir uns am Wetter, wie es ist. Und für das bislang witterungsmäßig äußerst bescheidene Jahr 2013 halten wir es mit den Aussagen berühmter Persönlichkeiten vergangener Zeiten wie Heinrich Heine und Kurt Tucholsky: "Der Deutsche Sommer ist ein grün angestrichener Winter“, und "Wegen ungünstiger Witterung fand die Deutsche Revolution (bloß) in der Musik statt.“ Wie man sieht, hat sich beim Wetter nichts Gravierendes verändert. Wir können es nicht beeinflussen, genauso wenig, wie wir seine Integrationsgröße, das Klima, beeinflussen können und das sog. 2°-Ziel der Politik als Unsinn entlarvt oder besser ausgedrückt, als Abzocke Instrument.
Unser derzeitiges Wetter/Klima ist nichts Außergewöhnliches, sondern „normal“ und hüten wir uns vor Propheten, die uns anhand von Modellen erzählen wollen, wie denn das Klima im Jahr 2100 sein wird. Erstens ist solches mit Modellen gar nicht möglich und zweitens, wollen die meist nur unser Bestes, unser Geld nämlich. Die einen, um die Staatskassen zu sanieren und die anderen, um weiter Fördermittel zu erhalten. Insofern ist von staatlichen Institutionen, wie dem DWD, nicht viel Aufklärung zu erwarten. Von der Politik, die z.B. “grün“ als Daseinsberechtigung in ihrem Namen trägt, erst Recht nicht. Die Idee dahinter ist immer dieselbe: Wir sollen für die Beteiligung am lebensnotwendigen CO2-Kreislauf Abgaben bezahlen. Dafür versprechen uns dann „Wunderheiler“, das Weltklima zu schützen. Wunderheiler und Heilsprediger hat es in der Menschheitsgeschichte vielfach gegeben – fallen wir nicht darauf herein!
Der angebliche Klimaschutz ist ein Geschäftsmodell. Das hat eindrucksvoll Herr Hartmut Bachmann in mehreren Veröffentlichungen beschrieben. Schließlich war er mit dabei, als der selbsternannte Weltklimarat (IPCC) gegründet wurde:
http://www.klima-ueberraschung.de/
Bezeichnend für unser Land, dass sich die deutschen Medien wieder einmal "ihrer" deutschen Tradition widmen, die in Ostdeutschland bis 1989 zu bestaunen war. In Westdeutschland liegt diese "Tradition" etwas länger zurück. Wir bei EIKE werden das Unsrige tun, die von der deutschen Presse geschaffene Aufklärungslücke auszufüllen. Es wird endlich Zeit, dass solche Institutionen wie PIK = Potsdamer Institut für Klimafolgenforschung, keine öffentliche Unterstützung für ihre Zukunftsmärchen mehr erhalten und sich die dortigen "Wissenschaftler" im harten (wissenschaftlichen) Wettbewerb behaupten, anstatt sich vom Steuerzahler alimentieren zu lassen. Soll es sich im letzten Jahr um einen Betrag von über 20 Millionen Euro gehandelt haben.
Liebe Leser der EIKE-Homepage,
Wer direkt mit dem DWD Kontakt aufnehmen möchte, dem sei diese Adresse empfohlen

 

info@dwd.de

Wir schlagen folgendes Anschreiben vor:
Sehr geehrte Damen und Herren des DWD
DWD-Verlautbarungen der letzten Jahre (z.B. Presse-Mitteilungen) zum Klimawandel sind für uns nicht nachvollziehbar, wie z.B. diese hier:
„Der langfristige Trend zu steigenden Temperaturen ist in Deutschland und weltweit ungebrochen."
(Quelle DWD: http://www.dwd.de/bvbw/generator/DWDWWW/Content/Presse/Pressekonferenzen/2012/PK__03__05__12/ZundF__PK__20120503,templateId=raw,property=publicationFile.pdf/ZundF_PK_20120503.pdf )
Auf der einen Seite sprechen Sie von ungebremster Erwärmung (Zitat w.o.), auf der anderen Seite veröffentlichen Sie die realen Daten aus Deutschland, die offensichtlich das Gegenteil zeigen (www.dwd.deè "Klimawandel")
Als Bundesbehörde sind Sie gesetzlich zur Aufklärung und auch zu Auskunft verpflichtet. Wir bitten Sie daher um eine Antwort, welche diese Widersprüche aufklärt.
Mit freundlichen Grüßen
  
Raimund Leistenschneider – EIKE
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
…………………………………………
Literatur:
Viele Wärmeinseleffekte führen zur Klimaerwärmung.
http://www.wahrheiten.org/blog/2012/06/11/viele-waermeinseleffekte-fuehren-zur-klimaerwaermung/#more-27081
http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-als-massgeblicher-treiber-der-gemessenen-temperaturen/
http://www.eike-klima-energie.eu/news-cache/starker-temperaturanstieg-seit-1979-in-erfurt-warum-co2-dabei-nur-eine-unbedeutende-nebenrolle-spielt-teil-1/
Zukünftige Temperaturentwicklung in Deutschland – Wärmer oder Kälter? (Teile 1 und 2)
GLASER, R. (2008): Klimageschichte Mitteleuropas. 1200 Jahre Wetter, Klima, Katastrophen. 264 Seiten. Primus Verlag, 2. Auflage.
http://wattsupwiththat.com/2013/02/06/the-r-w-wood-experiment/#more-78966 (Anmerkungen von W. ESCHENBACH zum WOOD- Experiment).
Kouvenberg et al, „Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsugaheterophylla needles” (Geology, Januar 2005)
Dr. Friederike Wagner, "Rapid atmospheric CO2 changes associated with the 8,200-years-B.P. cooling event", PNAS, Proceedings of the National Academy of Science of the USA
http://www.eike-klima-energie.eu/climategate-anzeige/the-skeptics-case/Evans, D. M. W. (2012): The Skeptics Case
KE Research, "Rettung von den Klimarettern – Gibt es die "Gefahr für das Weltklima"?", Klaus Ermecke




Wer nicht hören will..:Desertec gibt den Traum vom Export von Solarstrom auf

Bild rechts: Ein Sonnenkraftwerk in Marokko (Photo: Dii)
In einem Telefoninterview mit EurActiv hat der geschäftsführende Direktor von Dii, Paul van Son, zugegeben, dass der ursprüngliche auf dem Export liegende Brennpunkt „eindimensionales Denken“ war.
Obwohl die Industrie-Allianz gebildet worden war, damit im Maghreb erzeugte erneuerbare Energie bis zu 20% des europäischen Strombedarfs bis zum Jahr 2050 decken kann, räumt Dii jetzt ein, dass Europa das meiste seines Verbrauchs aus heimischen Quellen decken müsse.
„Wenn wir über erneuerbare Energie aus Nordafrika reden, wird nur ein kleiner Teil davon den europäischen Markt bedienen”, sagte van Son und fügte hinzu, dass der europäische Markt 90% seines Bedarfs selbst decken könne. „Direkt gesagt, vor vier Jahren ging es bei Desertec nur darum, Energie aus Nordafrika [nach Europa] zu liefern. Wir haben diese eindimensionale Denkweise aufgegeben. Jetzt geht es mehr darum, integrierte Märkte zu bilden, in die erneuerbare Energie ihre Vorteile einbringen kann … Das ist jetzt das Wesentliche“.
Desertec ist ‚zu teuer und utopisch’
Kritiker von Desertec stellten die Durchführbarkeit eines Projektes in Frage, das bis zum Jahr 2050 für Kosten in Höhe von 400 Milliarden Euro 100 GW Strom erzeugen würde; und die Zweifel multiplizierten sich, als Siemens im November vorigen Jahres seinen Rückzug erklärt hatte. Im gleichen Monat hat es Dii nicht vermocht, Unterstützung durch die finanziell schwer gebeutelte spanische Regierung zu erhalten für ein 500 MW CSP [= Communication Service Provider, Netzwerk-Dienstleister] Demonstrationsobjekt in Ouarzazate, Marokko, obwohl das Projekt immer noch läuft.
„Desertec ist in seiner ursprünglichen Form nicht überlebensfähig, weil es zu teuer und utopisch ist. Es hat nur sehr wenig Fördermittel erhalten können. Im Wesentlichen ist es zu einem mehr oder weniger bilateralen Handel geschrumpft“, argumentiert Peter Doege, Präsident von Eurosolar, einer Industriegesellschaft.
Die europäischen Strom-Akteure stellen das ursprüngliche Geschäftsmodell von Dii in Frage und machen geltend, dass der Schwerpunkt auf dem Export inkompatibel mit dem gegenwärtigen Niveau der Netzverbindungen zwischen Maghreb und Europa sowie in Europa selbst ist. Sie fügen hinzu, dass der Markt schon jetzt damit kämpft, zusätzliche Kapazitäten aus erneuerbarer Energie zu absorbieren.
„Auf sehr grundlegende Weise vermissen wir immer noch klare Linien und Kapazitäten für den Export”, meint Susanne Nies, Vorsitzende von Energy Policy and Generation bei Eurelectric, der europäischen Stromindustrie-Gesellschaft.
„Spanien kämpft schon jetzt mit seinen eigenen Überschüssen der Erzeugung mit Erneuerbaren – zusätzliche Importe aus Drittländern würden das Problem mit Sicherheit sehr verschärfen“, fügt sie hinzu.
„Es ist schwierig zu argumentieren, dass die EU zusätzliche RES-Kapazitäten braucht“, sagte sie unter Hinweis auf die technischen, ökonomischen und regulatorischen Rahmenbedingungen, an die das elektrische System angepasst werden muss, um die Energie aufnehmen zu können.
Van Son, der sich wünscht, dass sich Desertec auf Markt-Synergien konzentriert, stimmt zu, dass es noch ein langer Weg vor der Integration in den europäischen Strommarkt ist, sagt aber, dass es ein Fall für die Industrie ist, ihn zurückzulegen.
„Wenn wir die gewaltigen Synergien sehen hinsichtlich realer Geldersparnis, sollte man es Politikern nicht erlauben, keine Vorteile aus diesen Energie-Synergien zu ziehen. Die Schädigung der Einwohner in Europa und dem Nahen Osten ist nicht das, was Politiker tun sollten“, sagte er.*
[*Ob die doppelte Verneinung in diesem Absatz Absicht oder ein Versehen ist, konnte ich nicht entscheiden. A. d. Übers.]
Ungünstige Marktbedingungen
Nordafrikanische Länder, die geographischen Startpunkte der Aktivitäten von Dii, konzentrieren sich darauf, ihren eigenen heimischen Strombedarf zu befriedigen, der rapide wächst. Und sie waren sowieso zögerlich, sich etwas zu öffnen, was sie als ungünstige europäische Marktbedingungen ansahen.
„Wir wissen nicht, ob die Strompreise in Europa uns unsere Investitionen zurückgeben werden”, sagte Mustapha Mekideche, Vizepräsident des staatseigenen algerischen Unternehmens Conseil National Economique et Social (CNES) auf einer Energiekonferenz in Algier im November 2012.
Die staatliche Versorgungsgesellschaft Sonelgaz hat im Dezember 2011 ein Kooperations-Abkommen mit Dii in Brüssel unterzeichnet, trotz der Zweifel algerischer Entscheidungsträger bzgl. Energie über die Zukunft von Dii.
„Die Länder Nordeuropas müssen ihre Bereitschaft zeigen, mit Erneuerbaren erzeugte Energie zu kaufen”, sagte Sonelgaz-Generaldirektor Noureddine Bouterfa in einem algerischen Presse-Interview vor Unterzeichnung des Abkommens.
Trotz des ambitionierten Ziels Algeriens, 40% seines Stromes bis zum Jahr 2030 aus erneuerbaren Energiequellen zu erzeugen, um mehr Gas für den Export freigeben zu können, war der Fortschritt hierauf gerichteter Projekte gering, und eine zugesagte Zusammenarbeit zwischen Dii und Algerien beim Bau eines CSP-Kraftwerkes ist nicht zustande gekommen.
RWE ist immer noch interessiert
Dii hat immer noch Unterstützer, einschließlich des deutschen Unternehmens RWE, das darauf drängt, in den Sektor erneuerbare Energien zu expandieren. In Marokko befindet sich RWE in Verhandlungen in der Desertec am meisten unterstützenden Provinz Maghreb mit Partnern, um eine Koalition zu bilden, dem ersten Schritt in Plänen, 50 MW Solar- und 50 MW Windkraftwerke in UK zu errichten.
„Wir sind überzeugt, dass das Desertec-Projekt eine sehr gute Gelegenheit ist, die Energieversorgung Nordafrikas aus Erneuerbaren zu installieren. Obwohl Manche das Projekt kritisieren, glauben wir, dass es langfristig erfolgreich sein wird“, sagte RWE-Sprecher Martin Pack.
RWE hat bestätigt, dass die von marokkanischen Projekten erzeugte Energie für den lokalen Markt und nicht für den Export bestimmt ist.
Positionen:
Susanne Nies, Vorsitzende der Abteilung Energiepolitik und –erzeugung bei der Industriegesellschaft Eurelectric, sagte:
„Hinsichtlich des Energieverbrauchs ist die Welt derzeit zweigeteilt. Einerseits gibt es in sich entwickelnden Ländern – Türkei, Brasilien, China, Indien usw. – starke Wachstumsraten von eindrucksvollen 8 bis 10% pro Jahr. Nordafrika und Afrika als Ganzes sind tatsächlich Teilhaber dieses Trends. Andererseits sieht sich die OECD-Welt einschließlich Europas bis zum Jahr 2020 einem negativen Energieverbrauchs-Trend gegenüber. Dies liegt an der fortgesetzten Rezession, demographischen Veränderungen und verbesserter Energieeffizienz – trotz der Tatsache, dass die Elektrifizierung noch zunehmen wird.
Das ursprüngliche Geschäftsmodell von Desertec basierte auf dem Export. Dies hätte die Erzeugungskosten wieder herein gebracht. Allerdings muss dieser ursprüngliche ‚Export‘-Gedanke neu überdacht werden, und zwar aus zwei wesentlichen Gründen:
Erstens vermissen wir immer noch sehr grundlegend Leitungen und Kapazitäten für den Export. Diese zu errichten ist technisch schwierig wegen der tiefen Gewässer im Mittelmeer. Mehr noch, die Verbindung zwischen Nordafrika und Europa ist nicht das Problem. Vielmehr lautet die Frage, was mit der zusätzlichen Kapazität passiert, wenn sie erst einmal die Iberische Halbinsel erreicht. Spanien kämpft bereits jetzt mit seinen eigenen Überschüssen von Erneuerbaren – zusätzliche Importe aus Drittländern würden dieses Problem mit Sicherheit verschärfen. Spanische Leitungen müssten verstärkt werden, um überschüssigen Strom nach Frankreich zu schicken. Aber die Verbindung über die spanisch-französische Grenze hinweg ist ebenfalls überlastet. Es stimmt zwar, dass es hinsichtlich der Stärkung des mediterranen Rings von Leitungen Fortschritte gegeben hat, aber das muss dringend noch weiter verfolgt werden im allgemeinen Interesse aller betroffenen Länder.
Zweitens ist es schwierig zu argumentieren, dass die EU die zusätzlichen RES-Kapazitäten braucht. [RES= Renewable Energy Sources] Europa befindet sich gegenwärtig in einer Lage, in der die RES-Kapazität im Wettbewerb steht, existierende konventionelle Kraftwerke zu ersetzen. Diese Verschiebung erfordert die Lösung zahlreicher Systemprobleme, einschließlich der Neu-Synchronisation des Systems nach der Entwicklung von RES, insbesondere hinsichtlich des veränderlichen Windes und der Sonnenscheindauer. Obwohl diese Variabilität nicht selbst das Problem ist, zwingt es das System dazu, seine Funktionsweise zu ändern, was auch bedeutet, dass man für die Anpassung technischer, ökonomischer und regulatorischer Rahmenbedingungen Zeit braucht. Wird während dieser Zeit sogar noch mehr RES aus Desertec in das System geleitet, würde dieser Prozess nicht unterstützt werden.
Und es gibt noch einen Grund, warum man hinsichtlich der ursprünglichen Export-Dimension vielleicht noch etwas skeptischer sein sollte, und zwar die Unsicherheit über den eigenen Energieverbrauch in Afrika. Es wäre ein großer Fehler von Seiten Afrikas, die eigene heimische Stromerzeugung und Versorgungssicherheit aufs Spiel zu setzen, um die Nachfrage in Europa befriedigen zu können. Die Nachfrage in Afrika übersteigt schon jetzt das Angebot. Gleichzeitig muss die Kohlenstoff-Falle vermieden werden. Ein überzeugendes Geschäftsmodell wird hierfür gebraucht. Die Bewegung weg von sehr teurem CSP hin zu Windkraftanglagen, die näher am Markt sind, aber auch zu großen Photovoltaik-Anlagen ist sicherlich das Richtige“.
Link: http://www.euractiv.com/energy/desertec-abandons-sahara-solar-p-news-528151
Übersetzt von Chris Frey EIKE




Marc Morano – Climate Depot- bei der Anhörung des US-Kongresses zur Klimaänderung: ‚Die Ursprünge der und Antwort auf die Klimaänderung‘

Eingereichte schriftliche Aussage von Marc Morano, Publizist von Climate Depot und ehemaliges Mitglied des Environment & Public Works Committee im US-Senat 
Präsentiert auf dem Gipfeltreffen zur Klimaänderung in Fairview, West VA am 30. Mai 2013 – Congressman David B. McKinley, P.E. (WV-01) 
Congressional Field Hearing: ‘The Origins and Response to Climate Change’ 
Skeptiker der globalen Erwärmung gerechtfertigt – die Behauptungen einer vom Menschen verursachten globalen Erwärmung kollabieren
Eingereichte Aussage von Marc Morano – Publizist von Climate Depot
Ich möchte mich bei Kongressmitglied McKinley dafür bedanken, diese Anhörung zur globalen Erwärmung moderiert zu haben. Nur zu selten erlebt man eine Klimadebatte in der Welt, geschweige denn eine ausgewogene Anhörung wie diese. Ich bin kein Wissenschaftler, obwohl ich im Fernsehen manchmal so tue, als sei ich einer :). Mein Hintergrund liegt in der politischen Wissenschaft, was zufälligerweise ein idealer Hintergrund ist, um die Behauptungen hinsichtlich der vom Menschen verursachten globalen Erwärmung zu untersuchen. Ich war leidenschaftlicher Verfechter von Umweltthemen, seit Beginn meiner Laufbahn  im Jahre 1991. Ich habe im Jahr 2000 eine „Dokumentation zu den Mythen verfasst, die den Amazonas-Regenwald umgeben“ (hier), und ich war ein voll anerkannter investigativer Journalist, der extensiv über Umwelt- und Energiethemen berichtet hat wie z. B. Entwaldung, gefährdete Spezies, Verschmutzung und Klimaänderung.
In meiner Eigenschaft als Kommunikations-Direktor am Environment and Public Works Committee des US-Senats unter James Inhofe war ich Redenschreiber und habe den ausgezeichneten [award-winning] Blog des US-Senats moderiert. Ich habe zum ersten Mal überhaupt im Jahr 2006 einen Skeptic’s Guide To Debunking Global Warming Alarmism der US-Regierung veröffentlicht. Ich war auch Autor des 255 Seiten starken Bericht des Senats über mehr als 700 Wissenschaftler mit abweichenden Meinungen zur globalen Erwärmung. Er wurde zuerst im Jahr 2007 veröffentlicht und jeweils in den Jahren 2008, 2009 und 2010 aktualisiert. Jetzt bin ich der Publizist der preislich ausgezeichneten Website Climate Depot und arbeite täglich mit Wissenschaftlern, die die jüngsten begutachteten Studien und Daten zur Klimaänderung untersuchen.
Die wissenschaftliche Realität lautet, dass sich hinsichtlich fast jeder Behauptung – von A bis Z – der Befürworter der vom Menschen verursachten Klimaängste diese als falsch herausstellen, und in vielen Beispielen bewegen sich die Behauptungen in die entgegen gesetzte Richtung. Die Bewegung der globalen Erwärmung erleidet den wissenschaftlichen Tod durch Tausend Schnitte!
Die globalen Temperaturen sind seit mehr als einem Jahrzehnt gleich geblieben, und in der begutachteten Literatur wird die Größenordnung der zukünftigen Erwärmung herab gestuft. In den USA gab es die längste Periode seit dem Bürgerkrieg, ohne dass ein Hurrikan der Stärke 3 oder stärker auf das US-Festland übergegriffen hätte. Starke F3- oder noch stärkere Tornados nehmen seit den fünfziger Jahren ab. Die globale Ausdehnung von Meereis (beide Pole) liegt gegenwärtig höher als normal. Das Meereis um die Antarktis erreichte 2013 einen neuen absoluten Rekord. Trotz Behauptungen, dass Schnee eine Sache der Vergangenheit sei, ist Schneefall während der kalten Jahreszeit in den letzten Jahren auf ein Rekordniveau gestiegen. Der Anstieg des Meeresspiegels zeigt keine Beschleunigung und verlief seit über einem Jahrhundert völlig gleichmäßig. Dürren und Überschwemmungen sind weder historisch ungewöhnlich noch vom Menschen verursacht, und es gibt keine Beweise dafür, dass wir gegenwärtig irgendwelches ungewöhnliche Wetter haben (hier). Die Zahl der Eisbären, einst das Aushängeschild der Klima-Angstbewegung, liegt bei oder nahe bei einem historischen Hoch. Cholera und Malaria folgen ebenfalls nicht den Vorhersagen der globalen Erwärmung.
Die Mainstream-Medien können das offizielle Narrativ der vom Menschen verursachten globalen Erwärmung nicht länger aufrecht erhalten. Mit dem Fehlen von Erwärmung und dem Scheitern, die Klimadebatte hin zu „extremem Wetter“ zu verschieben (hier) verlieren die Warmisten inzwischen einst überzeugte Teile der Medien bei der Propagierung der menschengemachten Klimaängste. Die Erde folgt einfach nicht den Vorhersagen der globalen Erwärmung, und die neue Studie, in der behauptet wird, dass die gegenwärtigen Temperaturen die „heißesten jemals“ seien, ist in Gefahr der vollen wissenschaftlichen Zurückweisung (hier). Der große Rückzug der Warmisten hat offiziell begonnen.
Der Gedanke, dass das CO2 der Schwanz ist, der mit dem Hund wedelt, ist wissenschaftlich nicht länger haltbar. In der begutachteten Literatur finden wir, dass Hunderte Faktoren die globale Temperatur beeinflussen, alles von Ozean-Zyklen und der Neigung der Erdachse bis hin zu Wasserdampf, Methan, Wolken-Rückkopplungen, Vulkanasche – alle diese Faktoren beeinflussen das Klima genauso wie CO2. Neue Studien widersprechen dem uns von unseren SUVs* eingetrichterten einfachen Zusammenhang, dass wir einen sich gefährlich erwärmenden Planeten schaffen. In den Proceedings of the National Academy of Science gab es eine Studie, in der der chinesische Verbrauch von Kohle für das Fehlen der globalen Erwärmung verantwortlich gemacht wird. In einer ironischen Volte behaupten die Befürworter der globalen Erwärmung jetzt, dass uns der Kohleverbrauch vor einer gefährlichen globalen Erwärmung schützt.
[*Ich bin nicht darauf gekommen, was SUV hier heißen soll. Die in Suchmaschinen angebotene Lösung kann es jedenfalls nicht sein. Kann mir evtl. ein Kommentator helfen? A. d. Übers.]
Ein CO2-Gehalt von 400 ppm ist nicht alarmierend
Wissenschaftler weisen darauf hin, dass es buchstäblich Hunderte Faktoren gibt, die über das Klima und die Temperatur der Erde bestimmen – nicht nur CO2. Anerkannte Klimatologen haben erklärt, dass eine Verdoppelung oder sogar Verdreifachung keine wesentlichen Auswirkungen auf das Erdklima oder die globale Temperatur haben würden.
Wissenschaftler merken auch an, dass die Erde geologisch gesehen gegenwärtig „CO2-hungrig“ ist, und dass geologische Aufzeichnungen gezeigt haben, dass es bei CO2-Gehalten von 2000 ppm bis 8000 ppm zu Eiszeiten gekommen war. Unabhängig davon haben andere begutachtete Studien gezeigt, dass Temperaturen auf der Erde ähnlich den heutigen Werten waren mit einem bis zu 20 mal höheren CO2-Gehalt. Und in diesem Jahr kam eine begutachtete Studie zu dem Ergebnis, dass das gegenwärtige CO2-Niveau von 400 ppm übertroffen worden ist – ohne jeden menschlichen Einfluss – und zwar vor 12750 Jahren, als der CO2-Gehalt bis zu 425 ppm betragen haben könnte.
Der an der Princeton University lehrende Physiker Dr. William Happer und der NASA-Astronaut und Geologe Dr. Harrison H. Schmitt schrieben am 8. Mai 2013 im Wall Street Journal: „Dank der zielstrebigen Dämonisierung dieses natürlichen und unabdingbaren atmosphärischen Gases durch Befürworter der regierungsamtlichen Kontrolle der Energieerzeugung beläuft sich das konventionelle Wissen über Kohlendioxid darauf, dass es ein gefährlicher Verschmutzer ist. Das ist einfach nicht der Fall!“
Die UN, der Kongress, Kohlenstoff-Steuern und die EPA können nicht das Wetter kontrollieren!
Die Bewegung ‚war zum Scheitern verurteilt’
Eine Bewegung mit Al Gore als Gesicht an der Spitze – eine der am meisten polarisierenden politischen Gestalten – war zum Scheitern verurteilt. Eine Bewegung, die die von Skandalen geschüttelten Vereinten Nationen – denen das amerikanische Volk zutiefst misstraut – als Brutstätte der Wissenschaft gebraucht, konnte nicht von Dauer sein. Gore und das IPCC der UN sanken inzwischen darauf herab, jeden Sturm, jede Überschwemmung, jeden Hurrikan oder Tornado als Beweis für die vom Menschen verursachte globale Erwärmung anzuführen. Die UN wurden dazu degradiert, sich dafür zu prostituieren,  die Menschheit für die globale Erwärmung verantwortlich zu machen. Siehe auch hier und hier.
Aber eine wissenschaftliche Bewegung der Klarheit tritt immer mehr in den Vordergrund: Die UN und der US-Kongress haben nicht die Macht, das Wetter zu regulieren, zu besteuern oder es Gesetzen zu unterwerfen. Siehe hier. Prominente Wissenschaftler fahren fort, den vermeintlichen „Konsens“ in Frage zu stellen. Siehe hier.
Die Bewegung der globalen Erwärmung verliert immer mehr Wissenschaftler, viele davon früher auch Mitglied im IPCC. Siehe hier, vor allem aber auch hier: Schwedischer Top-Klimawissenschaftler sagt, dass die Erwärmung nicht wahrnehmbar ist: „Die Erwärmung der letzten 100 Jahre ist so gering, dass wir sie überhaupt nicht bemerkt hätten, wenn wir keine Klimatologen gehabt hätten, sie zu messen“. Der preislich ausgezeichnete Wissenschaftler Dr. Lennart Bengtsson, einst Mitglied im IPCC: „Wir erzeugen große Angst ohne jede Rechtfertigung“. (hier und hier)
Der ‚Gaia’-Wissenschaftler James Lovelock hat selbst die Kehrtwende vollzogen: „Ich war ein ‚Alarmist‘ hinichtlich der Klimaänderung, ebenso wie Al Gore! Das Problem besteht darin, dass wir nicht wissen, was das Klima macht. Vor 20 Jahren haben wir gedacht, es zu wissen“. (hier)
Der Meteorologe Klaus-Eckart Puls (Deutschland) hat ebenfalls die Kehrtwende vollzogen: Er bezeichnet den Gedanken, dass das CO2 das Klima regulieren kann, jetzt als ‚schiere Absurdität‘. – „Vor 10 Jahren habe ich einfach nachgeplappert, was das IPCC uns weisgemacht hat“. (hier)
Außerdem hat der neuseeländische Klimawissenschaftler Chris de Freitas am 1. Mai 2009 enthüllt, dass „Erwärmung und CO2 nur schlecht miteinander korrelieren“. Er fügte hinzu: „Die Auswirkung von CO2 auf die globale Temperatur liegt bereits nahe dem Maximum. Eine weitere Zunahme hätte immer geringere Auswirkungen“. Und weiter: „die gegenwärtige Warmphase … ist nicht beispiellos – Den Forschungsergebnissen bis heute zufolge scheint es so, als sei der Einfluss zunehmenden CO2-Gehaltes auf die globale Erwärmung fast unmerklich ist. Eine zukünftige Erwärmung könnte es geben, aber es gibt keine Beweise dafür, dass sie sehr stark ausfallen wird“. (hier)
Der australische Geologe Dr. Ian Plimer schrieb am 8. August 2009: „Gegenwärtig hungert die Erdatmosphäre nach CO2“. Plimer, Autor des Skeptiker-Buches Heaven and Earth, fügt hinzu: „Während aller Zeiträume gab es keine Korrelation zwischen Temperaturen und CO2. Wenn es keine Korrelation gibt, kann es auch keine Ursache – Wirkung geben!“
Professor Dr. Doug L. Hoffman, Mathematiker, Computer-Programmierer und Ingenieur, schrieb am 24. August 2009: „Es gab Eiszeiten, als der CO2-Gehalt der Erdatmosphäre viele Male höher lag als heute“. Hoffman, der an Umweltmodellen gearbeitet und im Bereich molekulare Dynamik geforscht hat, war Mitautor des Buches The Resilient Earth aus dem Jahr 2009.
Andere Studien haben gezeigt, dass das Kohlendioxid nicht die Temperaturen auf der Erde kontrolliert, sondern dass das genaue Gegenteil der Fall ist. Siehe die neue Studie über ‚Svensmarks kosmischen Jackpot hier. – Einige Geowissenschaftler möchten den drastischen Wechsel zwische3n heißen und eisigen bedingungen während der letzten 500 Millionen Jahre der Zu- oder Abnahme von Kohlendioxid zuordnen, was sie in komplizierten Wendungen erklären. Laut Svensmark werden die Änderungen durch die Sterne angetrieben, die die Menge des Kohlendioxids in der Luft beeinflussen. Klima und Leben kontrollieren CO2, nicht umgekehrt … Die UK Royal Astronomical Society in London veröffentlicht Svensmarks jüngste Studie.
Viele skeptische Wissenschaftler weisen darauf hin, dass Daten aus Eisbohrkernen zufolge Temperaturänderungen den Änderungen des CO2-Gehaltes vorausgegangen waren. Siehe ‚die Daten aus Eisbohrkernen zeigen eindeutig, dass Temperaturzunahmen generell einer Zunahme des CO2 um viele hundert bis zu einigen tausend Jahren voraus gegangen waren hier.
‘Die Temperatur treibt CO2’
Der Geologe Dr. Robert Giegengack, einst Leiter des Department of Earth and Environmental Science an der University of Pennsylvania, hat sich im Jahr 2007 gegen Ängste vor zunehmenden Auswirkungen des CO2 ausgesprochen, die von Gore und anderen geschürt worden sind. Er schrieb: „Es ist schwer für uns zu sagen, dass das CO2 die Temperatur treibt. Es ist viel leichter zu sagen, dass die Temperatur den CO2-Gehalt treibt“ (LINK). „Der treibende Mechanismus ist genau das Gegenteil von dem, was Al Gore behauptet, sowohl in seinem Film als auch in jenem Buch. Es ist die Temperatur während dieser ganzen 650000 Jahre, die den CO2-Gehalt kontrolliert hat, nicht umgekehrt“. (LINK)
Der Meteorologe Tom Wysmuller: ‚Die gegenwärtige Temperatur und CO2 entkoppeln sich‘ (hier). Selbst wenn man zehn Jahrhunderte zurück geht, gab es keinerlei Zusammenhänge zwischen Temperatur und den CO2-Auswirkungen bzw. dem Fehlen derselben. Von 1000 vor Christus bis zum Jahr 1800, also während einer Periode relativ stabilen CO2-Gehaltes um 280 ppm, fielen die Temperaturen in der Kleinen Eiszeit, um über ein Jahrhundert später wieder zu steigen. Der CO2-Gehalt ging den Temperaturänderungen weder voran noch folgte er ihnen … Das CO2 scheint nur geringe Auswirkungen in BEIDE Richtungen der beobachteten Temperaturen während dieser Periode zu haben … Falls das CO2 wirklich als wesentlicher Treiber der Temperaturen betrachtet wird, führt es einen nicht nachvollziehbaren Eiertanz um diese Zahlen aus‘.
Andere Wissenschaftler stimmen zu:
„Die Kyoto-Theoretiker haben den Karren vor die Pferde gespannt. Es ist die globale Erwärmung, die höhere Niveaus von Kohlendioxid in der Atmosphäre hervorruft, nicht umgekehrt … Eine große Zahl von kritischen Dokumenten, die im Jahre 1995 bei der UN-Konferenz in Madrid eingereicht worden waren, sind spurlos verschwunden. Als Folge war die Diskussion einseitig und stark verzerrt, und die UN haben die globale Erwärmung als eine wissenschaftliche Tatsache erklärt“. Das sagte Andrei Kapitsa, ein russischer Geograph und Forscher antarktischer Eisbohrkerne.
„CO2-Emissionen bewirken absolute keinen Unterschied in irgendeiner Weise … Jeder Wissenschaftler weiß das, aber es zahlt sich nicht aus, das auch zu sagen … die globale Erwärmung als Lokomotive hält die Europäer im Führerstand und die Entwicklungsländer barfuß laufend“. – Dr. Takeda Kunihiko, Vizekanzler des Institute of Science and Technology Research an der Chubu University in Japan.
„Legt man die Gesetze der Physik zugrunde, ist die Auswirkung des menschlichen Beitrags zu den atmosphärischen CO2-Niveaus minimal und nicht unterscheidbar von der natürlichen Variabilität, die zum größten Teil durch den solaren Energieausstoß gesteuert wird“. – Der Atmosphären-Wissenschaftler Robert L. Scotto, der mehr als 30 Jahre Erfahrung als Berater zur Luftqualität hat, arbeitete als ein Manager für einen EPA Superfund contract und ist Mitbegründer von Minnich and Scotto, Inc., einer Beratungsfirma zur Luftreinhaltung. Er war einst auch Mitglied der American Meteorological Society AMS. Scotto ist Meteorologe, der zahlreiche technische Veröffentlichungen und Berichte verfasst oder mit verfasst hat.
„Die vom Menschen erzeugte Energie ist verglichen mit dem allgemeinen Energiebudget so gering, dass sie das Klima einfach nicht beeinflussen kann … Das Erdklima folgt seiner eigenen Geschichte, aber wir können nicht signifikante Trends bei dessen Änderungen festmachen, weil sie viele Millionen Jahre zurück reicht, während das Studium derselben erst vor Kurzem begonnen hat. Wir sind Kinder der Sonne; uns fehlen einfach die Daten, um ordentliche Schlussfolgerungen zu ziehen“. – Das sagte der russische Wissenschaftler Dr. Anatoly Levitin, Leiter des Geomagnetic Variations Laboratory am Institute of Terrestrial Magnetism, Ionosphere und Radiowave Propagation der russischen Academy of Sciences.
Mehr: Special Report: Mehr als 1000 internationale Wissenschaftler bestreiten die Behauptungen zu einer vom Menschen verursachten globalen Erwärmung – und fordern die UN, das IPCC und Al Gore heraus (hier).
Mehr als 700 Wissenschaftler an 400 Institutionen in 40 Ländern haben begutachtete Studien mit Beweisen präsentiert, dass die Mittelalterliche Warmzeit real war und global aufgetreten ist, und dass es damals wärmer war als heute (hier) – als das CO2-Niveau vermutlich niedriger lag.
Klimatologen: ‚400 ppm sind ein Grund zum Feiern’
Die Klimatologen Dr. Patrick Michaels und Chip Knappenberger erklärten, dass 400 ppm CO2 ein Grund zum Feiern seien. „In manchen Kreisen stieß diese Erklärung auf Bestürzung und Zähneknirschen. Aber die angemessene Reaktion wäre eine Feier“, schrieben Michaels und Knappenberger am 14. Mai 2013.
„Energie aus fossilen Treibstoffen sorgt für etwa 80% der Energieerzeugung in der Welt – ein Wert, der seit 40 Jahren ziemlich konstant ist. Während dieser Zeit hat die globale Bevölkerung um 75% zugenommen, und der globale Energieverbrauch hat sich verdoppelt. Der globale Energieverbrauch pro Kopf hat zugenommen, während der globale Energieverbrauch pro 1000 Dollar des Bruttoinlandproduktes abgenommen hat. Wir verbrauchen mehr Energie, aber wir tun es effektiver. In der entwickelten Welt hat sich die Lebenserwartung seit dem Heraufdämmern der Ära fossiler Energie verdoppelt“, schrieben sie.
„Wie wir kontinuierlich kommentieren (siehe unseren jüngsten Beitrag), zeigt die Wissenschaft immer mehr, dass die Rate der von CO2 induzierten Klimaänderung (und folglich dessen Magnitude zu irgendeinem Zeitpunkt) nicht so groß ist wie allgemein dargestellt. Je niedriger die Rate der Änderung, umso geringer die daraus resultierenden Folgen. Wenn die Rate niedrig genug liegt, wirken die Kohlendioxid-Emissionen insgesamt vorteilhaft. Wir möchten die Leser daran erinnern, dass es nicht die Wärme, sondern die Sensitivität ist, wenn es um Kohlendioxid geht, und die Sensitivität ist offenbar überschätzt worden“, fügten Michaels und Knappenberger hinzu.
„400 ppm Kohlendioxid in der Atmosphäre sollten uns an unseren fortgesetzten Erfolg erinnern, die globale Versorgung mit Energie so auszuweiten, dass der zunehmende Bedarf gedeckt werden kann. Dieser Erfolg führt unvermeidlich zu einer Verbesserung des Lebensstandards und zu einer Reduktion der Verwundbarkeit durch die Launen von Wetter und Klima. 400 ppm ist ein Grund zum Feiern. Eine Welt, die nur durch Feuer erleuchtet wird, ist es nicht“, schlossen sie.
Behauptung der Warmisten: Das letzte Mal, als der CO2-Gehalt so hoch war – stand die Welt damals unter Wasser? Wirklichkeit: Nein, eigentlich nicht – die Eisschilde sind NICHT vor 3 Millionen Jahren geschmolzen, sagen Wissenschaftler (hier). Es ist die Art des Lernens, die die Denkweise der Menschen über das vergangene Klima verändert und was die Zukunft für uns bereit hält.
Die größten Eisschilde der Welt sind wahrscheinlich stabiler als ursprünglich angenommen (hier): Bis heute haben viele Forschergruppen diese Küstenlinie studiert und gefolgert, dass während einer Warmzeit vor drei Millionen Jahren die Eisschilde von Grönland, der Westantarktis und teilweise der Ostantarktis kollabiert sind, was den Meeresspiegel mindestens um 35 Meter hat steigen lassen. Aber die neuen Ergebnisse von Rowley und seinem Team zeigen, dass diese Eisschilde, besonders der ostantarktische Eisschild (der größte der Welt) wahrscheinlich stabiler waren (hier).
Es gibt keine Korrelation zwischen der globalen Meereisbedeckung und CO2: Seit die Erde Hansens Tipping Point von 350 ppm CO2 hinter sich gelassen hat, gab es keinen Trend bei der globalen Meereisausdehnung. Diese Ausdehnung ist sogar derzeit größer als zu der Zeit, als der CO2-Gehalt bei 350 ppm lag. (hier)
Die Schneebedeckung der Nordhemisphäre zeigte eine scharfe Ausweitung, seit der CO2-Gehalt 350 ppm überschritten hat (hier). Rutgers University Climate Lab: Die Ausdehung der schneebedeckten Gebiete auf der Nordhemisphäre von November bis April hat stark zugenommen, seit der CO2-Gehalt Hansens Tipping Point von 350 ppm hinter sich gelassen hat. Es gibt keinen langzeitlichen Trend und keinen irgendwie gearteten Hinweis, dass Schneefall und CO2 auf irgendeine Art und Weise korrelieren.
Die Website Real Science feierte den steigenden CO2-Gehalt und behauptet in einem Artikel vom 11. Mai 2013, dass „die Menschheit mit dem zunehmenden CO2-Gehalt aufblüht“ (hier). Die Aktivisten der globalen Erwärmung behaupten unverdrossen, dass ‚400 ppm CO2 die menschliche Rasse auslöschen werden‘. Die Zahlen zeigen jedoch etwas ganz Anderes, erklärt Real Science mit einer angefügten Graphik.
Washington DC rutscht in die Klima-Astrologie ab
Klar gesagt: ein Mann – Präsident Obama – der erklärt hat, dass ‚sich während seiner Präsidentschaft der Anstieg des Meeresspiegels verlangsamen würde‘ (hier), hat kein irgendwie geartetes Recht zu behaupten, dass er etwas von der Materie versteht, geschweige denn der Wissenschaft in irgendeiner Weise Vorschriften zu machen. – Ein Präsident, der behauptet, dass die Amerikaner an der Wahlurne ‚etwas tun können‘ hinsichtlich Überschwemmungen, Hurrikanen, Dürren und Tornados, spricht nicht für die Wissenschaft.
Die Befürworter der globalen Erwärmung haben im Prinzip erklärt, dass die globale Erwärmung viele Schlechtwetter-Ereignisse zeitigen würde (hier). Und da es immer wieder zu Schlechtwetter-Ereignissen kommt, ist an ‚Beweisen‘ für diese Behauptung kein Mangel. Sie können jedes solches Ereignis als Beweis für die Richtigkeit ihrer Behauptungen anführen. Es gibt inzwischen niemanden mehr, der die Behauptungen zur globalen Erwärmung falsifizieren kann, weil jedes Wetterereignis ihre Einschätzung ‚beweist‘, trotz der Tatsache, dass das gegenwärtige Wetter weder historisch beispiellos noch ungewöhnlich ist. Siehe den neuen Extremwetter-Bericht 2012 hier.
Der IPCC-Wissenschaftler Kevin Trenberth hat gesagt, dass jedes Wetterereignis jetzt durch die globale Erwärmung beeinflusst wird. Sie verwandeln sich selbst in antiwissenschaftliche Aktivisten. Wenn man etwas ohne Beweis behauptet, ist es eine Hypothese – dass es ‚die globale Erwärmung überall gibt‘ – es ist ein religiöses Gefühl. Es ist, als ob man sagt, dass Gott überall ist und dass alles, was man macht, von Gott geführt wird. Das kann man weder beweisen noch widerlegen. Und jetzt sagen sie hinsichtlich der globalen Erwärmung, dass jeder Sturm von der globalen Erwärmung geführt wird … Aber wir wollen einmal auf all die niedrigen CO2-Stürme schauen [the low CO2 Storms] … Ihre Theorie, dass das Wetter irgendwie ungewöhnlich ist und dass wir eine ‚neue Normalität‘ haben, ist nicht nur nicht überzeugend, sondern schlichtweg lächerlich, wenn man sich tatsächlich einmal die harten Fakten anschaut.
Wird eine Kohlenstoff-Steuer Tornados verhindern?! Die US-Senatoren Boxer und Whitehouse sowie andere Aktivisten der globalen Erwärmung sind zu Harlekinen verkommen mit ihren Versuchen, eine Naturkatastrophe in Oklahoma für ihre Zwecke auszuschlachten. Haben Sie kein Anstandsgefühl, verehrte Senatoren? (hier).
Rückerinnerung an 1975: für eine verheerende Tornado-Serie wurde die globale ABKÜHLUNG verantwortlich gemacht (hier).
Senatorin Boxer (Demokraten) macht die globale Erwärmung für Tornados verantwortlich – sie begründet ihren Gesetzentwurf zur Kohlenstoffsteuer mit schlechtem Wetter: „Dies ist Klimaänderung. Wir wurden vor extremem Wetter gewarnt … wir müssen unsere Bevölkerung schützen – Kohlenstoff könnte uns unseren Planeten kosten“. Ein Sonderbericht bei Climate Depot widerlegt die Verbindung zwischen globaler Erwärmung und Tornados (hier)
Wettermacher im Kongress: Die Klima-Astrologin Boxer warnt vor ‚Dürren, Überschwemmungen, Bränden, dem Aussterben von Spezies‘ – falls der Senat das Klimagesetz nicht passieren lässt (11. Juli 2009, hier)
Demokratische Senatorin Boxer: Das Scheitern des Zertifikate-Handels im Jahr 2010 verursachte ‘heißere Tage’ und ‘noch mehr schwere Stürme’ (hier)
Senatorin Boxer: Die globale Erwärmung ‚gefährdet unmittelbar das Leben unserer Enkel‘ (hier)
Klima-Rührseligkeit: Senatorin Debbie Stabenow von den Demokraten im Jahr 2009: ‚die globale Erwärmung erzeugt Volatilität. Ich fühle es, wenn ich fliege. Die Stürme werden volatiler‘ (hier) – Wir zahlen den Preis in Form von mehr Hurrikanen und Tornados.
Das ist nur eine kleine Sammlung von Beispielen, wie Obama und die Demokraten die Klimawissenschaft missbrauchen, um billige Politik durchzusetzen.
Obamas Klima-Astrologe: der ehemalige Energieminister Chu behauptet zu wissen, ‚wie die Zukunft in hundert Jahren von heute an aussieht‘ (hier). – Antwort von Morano: Sollte Chu diese Angst erzeugenden Vorhersagen für das Jahr 2100 nicht lieber auf einer Strandpromenade mit einem vollen Stapel von Tarot-Karten anpreisen?
Obama lässt die Klimawissenschaft in seiner Rede an die Nation 2013 außen vor – die Widerlegung der Behauptungen des Präsidenten zur globalen Erwärmung von Climate Depot Punkt für Punkt (hier) – Antwort von Morano: Herr Präsident, Gesetze des Kongresses, die UN oder die EPA können keine Stürme oder Wetterlagen verändern!
Obama hofft, mit seiner neuen Kampagne den Skeptitzismus zum Schweigen zu bringen, trotz der Tatsache, dass die GOP [= Grand Ole Party, die Republikaner] eine pro-wissenschaftliche Haltung einnimmt, wenn es um die Befürchtungen der vom Menschen verursachten globalen Erwärmung geht. Siehe ‚Lord Christopher Monckton verteidigt die GOP gegen die Angriffe von Obama: Obamas Klima-Video adelt die Mitglieder der GOP, die sagen, wie es wirklich ist – Monckton sagt, dass die GOP hinsichtlich des Klimas den gesunden Menschenverstand walten lässt‘ (hier).
Die unbequeme Wahrheit für Obama lautet, dass er und seine mitlaufenden Demokraten viele völlig ignorante und oftmals komische Behauptungen zur Klimawissenschaft aufgestellt haben. Klar gesagt: ein Mann – Präsident Obama – der erklärt hat, dass ‚sich während seiner Präsidentschaft der Anstieg des Meeresspiegels verlangsamen würde‘ (hier), hat kein irgendwie geartetes Recht zu behaupten, dass er etwas von der Materie versteht, geschweige denn der Wissenschaft in irgendeiner Weise Vorschriften zu machen.
Präsident Obama hat auch behauptet, die „Strahlen der Sonne blockieren zu können, um die globale Erwärmung zu beenden“ (hier). Außerdem stellte er die wissenschaftlich völlig unhaltbare Behauptung auf, dass das Waxman-Markey-Gesetz aus dem Jahr 2009 die globale Temperaturzunahme um bis zu fünf Grad verringern werde! Am 25. Juni sagte Obama: „Ein langzeitlicher Vorteil wäre es, wenn wir unseren Kindern einen Planeten hinterlassen würden, der nicht vier bis fünf Grad wärmer ist“. Aber Obamas eigene Umweltagentur EPA sagt, dass dieses Gesetz das globale CO2-Niveau nicht beeinflussen werde, geschweige denn die globalen Temperaturen.
Obama setzt voll auf Hexerei, wenn er seinen Wählern erzählt, dass sie gegen Dürren und Überschwemmungen und Buschbrände ‚etwas tun können‘ (hier). – Morano von Climate Depot erinnert aber die Wähler: „Gesetze der UN, des US-Kongresses oder der EPA können nicht das Wetter beeinflussen!“
ENERGIE
Kohle ist die ‚moralische Wahl’ – grundlose Klimaängste kapern die US-Energiepolitik
Funktionierende Energieerzeugung (aus Kohle, Erdgas, Öl) wird unterdrückt. Als primäre Energiequellen völlig ungeeignete (Wind, Sonne) werden gefördert.
Kohle und andere auf Kohlenstoff basierende Energieformen waren eine der größten Fortschrittsbringer in der Geschichte unseres Planeten. Ist es verwerflich, sich Wärme, Strom, geringere Kindersterblichkeit und längere Lebenserwartung zu wünschen? Kohle ist die moralische Wahl.
Die USA müssen ‚ethische Energie’ der Konflikt-Energie vorziehen – die Begrenzung von Bohrungen, Bergbau, Pipelines und Energieausbeutung in den USA kann nur zu größerer Abhängigkeit von Konfliktenergie aus Gebieten wie dem Nahen Osten, Venezuela und China führen, wo Menschenrechte und Umweltschutz wenig Beachtung finden.
„Wenn man eine Energiepolitik genau rückwärts gewandt ausführen möchte, sollte man genau das tun … die Führer dieser grünen Unternehmen sind Ideologen, in vielen Fällen Milliardär-Ideologen, die hunderte Millionen Dollar von unserer Regierung bekommen … die Verbraucher müssen das meiste davon tragen, und zwar wegen der schlechten Energiepolitik, die sich aus schlechter Wissenschaft ergeben hat“.
Weiterführende Links: 
Feiert! Kohle ist die moralische Wahl für die Armen der Welt! Weltweit werden 1200 neue Kohlekraftwerke in 59 Ländern geplant, drei Viertel davon in Indien und China (hier)
Diese riesige Ausweitung erfolgt trotz der Warnungen von Politikern und Wissenschaftlern, dass sich die rasch steigenden Kohlendioxid-Emissionen verringern müssen … wenn eine Runaway-Klimaänderung vermieden werden soll.
Antwort von Climate Depot: Lachen wir alle über ‚Runaway-Klimaänderung‘. Energiearmut ist ein Todesurteil. Auf Kohle basierende Energien sind eine der größten Befreier der Menschheit in der Weltgeschichte.
Kohle ist die moralische Wahl! In vielen afrikanischen Ländern wird der Bau eines Kohlekraftwerkes die CO2-Emissionen reduzieren (hier)
Wie? Weil es Millionen Familien gibt, die keinen Strom haben und folglich mit Holz oder Dung kochen müssen. Diese Feuer brennen ineffizient und erzeugen nicht nur Kohlendioxid, sondern auch viel Luftverschmutzung, die die Menschen krank macht oder sie sogar sterben lässt. Wenn tausende dieser Feuer durch ein modernes Kohlekraftwerk ersetzt werden, wäre der Gesamteffekt eine verbesserte Luftqualität und weniger CO2 pro Energieeinheit.
Jetzt sehen: Morano von Climate Depot im kanadischen Fernsehen: Stellt Earth Hour ab! Warum feiern wir die Dunklen Zeitalter? Warum feiern wir etwas, das Nordkorea bereits erreicht hat?! (hier)
Morano: Die Leute sollten Earth Hour verabscheuen. Kohlenstoffbasierte Energie ist eine der größten Befreier der Menschheit in der Geschichte unseres Planeten … eine der moralischsten (Energie-)Wahlen, die wir haben, sind heutzutage Kohlekraftwerke in der ganzen Welt … Sowohl Solar- als auch Windenergie sind im Wettbewerb mit fossiler Energie gescheitert. Ihre Schlusslichter sind erloschen, und keine noch so großen Subventionen oder Förderungen können daran etwas ändern (hier)
Chinesische Kohle wird für die globale Erw… ahem, Abkühlung verantwortlich gemacht: Prof. Judith Curry findet statistische Tricks nicht überzeugend … es gab von 2000 bis 2006 keine Zunahme der Aerosole, weder global noch in Ostasien (hier). Prof. Curry: „Die politische Konsequenz dieser Studie scheint zu sein, dass die einfachste Lösung hinsichtlich der globalen Erwärmung darin besteht, die Chinesen zu ermuntern, noch mehr Kohle zu verbrennen, was sie ohnehin vorhaben“.
Begutachtete Studie: Der Verbrauch von Kohle hat uns geholfen, die Welt vor einer gefährlichen globalen Erwärmung zu retten! Robert Kaufmann und Kollegen von der Boston University haben kürzlich eine Studie in den Proceedings of the National Academy of Sciences veröffentlicht, in der die Gründe für den jüngsten Mangel an globaler Erwärmung untersucht werden. Sie kamen zu dem Ergebnis, dass es einfach die natürliche Variabilität ist, verstärkt durch zunehmende Sulfat-Emissionen durch den dramatisch zunehmenden Kohleverbrauch in China (hier).
Eine begutachtete Bestätigung, dass die globalen Temperaturen zwischen 1998 und 2008 nicht gestiegen sind, findet sich hier.
Der Physiker Dr. Lubos Motl: Hat chinesische Kohle zur Abkühlung seit 1998 geführt? Sie zeigt immer noch, wie unglaublich flatterhaft und vorübergehend Mainstream-Meinungen über die Treiber des Klimas sind (hier). – Motl: Plötzlich ist ein alter, Fox News schauender Herr der primäre Grund einer Studie, die eine ganze Dekade von Erwärmung hinweg erklärt durch einen zuvor abgelehnten Mechanismus … der Gedanke, dass die Erwärmungs-Vorhersage wegen der chinesischen Kohle gescheitert sind, ist lediglich eine Randabschätzung; eine unter hunderten anderer möglicher Erklärungen … warum geben diese Leute nicht ehrlich zu, dass sie einfach keine Ahnung haben, was seit 1998 passiert ist und was bis 2020, 2030 oder 2100 passieren wird?
Hintergrundmaterial:
Climate Depot – Bericht über Extremwetter: „Extremwetterereignisse gibt es immer, und es gibt keine Beweise für deren systematische Zunahme. Präsentiert auf der UN-Klimakonferenz in Doha am 6. Dezember 2012.
Der ganze Bericht findet sich hier.
Wissenschaftliche Studien und die Daten stehen gegen die Behauptungen zu Extremwetter. Die jüngsten begutachteten Studien, Daten und Analysen unterminieren die Behauptungen, dass das Wetter „extremer“ oder „beispiellos“ ist. An entscheidenden Stellen halten Behauptungen zu Extremwetter im gegenwärtigen Klima einer genauen Untersuchung nicht stand.

  • Todesfälle durch Extremwetter nehmen radikal ab, die globale Aktivität tropischer Wirbelstürme befindet sich auf einem Rekord-Tief, die Häufigkeit starker US-Hurrikane hat abgenommen, die Anzahl von Tornados ist seit den fünfziger Jahren dramatisch zurück gegangen, Dürren sind historisch weder ungewöhnlich noch vom Menschen verursacht, und es gibt keine Beweise, dass gegenwärtig ungewöhnliches Wetter herrscht.
  • Extreme: Der Klimatologe Dr. John Christy in einer Aussage vor dem Kongress: „Extremereignisse wie die jüngste Dürre in den USA wird es immer wieder geben, mit oder ohne menschliche Beiträge. – Diese jüngsten US-‚Extreme‘ wurden in früheren Dekaden übertroffen – Die Behauptung von ‚schlimmer als wir gedacht haben‘ in James Hansens Op Ed hält einer genauen Untersuchung nicht stand“.
  • Tornados: Ein Klimatologe: “Es gab einen abnehmenden Trend starker und sehr starker Tornados (F3 bis F5) Tornados in den USA seit den fünfziger Jahren – Erwärmung bringt weniger starke Tornados, nicht mehr“ (hier)
  • Dürren: Eine Studie im Journal Nature zeigt, dass es hinsichtlich Dürren während der letzten 60 Jahre kaum Änderungen gegeben hat (hier)
  • Überschwemmungen: Prof. Pielke Jr.: „Nehmen Überschwemmungen in den USA zu? Die Antwort lautet immer noch nein – eine neue, heute veröffentlichte Studie zeigt, dass Überschwemmungen laut Aufzeichnungen von 85 bis 127 Jahren nicht zugenommen haben“ (hier)

Der ganze Bericht steht bei www.ClimateDepot.com  – Morano@ClimateDepot.com – 202-536-5052
Soweit die Aussage von Marc Morano, Publizist von Climate Depot und ehemals Mitglied im  Environment & Public Works Committee des US-Senats.
Hier einige Pressestimmen:
Associated Press stellt Climate Depot vor: „Wissenschaftler und Leugner der Klimaänderung treffen in West Virginia bei einer Anhörung des Kongresses aufeinander – Morano in der Debatte: ‚Der Kongress muss den Mut aufbringen, gar nichts hinsichtlich der Regulierung von Kohlendioxid-Emissionen zu tun‘“ (hier): Ein republikanisches Mitglied des Kongresses versucht, allgemeine Gründe für die Klimaänderung zu finden, weil das von fossilen Treibstoffen abhängige West Virginia von gesetzlichen Änderungen der [US]-Bundesregierung direkt betroffen wird. Aber der Konflikt zwischen Wissenschaft und Ideologie, von der der Republikaner David McKinley spricht und der die Diskussion in Washington einfriert, kommt auch nach Fairmont. Marc Morano von Climate Depot sagt, dass der Kongress den Mut haben muss, hinsichtlich der Regulierung von Kohlendioxid-Emissionen gar nichts zu tun. Gleichgesinnte Teilnehmer der Diskussion stimmen dem zu und sagen, dass solche Regulationen die Energiepreise steigen lassen und den Lebensstandard verringern können. – Aber Professor Scott Denning von der University of Colorado sagt, dass die Menschen neue Technologien willkommen heißen, selbst sie teurer sind, so wie sie von Kerzen und Pferden zu Kohle und Strom gewechselt haben. Annie Petsonk vom Environmental Defense Fund sagt, dass Maßnahmen schon lange überfällig sind. Sie sagt, dass Wälder, Wasserreservoire und Leben in  Gefahr sind“.
Machen wir uns fertig zum lautstarken Protest! Funken sollten fliegen auf einer vom Kongress gesponserten seltenen 3-stündigen Klimadebatte – in der skeptische Wissenschaftler auf Befürworter der globalen Erwärmung treffen – Morano von Climate Depot ist einer der vorgesehenen Redner (hier). Der Republikaner David B. McKinley hat für eine Podiumsdiskussion in Fairmont mit ausgewiesenen Experten im Bereich der Klimawissenschaft geworben.
Thema: Diskussion über die Ursprünge des und wie man dem Klimawandel begegnet – Wer: Das Büro des republikanischen Abgeordneten David B. McKinley und die West Virginia High Tech Foundation . Dieses Ereignis steht den Medien und der Öffentlichkeit offen.
Noch mehr Berichterstattung in den Medien über die Klimaanhörung des Kongresses: Verschiedene Ansichten zur Klimaänderung (hier) – Dr. John Christy, Professor der Atmosphärenwissenschaft und Direktor des Earth System Science Center an der University of Alabama in Huntsville, der an der Konferenz per Videoschaltung teilnahm, sagte den Zuhörern, dass Temperatur-Wärmerekorde in den USA nicht immer häufiger auftreten. Er sagte, dass gegenwärtige Klimamodelle statistisch sehr falsch liegen können.
Podiumsdiskussion zur Klimaänderung in Fairmont hier.
Ein weiterer Link zu einem Fernsehbericht über diese Diskussion ist hier.
Bericht von Associated Press zu dieser Diskussion (hier): Morano, ein ehemaliger Gehilfe des Klimaskeptizismus und Senator James Inhofe aus Oklahoma bezeichnen die Debatten um die globale Erwärmung als „ein idiotisches Schauspiel der Politik“, das „auf minderwertiger Wissenschaft“ basiert. Der Gedanke, dass Kohlendioxid im Besonderen den Klimawandel antreibt, ist „durch nichts zu rechtfertigen“, argumentierte er. „Wir müssen den Mut haben, nichts zu tun, wenn es um die Regulierung von CO2-Emissionen geht“, erklärte Morano und nannte die auf Kohle basierende Energie „einen der größten Befreier in der Geschichte der Menschheit“.
Myron Ebell, Direktor des Competitive Enterprise Institute: „Die befürworteten politischen Maßnahmen sind wahnwitzig.  Wenn man glaubt, dass Energiearmut etwas Gutes ist, sollte man die Kontrolle der Kohlenstoff-Emissionen unterstützen. Aber fast die gesamte Welt stimmt dem nicht zu!“
Der gleich denkende Professor John Christy nennt bezahlbare Energie „die Basis unseres heutigen Lebensstandards“. Ob die Reduktion von CO2-Emissionen das Klima nun beeinflusst oder auch nicht, sagte Christy, er sei sicher, dass die Energiekosten dadurch mit Sicherheit steigen werden. „Ich habe in Afrika gelebt, und ich kann Ihnen versichern, dass das Leben ohne Energie brutal und kurz ist. … Nur weil wir Kohlendioxid erzeugen, sind wir noch keine schlechten Menschen“.
Marc MoranoClimate Depot
Link: http://tinyurl.com/lto2tup
Übersetzt von Chris Frey EIKE