Wissenschaftler: Erwärmung durch CO2 ist viel zu gering, um sich darüber Sorgen machen zu müssen!

Ich möchte ein paar Dinge klarstellen.

Die gesamte Idee, dass Kohlendioxid die Hauptursache der kürzlich erfolgten globalen Erwärmung gewesen ist, wurde durch empirische Beweise seit den neunziger Jahren eindeutig widerlegt. Aber der Erwärmungszug fuhr bereits zu schnell und enthielt zu viele Jobs, Industrien, Profite, politische Karrieren sowie die Möglichkeit einer Weltregierung und im Endergebnis totale Kontrolle. Anstatt zuzugeben, dass sie falsch lagen, halten die Politiker und ihre handzahmen Wissenschaftler jetzt die Fiktion, dass Kohlendioxid ein gefährlicher Giftstoff ist, auf empörende Weise am Leben.

Um es ganz klar zu sagen: Kohlendioxid ist ein Treibhausgas, und je mehr davon in der Luft enthalten ist, umso wärmer ist der Planet. Jedes Bisschen Kohlendioxid, das wir ausatmen, erwärmt den Planeten. Aber die Frage ist nicht, ob, sondern wie stark das Kohlendioxid zur Erwärmung beiträgt.

Die meisten Wissenschaftler auf beiden Seiten stimmen auch darin überein, wie stark ein bestimmter Anstieg des CO2-Anteils in der Atmosphäre die Temperatur des Planeten steigen lässt, wenn man zusätzliches Kohlendioxid berücksichtigt. Diese Berechnungen stammen aus Laborexperimenten; die grundlegende Physik dahinter ist seit einem Jahrhundert verstanden.

Der Streit beginnt damit, was danach kam.

Der Planet reagiert auf dieses zusätzliche Kohlendioxid, was alles ändert. Am meisten umstritten ist der Umstand, dass die zusätzliche Wärme zu größerer Verdunstung aus den Ozeanen führt. Aber bleibt diese zusätzliche Feuchtigkeit einfach in der Luft hängen und lässt den Anteil an Feuchtigkeit zunehmen, oder sorgt dies einfach nur für mehr Wolken und Regen? 1980, als die Theorie vom Kohlendioxid anfing, wusste das niemand. Die Alarmisten schätzten, dass die Menge an feuchter Luft rund um die Erde zunimmt, was zu weiterer Erwärmung führt, weil Feuchtigkeit auch ein Treibhausgas ist.

Dies ist die Kernidee jedes offiziellen Klimamodells. Für jedes einzelne Quäntchen Erwärmung durch Kohlendioxid wird einfach behauptet, dass der zusätzliche Eintrag feuchter Luft zu drei Quäntchen Erwärmung führt. Die Klimamodelle vergrößern den Erwärmungseffekt um den Faktor drei – so dass zwei Drittel ihrer simulierten Erwärmung auf zusätzlichen Feuchteeintrag (und andere Faktoren) zurückgeht; nur ein Drittel wird durch das zusätzliche Kohlendioxid verursacht.

Das ist der Kern dieser Angelegenheit. Alle Streitigkeiten und Missverständnisse haben hier ihren Ursprung. Die Alarmisten gründen ihre Behauptungen auf die Feuchtigkeit in der Atmosphäre, doch gibt es einfach keinen Beweis für diese Verstärkung im Kern ihres Alarmismus.

Seit den sechziger Jahren wurde die Atmosphäre mit Wetterballonen messtechnisch erfasst, viele Tausend pro Jahr. Die Klimamodelle sagen alle übereinstimmend vorher, dass der Planet sich erwärmt, und dass sich ein „Hot Spot“ feuchter Luft in 10 Kilometern Höhe über den Tropen bilden soll, wenn sich die feuchte Luftschicht ausdehnt. Während der Erwärmung in den späten siebziger sowie den achtziger und neunziger Jahren fanden die Ballone keinen „Hot Spot“. Überhaupt keinen. Nicht einmal einen kleinen. Dieser Umstand ist ein klarer Beweis dafür, dass die Klimamodellrechnungen fundamental versagt haben und dass sie den Temperaturanstieg durch Kohlendioxid weit überschätzen.

Dieser Beweis trat Mitte der neunziger Jahre erstmals klar zutage.

An diesem Punkt hörte die „Klimawissenschaft” auf, Wissenschaft zu sein. In der echten Wissenschaft sticht der empirische Beweis immer die Theorie aus, egal wie verliebt man in diese Theorie ist. Aber die offizielle Klimawissenschaft ignorierte den durch die Wetterballone erbrachten Beweis, ebenso wie andere Folgebeweise, die die Wetterballone bestätigten, sondern klebte stattdessen an ihrer Theorie zum Kohlendioxid – hielt sie dies doch in gut bezahlten Jobs mit großzügigen Forschungszuwendungen. Außerdem erhielten sie so politische Macht über ihre Regierungsbeamten.

Mittlerweise gibt es unabhängig voneinander viele verschiedene Beweisstücke, die belegen, dass durch den zusätzlichen CO2-Eintrag die Erwärmung der Erde gedämpft wird. Jedes langzeitliche System verhält sich so und reagiert so auf jede Störung. Anderenfalls würde das System instabil werden. Das Klimasystem bildet da keine Ausnahme, und jetzt können wir das beweisen.

Aber die Alarmisten sagen genau das Gegenteil, nämlich dass das Klimasystem jede Erwärmung durch zusätzliches CO2 beschleunigt und potentiell instabil ist. Es ist keine Überraschung, dass ihre Prognosen der planetaren Temperatur, die sie 1988 sowie 1990, 1995 und 2001 vor dem US-Kongress abgaben, sich allesamt als viel höher herausgestellt haben, als es dann in Wirklichkeit der Fall war.

Sie fahren fort, den erwarteten Temperaturanstieg zu reduzieren, von 0,3°C pro Dekade 1990 auf 0,2°C pro Dekade in 2001 und aktuell 0,15°C pro Dekade – und haben noch die Frechheit, uns zu sagen, es sei „schlimmer als erwartet“. Diese Leute sind keine Wissenschaftler. Sie überschätzen die Temperaturzunahme durch das Kohlendioxid, lehnen selektiv Beweise ab und verbergen inzwischen die Wahrheit.

Eine Art des Verbergens liegt in der Art, wie sie die Temperatur messen.

Die offiziellen Thermometer befinden sich oft im warmen Abwind von Klimaanlagen, über heißen Asphaltflächen an Flughäfen, meist auch noch im Abstrahl von Düsenjets, bei Kläranlagen, wo sich durch das Kompostieren von Faulschlamm Wärme entwickelt oder in aufgeheizten Städten mit vielen Autos und Gebäuden. Die Globale Erwärmung wird in Zehntelgrad gemessen, so dass jede äußere Wärmeeinwirkung von Bedeutung ist. In den USA verletzen fast 90% aller von Freiwilligen bedienten Stationen die Richtlinien bzgl. der Lage, die einen Mindestabstand von künstlichen Heizquellen vorschreiben.

Die globale Temperatur wird auch durch Satelliten gemessen, die nahezu den gesamten Planeten 7 Tage pro Woche 24 Stunden lang ohne Verzerrungen beobachten. Diese Satellitendaten weisen das Jahr 1998 als das wärmste Jahr aus, und dass die Temperatur seit dem Jahr 2001 nicht mehr gestiegen ist (levelled off). Warum folgt die offizielle Wissenschaft nur den Thermometern an der Erdoberfläche und erwähnt die Satellitendaten nicht einmal?

Die Erde befand sich seit den Tiefen der Kleinen Eiszeit um 1680 in einem Erwärmungstrend. Menschliche Emissionen von Kohlendioxid waren vor 1850 vernachlässigbar und kamen erst nach dem Zweiten Weltkrieg richtig in Gang. Daher kann anthropogenes CO2 unmöglich den Trend ausgelöst haben. Innerhalb dieses Trends sorgte die Pazifische Dekadische Oszillation PDO für einen Wechsel zwischen globaler Erwärmung und Abkühlung für jeweils 25 bis 30 Jahre in beide Richtungen. Wir befinden uns gerade am Ende einer Warmphase, so dass man während der nächsten zwei Jahrzehnte eine leichte globale Abkühlung erwarten kann.

Wir befinden uns derzeit aber auch an einem außerordentlichen Zusammentreffen. Die offizielle Klimawissenschaft, vollständig von der Regierung dirigiert und gefördert, treibt eine auf Mutmaßungen über feuchte Luft basierende Theorie voran, doch haben diese Mutmaßungen sich längst als falsch herausgestellt. Die Regierungen nehmen diesen Rat voller Schadenfreude an, weil der einzige Weg, die Emissionen zu drosseln, darin besteht, Steuern zu erheben und die Kontrolle der Regierung über den gesamten Energieverbrauch zu erweitern. Und die Drosselung der Emissionen im weltweiten Maßstab könnte sogar zu einer Weltregierung führen – wie aufregend für die politische Klasse!

Selbst wenn alle CO2-Emissionen ab morgen beendet sind, alle Geschäfte geschlossen sind und wir zurück in die Steinzeit katapultiert werden, würde die Temperatur bis 2050 um 0,015°C zurückgehen. Aber ihre Modelle übertreiben um das zehnfache – tatsächlich würden unsere Opfer den Planet bis 2050 um bloße 0,0015°C abkühlen!

Schließlich, das gilt für alle diejenigen, die immer noch glauben, dass unser Planet durch Emissionen von Kohlendioxid in Gefahr ist: Es tut mir leid, aber man hat Sie hereingelegt! Ja, Kohlendioxid ist ein Grund für globale Erwärmung, aber der Effekt ist so minimal, dass es nicht wert ist, viel für eine Drosselung von Emissionen zu tun.

David Evans

Artikel in der Financial Post  7. April 2011

Financial Post
Der Autor David Evans beriet das Australian Greenhouse Office (jetzt das Department of Climate Change) von 1999 bis 2005 voll und von 2008 bis 2010 in Teilzeit. Er modellierte dabei den Kohlenstoff in Pflanzen, Trümmern, Mulch, Erden sowie von Wald- und Felderträgen in Australien. Er ist Mathematiker und Ingenieur mit sechs Universitätsgraden, einschließlich eines PhD der Stanford-Universität als Elektroingenieur. Die obigen Bemerkungen wurden für die Anti-Carbon-Tax [Protestbewegung gegen die Kohlenstoffsteuer] in Perth am 23. März geschrieben.

Link: http://opinion.financialpost.com/2011/04/07/climate-models-go-cold/

Übersetzt von Chris Frey für EIKE




Die schlecht schmeckende Wahrheit: Die Kernkraft-Nein-Danke-Lobby hat uns alle hinters Licht geführt

In den vergangenen vierzehn Tagen habe ich etwas Schlimmes entdeckt. Die Atomkraft-Nein-Danke-Bewegung, zu der auch ich einmal gehörte, hat die Welt über die Auswirkungen der Strahlung auf die Gesundheit belogen. Unsere Behauptungen waren wissenschaftlich unbegründet, völlig falsch und einer Prüfung nicht standhaltend. Wir haben uns und den anderen Menschen einen Bärendienst erwiesen.

Das Ausmaß des Problems wurde mir nach einer Debatte  mit Helen Caldicott klar. Dr. Caldicott steht in vorderster Linie der Anti-Atomkraft-Aktivisten. Sie besitzt 21 Ehrendiplome und zahllose Preise, war sogar für einen Friedens-Nobel-Preis nominiert. Wie andere Grüne habe ich sie sehr bewundert. In der Debatte stellte sie einige schreckliche Behauptungen über die Gefahren der Strahlung auf. Also habe ich getan, was jeder tun würde, wenn er mit hinterfragbaren wissenschaftlichen Behauptungen konfrontiert wird: Ich habe die Quellen befragt. Frau Caldicotts Antwort hat mich sehr erschüttert. 

Zuerst hat sie mir neun Dokumente geschickt: Zeitungsartikel, Presse-Verlautbarungen und eine Anzeige. Nichts davon waren wissenschaftliche Publikationen; nirgendwo darin befanden sich Quellen für ihre Behauptungen. Nur eine der Presse-Verlautbarungen bezog sich auf einen Bericht der US National Academy of Sciences, den sollte ich lesen. Das habe ich getan – alle 423 Seiten. Keine ihrer Behauptungen wird darin unterstützt; der Bericht widerspricht sogar stark ihren Behauptungen über die gesundheitlichen Auswirkungen von Strahlung.

Da habe ich bei ihr nachgefragt und sie hat mir eine Reihe von Antworten gegeben, die mich erschrecken ließen – in fast allen Fällen bezogen sich die Antworten auf Publikationen ohne oder mit nur geringer wissenschaftlicher Bedeutung, ihre Behauptungen werden darin nicht gestützt oder ihnen wird sogar widersprochen. (Ich habe unsere Korrespondenz und meine Quellen auf meine Webseite gestellt.) Gerade habe ich ihr Buch "Nuclear Power Is Not the Answer" gelesen. Der Mangel an Referenzen auf wissenschaftliche Papiere und die überreichlich vorhandenen unbelegten Behauptungen erstaunen mich sehr.

Während der vergangenen 25 Jahre haben die Atomkraft-Nein-Danke-Aktivisten die Zahlen der Toten und der Krankheiten nach dem Tschernobyl-Unglück immer wieder angeführt, und sie haben missgestaltete Babys wie in einem mittelalterlichen Zirkus vorgeführt. Heute behaupten sie, dass 985.000 Menschen Tschernobyl zum Opfer gefallen wären, und dass die Menschen nachfolgender Generationen noch davon hinweggerafft würden. Diese Behauptungen sind falsch.

Das UN Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) ist eine Parallelorganisation zum Intergovernmental Panel on Climate Change. Wie das IPCC verlässt es sich auf die führenden Wissenschaftler in der Welt, wertet Tausende von Papieren aus und erstellt eine Übersicht. Hier ist das Ergebnis zu den Auswirkungen von Tschernobyl: 

Von den Arbeitern, die bei der Eindämmung der Notlage in Tschernobyl eingesetzt worden waren, haben 134 ein akutes Strahlungssyndrom entwickelt, 28 verstarben bald danach. Neunzehn weitere sind später gestorben, aber nicht an Folgen der Verstrahlung. Die übrigen 87 haben andere Komplikationen erlitten, darin vier Fälle von soliden Tumoren und zwei Fälle von Leukämie.

In der übrigen Bevölkerung gab es 6.848 Fälle von Schilddrüsenkrebs bei Kindern – nahezu vollständig auf das Versagen der Sowjetunion zurückzuführen, die Menschen vom Trinken von Jod 131-verstrahlter Milch zurückzuhalten. Darüber hinaus „hat es keine schlüssigen Beweise anderer gesundheitlicher Beeinträchtigungen der Bevölkerung gegeben, die auf Verstrahlung zurückgeführt werden könnten.“ Menschen, die in den heute noch betroffenen Ländern leben, „brauchen keine Angst vor ernsthaften Folgen des Tschernobyl-Unfalls zu haben“.

Frau Caldicott hat mir erzählt, die UNSCEAR-Arbeit zu Tschernobyl wäre eine "totale Vertuschung". Obwohl ich auf Klärung gedrängt habe, hat sie immer noch nicht den geringsten Beweis für diese Unterstellung geliefert.

In einem Kommentar hat der Umweltredakteur des Guardian, John Vidal, meine Position zur Kernkraft böse gebrandmarkt. Anlässlich eines Besuchs in der Ukraine im Jahre 2006 sah er „missgestaltete und genetisch mutierte Babys in den Anstalten … Heranwachsende mit Wachstumshemmung und Zwergwüchsigkeit, Fötusse ohne Hüften und Finger“. Er hat aber keine Beweise dafür gesehen, dass das mit dem Tschernobyl-Unfall zu tun hätte.

Professor Gerry Thomas, der über die gesundheitlichen Folgen von Tschernobyl für UNSCEAR gearbeitet hat, sagte mir, es gibt "absolut keinen Beweis" für eine Zunahme von geburtlichen Missbildungen. Das Papier der National Academy, das ich auf Drängen von Dr. Caldicott gelesen habe, kam zu gleichen Schlussfolgerungen. Man fand heraus, dass strahlungsverursachte Mutationen in Spermien und Eiern ein derart geringes Risiko sind, "dass nichts davon bei Menschen entdeckt worden ist, noch nicht einmal bei der gründlich untersuchten verstrahlten Bevölkerung von Hiroshima and Nagasaki".

Wie Vidal und viele andere hat mich Frau Caldicott auf ein Buch verwiesen, das behauptet, dass 985.000 Menschen in der Folge des Unglücks verstorben wären. Es ist aus dem Russischen übersetzt und von Annals of the New York Academy of Sciences herausgegeben worden. Es ist das einzige Werk, das wissenschaftlichen Anschein hat und es scheint die wilden Behauptungen der Grünen über Tschernobyl zu unterstützen.

Eine vernichtende Kritik im Journal Radiation Protection Dosimetry zeigt auf, dass das Buch diese Zahl erzeugt durch die erstaunliche Annahme, dass alle Zunahmen von Sterbefällen durch ein weites Spektrum von Krankheiten durch den Tschernobyl-Unfall verursacht wären, sogar solche, die in keinerlei Verbindung mit Verstrahlung gebracht werden können. Es gibt keinen Grund für diese Annahme. Schon deswegen nicht, weil die Vorsorgeuntersuchungen in vielen Ländern nach dem Unfall dramatisch verbessert worden sind, seit 1986 hat es massive Veränderungen im ehemaligen Ostblock gegeben. In der Studie wird kein Versuch unternommen, Strahlungsexposition mit dem Entstehen von Erkrankungen zu korrelieren.

Die Publikation scheint aus einer Verwechslung hervorzugehen, ob Annals ein Buchverlagshaus oder eine wissenschaftliche Zeitschrift wäre. Die Akademie sandte mir folgende Aussage: "Auf gar keine Weise hat Annals der New York Academy of Sciences oder die New York Academy of Sciences diese Arbeit beauftragt; wir beabsichtigen auch nicht, die Behauptungen in der Übersetzung oder in den Original-Veröffentlichungen oder Zitierungen darin unabhängig zu prüfen. Das übersetzte Werk ist nicht von der New York Academy of Sciences fachbegutachtet worden, auch nicht von sonst jemanden."

Keine Quellenangaben, Widerlegung von Daten durch Anekdoten, willkürlich ausgewählte Studien, Missachtung der wissenschaftlichen Mehrheitsmeinung, Verweis auf Täuschungsmanöver zur Erklärung: all das ist schrecklich bekannt. So machen es die Klimawandelleugner, gegen die grüne Bewegung tapfer gekämpft und die Wissenschaft zu Hilfe gerufen hat. Es ist eine Enttäuschung, zu sehen, dass die Anhänger dieser Bewegung zu den Narrheiten greifen, die sie anprangerten.

Wir haben die Pflicht, unsere Urteile mit der besten verfügbaren Information zu begründen. Nicht nur müssen wir anderen Menschen die Sachverhalte fair darlegen, wir schulden auch uns selbst, keinen Lebenslügen anzuhängen. Großes Unrecht hat diese Bewegung angerichtet. Das müssen wir richtig stellen.

George Monbiot  The Guardian, 5. April 2011 

Anmerkung der Redaktion:

Monbiot vergaß zu erwähnen, dass zum "Hinters-Licht-führen" immer zwei gehören. Die einen die einen "hinters-Licht" führen wollen und die anderen, die sich (gern?) hinters Licht führen lassen.  Man darf außerdem gespannt sein, wann er entdeckt, dass die Klimabehauptungen des Öko-wissenschaftlichen Komplexes auf ebenso tönernen Füssen stehen.

Die Übersetzung besorgte Helmut Jäger EIKE




Aha! Windfarmen in UK operieren weit unter der angekündigten Effizienz

Effizienz von Windparks durch eine Studie der John Muir Stiftung in Frage gestellt

Einer neuen Stude zufolge sind Windparks viel weniger effizient als behauptet und erzeugen weniger als 10% der Kapazität über ein Drittel des Beobachtungszeitraumes.

Die Analyse ergab auch, dass der Output während der Zeiten höchsten Verbrauchs niedrig war. (Anm. der Redaktion: Jede Menge "Gigabyte" würde unser Cem Özedemir vermutlich sagen)

Der Bericht, unterstützt von der John Muir Stiftung, besagt, dass die Beteuerungen über die Möglichkeiten von Windparks in Frage gestellt werden müssen.

Die Studie kommt zu dem Ergebnis, dass man sich auf Turbinen „nicht verlassen kann, um ein nennenswertes Niveau der Stromerzeugung zu erreichen.

Die Forschungen, durchgeführt durch die Stuart Young Consulting, analysierte die von Windparks in UK erzeugte Elektrizität zwischen November 2008 und Dezember 2010.

Verlautbarungen der Windindustrie und von Agenturen der Regierung behaupten allgemein dass Windturbinen im Mittel etwa 30% ihrer Kapazität über ein Jahr erzeugen.

Aber die Studie ergab, dass die Stromerzeugung durch Wind während der Hälfte der Zeit unter 20% der Kapazität und während eines Drittels der Zeit sogar unter 10% lag. 

Reportage der BBC hier

James Delingpole witzelt, dass jetzt „offiziell gesagt wird, dass Windparks total unbrauchbar sind“ (Official: wind farms are totally useless). Nun, vielleicht nicht total unbrauchbar (solange er nicht über die Windturbinen in Hawaii aus meinem letzten Beitrag berichtet: The reality of wind turbines in California (auf Deutsch bei EIKE hier)). Aber diese Effizienzen beweisen, dass die derzeitige Technologie der Stromerzeugung durch Windkraft niemals mehr sein wird als eine sporadische zusätzliche Energiequelle.

Grundlegende Ergebnisse…

…der Analyse der Stromerzeugung in allen UK-Windparks, die von National Grid ermittelt werden, von November 2008 bis Dezember 2010. Die folgenden fünf Behauptungen werden allgemein sowohl von der Windindustrie als auch von Repräsentanten und Agenturen der Regierung verbreitet. Diese Studie untersucht diese Behauptungen.

1. „Windturbinen werden im Mittel 30% ihrer Kapazität über ein Jahr erzeugen”

2. „Irgendwo weht immer Wind”.

3. „Perioden mit verbreitet geringem Wind sind selten.”

4. „Die Wahrscheinlichkeit, dass sehr geringe Windgeschwindigkeiten mit Zeiten maximalen Stromverbrauchs zusammenfallen, ist gering.”

5. „Pumpspeicherkraftwerke können die Erzeugungslücke während längerer Perioden mit geringer Windgeschwindigkeit füllen.“

Diese Analyse verwendet öffentlich zugängliche Daten für den Zeitraum von 26 Monaten zwischen November 2008 und Dezember 2010, und die Fakten im Vergleich zu den obigen Behauptungen sehen so aus:

1. Der mittlere Output durch Wind betrug 2009 27,18% gemessener Kapazität , 21,14% 2010 und 24,08% während des gesamten Zeitraumes bis einschließlich Dezember 2010.

2. Es gab 124 verschiedene Zeiträume von November 2008 bis Dezember 2010, in denen die Gesamterzeugung der Windparks, wie sie von National Grid gemessen worden ist, unter 20 MW lag. (Die mittlere Kapazität des gesamten Zeitraumes lag über 1600 MW).

3. Die mittlere Häufigkeit und Dauer von Schwachwindperioden mit einer Erzeugung von 20 MW oder weniger zwischen November 2008 und Dezember 2010 ereignete sich einmal alle 6,38 Tage mit einer Dauer von 4,93 Stunden.

4. An jedem der vier Höchstforderungen im Jahre 2010 war der Beitrag durch Windenergie gering, betrug er doch 4,72%, 5,51%, 2,59% und 2,51% der Kapazität des Stromverbrauchs.

5. Die gesamte Kapazität von Pumpspeicherwerken in UK kann 2788 MW für nur 5 Stunden zur Verfügung stellen, danach fällt sie auf 1060 MW zurück, und schließlich ist  nach 22 Stunden der gesamte Wasservorrat verbraucht.

Die Studie hat noch ANDERE ERGEBNISSE zusätzlich zu den grundlegenden Resultaten erbracht, die in Beziehung zu den fünf allgemeinen Behauptungen stehen. Diese Ergebnisse sehen so aus:

1. 1.Während des Untersuchungszeitraumes lag die Stromerzeugung durch Wind:

·        unter 20% der Kapazität in mehr als der Hälfte der Zeit

·        Unter 10% der Kapazität in einem Drittel des Zeitraumes

·        Unter 2,5% der Kapazität an einem von zwölf Tagen

·        Unter 1,25% unter dem Äquivalent von nur einem Tag pro Monat.

Die Entdeckung, dass der Output durch Wind während eines Drittels des Zeitraumes unter 10% der Kapazität lag, war ein unerwartetes Ergebnis der Analyse.

2. Unter den 124 Tagen, an denen die Erzeugung unter 20 MW zurückgegangen war, gab es 51 Tage, in denen nur 10 MW oder weniger erzeugt wurden. In mancher Hinsicht ist dies eine unwichtige Statistik, ist doch der Beitrag durch Windenergie mit 20 MW oder weniger effektiv null, und ein paar MW weniger sind weder Fisch noch Fleisch (neither here nor there). Aber die bloße Existenz dieser Ereignisse und deren Häufigkeit – im Mittel fast an einem von 15 Tagen für einen Zeitraum von 4,35 Stunden – deutet darauf hin, dass eine grundlegende Neubewertung der Kapazität von Windenergie erforderlich ist.

3. Ereignisse mit schwachem Wind sind nicht verbunden mit hohem Luftdruck im Winter. Sie können zu jeder Jahreszeit auftreten.

4. Das Zusammentreffen von starkem Wind und geringem Verbrauch kann zu jeder Zeit des Jahres vorkommen. Da die damit verbundene Windkapazität dann zunimmt, wird irgendwann ein Punkt erreicht werden, an dem kein thermisches Kraftwerk mehr sich nur darauf beschränken kann, sich an die Windkraft anzupassen. Nach dem Windkapazitätsmodell ergeben sich so 30 GW, während die geforderte Mindesterzeugung bei 10 GW angenommen wird. Dies bedeutet, dass eine grundlegende Neuberwertung durchgeführt werden muss, welche Windkapazität das Netz noch aushalten kann.

5. Die Häufigkeit eines Outputs von 100 MW oder mehr während einer Zeitspanne von fünf Minuten war überraschend. Es muss noch viel mehr getan werden, um eine Verteilung abzuschätzen, aber während des Monats März 2011, unmittelbar vor der Veröffentlichung dieses Berichtes, gab es sechs mal einen fünfminütigen Anstieg über 100 MW mit dem höchsten bei 166 MW, und fünf mal einen fünfminütigen Abfall über 100 MW mit dem höchsten Werte 148 MW. Dies deutet darauf hin, dass das Potential für hohe Windkapazitäten noch einmal berechnet werden muss, um einen sofortigen Verlust (oder Gewinn) eines großen Thermalkraftwerkes zu simulieren.

6. Wie unbeständig der Wind weht, wurde Ende März 2011 noch einmal unterstrichen, als dieser Bericht abgeschlossen worden ist.

  • Um 3 Uhr früh am Montag, dem 28. März, betrug der gesamte Output von einer Kapazität von 3226 MW nur ganze 9 MW.

  • Am Dienstag, dem 31. März um 11.40 Uhr lag der Output bei 2618 MW, dem höchsten bis heute registrierten Wert.

  • Der mittlere Output durch Wind betrug im März 2011 22,04%.Der Output lag im März 2011 während 30,78% der Zeit bei 10% der Kapazität oder weniger.

Die Eigenschaften des Outputs durch Wind waren verschleiert worden, indem man sich auf Tabellen des „mittleren Outputs“ verlassen hatte. Die Analyse der echten Daten von National Grid zeigt aber, dass sich der Wind ganz anders verhält als es die Tabellen des mittleren Outputs zeigen, die aus den Aufzeichnungen der Renewable Obligation Certificates (ROCs) oder aus Aufzeichnungen der Windgeschwindigkeit hervorgehen, die selbst wieder gemittelt worden waren. Aus dieser Analyse ergibt sich ganz klar, dass man sich nicht auf den Wind verlassen darf, wenn man irgendein signifikantes Niveau der Stromerzeugung zu irgendeinem definierten Zeitpunkt in der Zukunft erreichen will. Es besteht ein dringender Bedarf, die Implikationen für signifikante Verhältnisse unseres Energiebedarfs hinsichtlich der Zuverlässigkeit der Windkraft neu zu bewerten.

Autot Antony Watts Link: http://wattsupwiththat.com/2011/04/06/whoa-windfarms-in-uk-operate-well-below-advertised-efficiency/

Übersetzt von Chris Frey für EIKE




„CO2-Feuerlöscher oder Klimakiller“ Ein kritischer Kommentar zur Broschüre der Deutschen Bunsengesellschaft

Als ambitionierter Naturwissenschaftler mit Diplom und Promotion am Institut für Physikalische Chemie in Münster schäme ich mich daher, über längere Zeit einmal Mitglied der Deutschen Bunsengesellschaft gewesen zu sein. Damals habe auch ich mit mehreren Veröffentlichungen und Vorträgen bei Jahrestagungen zum bisher tadellosen Ruf dieser weltweit anerkannten Gesellschaft einen bescheidenen Beitrag leisten dürfen. Robert Bunsen dürfte sich jetzt aber wohl mehrfach im Grabe umdrehen, wenn er sehen könnte, zu welchen Handlangern opportunistischer Politiker und Klimaforscher seine heutigen Epigonen inzwischen geworden sind. Die kritiklose Herausgabe der o.g. Klimabroschüre zur Unterstützung der stark umstrittenen IPCC-hörigen Lehrmeinung (alle darauf bezogenen  Literaturzitate sind deshalb als wertlos anzusehen) und damit auch der von den Politikern eingeleiteten Zwangsmaßnahmen zur Bekämpfung eines erfundenen Klimagespenstes kann man nicht anders als in höchstem Maße unverzeihbar nennen.

 Alle Kapitel bauen im Grunde genommen immer auf demselben Axiom auf, nämlich daß es schon jetzt einen bedrohlich wachsenden Klimawandel gibt, daß der Mensch ihn weitgehend selbst hervorgerufen hat und das von ihm produzierte CO2 dafür die Hauptverantwortung trägt. Dieser rote Faden zieht sich durch die ganze Broschüre. Alle aufgezeichneten Konsequenzen müssen aber falsch sein, wenn die für wahr angenommenen Voraussetzungen nicht stimmen. Darüber helfen auch die vielen wirklich ausgezeichneten und durchaus richtigen Detailinformationen nicht hinweg. Alle Autoren haben es schlicht und einfach unterlassen, die entscheidende Gretchenfrage zu stellen, wie sie es denn mit der Wahrheit der IPCC-Prognosen halten, die sie völlig unkritisch zur eigenen Maxime erhoben haben. Als Antwort auf diese unwissenschaftliche Vorgehensweise reicht es schon aus, das erste Kapitel 1.1 von Dr. Ausfelder („Wie beeinflußt Kohlendioxid das Klima?“) einer kritischen Betrachtung zu unterziehen, was nun im nachfolgenden  geschieht.

Der IPCC hat zunächst einmal in seinem mehr als 1000 seitigen Report eine Menge sehr vernünftiger Ergebnisse präsentiert, und Herrn Dr. Ausfelder muß bescheinigt werden, daß er dies alles sehr genau studiert hat. Aber das allein reicht eben nicht aus, wenn er dabei übersieht, wo eklatante Fehlberechnungen oder vielleicht sogar bewußte Täuschungen vorgenommen wurden. Immerhin hatte sich der IPCC  schon zur Zeit seiner Gründung ein klares Ziel vorgegeben, nämlich die anthropogene Klimabedrohung mit welchen Mitteln auch immer nachzuweisen und glaubwürdig darzustellen. Manche Inhaltsteile mag Herr Dr. Ausfelder vielleicht übersehen oder falsch verstanden haben. Auf Seite 8 (neben den Abbildungen 2 und 3) schreibt er, daß die Erdabstrahlung zum Großteil wieder durch die Treibhausgase zurückgestrahlt wird und nur ein kleiner Teil in das Weltall entkommt. Tatsache ist aber, daß von 390 Watt/m2 nur 150 Watt/m2 wieder am Boden ankommen, was doch beileibe kein Großteil ist. Die gleiche Menge wird von den Treibhausgasen in umgekehrter Richtung gegen das Weltall abgestrahlt. Daher sind auch die Strahlungsflüsse in Abb.6 auf Seite 10 falsch dargestellt.  Der Verfasser dieses Bildes hat offenbar nicht verstanden, daß die Summe der Zu- und Abstrahlung an  den gedachten Luftschichten am Ende gleich Null sein muß. Es ist nicht zulässig, zwischen diesen gedachten Schichten jeweils eine Schwarzkörperebene anzunehmen, was vom Autor nach den gezogenen Schlußfolgerungen wohl so gemeint sein dürfte.

Von  der o.g. Rückstrahlung (150 Watt/m2) geht das meiste auf das Konto von Wasserdampf einschließlich Wolken zurück und nur 37 Watt/m2 auf das z.Z. in der Luft befindliche CO2. Dies dazu noch zu unserem Glück, denn es trägt nach dem Stefan-Boltzmann Gesetz zu einer Erderwärmung von ca. 7 °C bei, ohne die wir uns permanent in einer Eiszeit befinden würden. Das alles erwähnt Herr Dr. Ausfelder leider nicht. Dafür zeigt er auf Seite 9 in Tabelle 1 wieder völlig richtig auf, daß das seit Beginn der Industrialisierung vom Menschen weltweit erzeugte CO2 einen Strahlungsantrieb von 1,66 Watt/m2 bewirkt hat (bei Verwendung seiner Parameter 280 ppm CO2 vor der Industrialisierung und 379 ppm im Jahr 2005 sind es richtig gerechnet sogar nur 1,62 Watt/m2). Auf Seite 12 rundet er den Wert wieder korrekterweise auf 1,6 Watt/m2 herunter. Dieses Ergebnis bezieht sich auf die von den meisten Wissenschaftlern (auch des IPCC) anerkannte Strahlungszunahme von 3,7 Watt/m2 bei Verdoppelung des heutigen und auch jedes sonst beliebigen CO2-Gehalts (außer im extrem niedrigen ppm-Bereich).

 Wenn nun 37 Watt/m2 anerkanntermaßen zu einer Erwärmung von 7 °C führen, ergibt sich für 1,6 Watt/m2 nach einer simplen Dreisatzrechnung ein industriell bedingter Temperaturanstieg von nicht mehr als 0,3 °C. Wo sieht man denn bei dieser Sachlage einen bedrohlichen Klimawandel, wenn trotz nahezu  50 % iger CO2-Zunahme nicht mehr dabei  herausgekommen ist, aber bei 100 % ( d.h. bei Verdoppelung ) schon fast die Welt untergehen soll? Herr Dr.  Ausfelder macht für diesen Fall  auf Seite 12 einen Sprung von 0,3 °C auf max. 4,5 °C, ohne daß er dazu eine nähere Erklärung abgibt.  Dies läßt sich durch eine ähnliche Dreisatzrechnung doch leicht falsifizieren, denn in Wirklichkeit ergibt sich  dabei nur ein Wert von 0,7°C (7x 3,7/37= 0,7). Der IPCC erklärt diese Diskrepanz durch erfundene und kaum begründbare Rückkopplungsprozesse, die in der behaupteten Höhe nach dem bereits stattgefundenen CO2-Anstieg gar nicht zu erkennen sind.

Es kommt aber noch schlimmer. Die durchschnittliche Himmelsbewölkung führt dazu,  daß  etwa 30 % der o.g. Strahlungszunahme von 1,6 Watt/m2  und natürlich auch von 3,7 Watt/m2, da sie global für klaren Himmel gilt, gar nicht dem Konto des CO2 zugeschrieben werden dürfen, weil sie ohnehin schon komplett von den Wolken übernommen wird. Das gleiche gilt für den Anteil, den der Wasserdampf im spektralen Überlappungsbereich seinerseits übernimmt. Hiernach bleibt für die bis mehr als ein Jahrhundert zurückliegende CO2-bedingte Erderwärmung nicht einmal ein Betrag von 0,2 °C übrig. Was soll da die ganze Aufregung bedeuten? Dieser Wert paßt sogar sehr gut zu der vom IPCC genannten globalen Gesamterwärmung von 0,74 °C (auch erwähnt im Kapitel 1.4 auf Seite 22 von Meinolf Koßmann, Deutscher Wetterdienst). Schließlich steckt darin ja  noch der von Dr. Ausfelder auf  Seite 9 in Tabelle 1 aufgeführte zusätzliche anthropogene Treibhauseffekt, bedingt durch Methan, Lachgas u.a. Gase, die einen fast gleich großen Beitrag zur Erderwärmung leisten. Herr Dr. Ausfelder verweist in diesem Zusammenhang (Seite 12) auf die Möglichkeit einer Umrechnung dieser Einzeleffekte in sog. CO2-Äquivalente und suggeriert damit, daß für den Leser auch dies noch auf dem Konto des geduldigen CO2-Esels erscheint, da es doch auch vom Menschen gemacht ist. Warum sollen aber gerade die Kohlekraftwerke dafür büßen?

Dazu gibt es nun auch noch den Einfluß der im vorigen Jahrhundert besonders starken Solaraktivität, die seit Ende der letzten großen  Eiszeitperiode vor ca. 12 000 Jahren schon immer sämtliche Temperaturveränderungen maßgeblich gesteuert hat (siehe zuletzt die sog. Kleine Eiszeit, die endgültig erst 1850 durch die stärker werdende Sonnenfleckenhäufung zu Ende gegangen ist). Diesen Klimawandel müssen wir doch eigentlich wohl als angenehm betrachten dürfen, und er hat nun wirklich nichts mit dem CO2 zu tun, da der nennenswerte Verbrauch fossiler Brennstoffe erst viel später eingesetzt hat. Aber selbst die vom IPCC genannte Globalerwärmung von 0,74 °C (einschließlich des solaren Einflusses), kann nicht einmal ganz so hoch gewesen sein, weil Wärmeinseleffekte an vielen urbanen Meßstationen unkorrigiert geblieben sind und durch „Climategate“ inzwischen bekannt wurde, daß von den Klimaforschern bewußte Manipulationen an den Meßwerten vorgenommen worden sind. Sehr verläßlich (bis auf die auch hier nicht bereinigten Wärmeinseleffekte) sind dagegen die Temperaturmeßwerte des Deutschen Wetterdienstes (siehe Bild 1 auf Seite 21). Hiernach liegt die mittlere Erwärmung in Deutschland seit 1880 zwar mit 1,0 °C sogar noch etwas höher als der o.g. Globalwert von 0,74 °C. Aber dies hängt doch damit zusammen, daß die eigentliche Erwärmung fast nur in Mittel- und Nordeuropa einschließlich der Arktis und wenigen Gebieten der übrigen Nordhemisphäre  stattgefunden hat, während ca. 70 % des Erdballs entweder überhaupt keine Temperaturänderung gesehen oder sogar eine Abkühlung erfahren hat (wie vor allem in der Antarktis oder auf dem australischen Kontinent). Inzwischen ist auch in unserer Hemisphäre seit ca.
10 Jahren wegen eingetretener Sonnenfleckenflaute eine meßbare Abkühlung eingetreten. In nachfolgender Grafik mit Originaldaten des Deutschen Wetterdienstes ist dies deutlich zu erkennen (siehe vor allem das Rekordtief des vorigen Jahres). Warum hat Herr Koßmann in Kapitel 1.4 nicht auf den obigen Sachverhalt hingewiesen und seine Temperaturkurve in Abb. 1 auf Seite 21 schon früher auslaufen lassen? Er konstatiert dort sogar ganz im Gegenteil in diesem letzten Zeitabschnitt eine tendenzielle Temperatursteigerung (siehe seine rot gepunktete Linie).

 

Darüber hinaus sind im Internet noch weit mehr seriöse Daten von Langzeit-Temperaturreihen abrufbar – sowohl als Monats- und Jahresmittelwerte wie auch als Temperaturganglinien. Die Temperaturen wurden in England ab 1659 und in Berlin ab 1701 und danach sukzessive auch an anderen Stationen in Europa und Nordamerika aufgezeichnet. Prof. Ewert hat nach mühevoller Kleinarbeit in 4 verschiedenen Gruppen die Daten ausgewertet, die in den Portalen „wetterzentrale.de“, „NASA“, „The Little Ice Age Thermomerters“ und „Rimfrost“ für jeden verfügbar sind. Während der IPCC nur die Daten ab 1880 berücksichtigt, hat Prof. Ewert als Geologe vor allem auch die älteren Meßreihen mitbewertet, denn um wirkliche Temperaturveränderungen zu erfassen, bedarf es wegen ihrer langsamen Entwicklung möglichst langer Zeitreihen. Nachfolgend wird am Beispiel der Temperaturkurve für Mittelengland demonstriert, daß es periodische Schwankungen kleineren Ausmaßes immer schon gegeben hat, indem sich Erwärmungs- und Abkühlungsphasen ständig abgewechselt haben.  

 

Internet-Portal: The Little Ice Age Thermometers

Die Temperaturentwicklung im 20. Jahrhundert läßt in obigem Bild keinen Unterschied zu den vorausgegangenen Jahrhunderten erkennen. Der Einfluß des anthropogenen CO2 wird wegen seines minimalen Effektes gegenüber dem schon vorhandenen nirgendwo richtig sichtbar. Die etwas größere Erwärmung nach 1980 wurde durch die deutlich gestiegene Solaraktivität verursacht, wobei das gleiche auch für andere zurückliegende Erwärmungsphasen gilt (damals gab es noch kein anthropogenes CO2). Die verstärkte Förderung und Verbrennung von Kohle, Öl und Gas und mithin die Produktion des angeblich so schädlichen CO2 setzte schon 40 Jahre früher zu Beginn des 2. Weltkrieges ein. Gemäß dem offiziellen Klimamodell hätte sie eine Erwärmung bewirken sollen. Stattdessen folgte zwischen 1950 und 1980 jedoch eine Abkühlungsphase, die beweist, daß anthropogenes CO2 offensichtlich nur einen unerheblichen Einfluß hat. Der oben aufgezeigte Klimaablauf in Mittelengland kann als repräsentativ für die weltweite Temperaturentwicklung in der nördlichen Hemisphäre angesehen werden. Die Südseite ist sogar eher von einer gegenläufigen Abkühlung geprägt. Die Publikation aller Auswertungsergebnisse ist in Vorbereitung. Eine Kurzfassung der ausgewerteten NASA-Daten kann bereits jetzt schon eingesehen werden unter www.eike-klima-energie.eu.         

Die Auswertung der Temperaturdaten wurde durchgeführt, um die dem Wahn eines anthropogenen Klimawandels  verfallenen Verantwortungsträger unseres Landes auf seriöse Weise von den wahren Klimagegebenheiten zu überzeugen, damit sie  möglichst bald zu einer rationalen Gestaltung unserer Energiepolitik finden.

Zum Schluß sei noch kurz zusammengefaßt, warum es für den so medienwirksam geforderten Klimaschutz nicht den geringsten Anlaß gibt: 

Das bereits in der Luft  befindliche CO2 (z.Z. ca. 390 ppm) hat schon längst fast alle absorbierbare Wärmestrahlung im Wellenlängenbereich um 15 Mikrometer herausgefiltert. Der nur noch sehr kleine Rest an den äußeren Rändern dieses Bandenbereichs kann bis zum Verbrauch sämtlicher fossiler Brennstoffe wegen der logarithmischen Degression des Absorptionsvorganges nicht mal eine Erwärmung von 0,7 °C auslösen (wie bereits oben berechnet), da selbst diese totale Ressourcenausschöpfung in vielleicht 200 – 300 Jahren keine Verdoppelung des momentanen CO2-Gehalts erwarten läßt.

Alles das wissen im Grunde genommen auch die Klimaforscher. Aber sie haben dann, wie bereits vorher erwähnt,  zur Erreichung ihres gesteckten Ziels mit Hilfe gigantischer Computersimulationen mehrfache Rückkopplungs – und Verstärkungseffekte erfunden, welche  die übertriebenen Prognosen von zunächst max. 4,5 °C bis schließlich sogar  8 °C erst ermöglicht  haben ( letztere Zahl stammt von Prof. Levermann, Potsdam Institut für Klimafolgenforschung, siehe FAZ vom 30.12.2010). Merkt denn hier niemand, daß sich bei solchen Übertreibungen geradezu die Balken biegen?

Warum haben eigentlich bei solch eindeutig vorliegenden Fakten nicht  wenigstens  einige unserer zahllosen aktiven Wissenschaftler Verdacht geschöpft und sich der Mühe einer eingehenden Prüfung unterzogen, wie dies z.B. Prof. Ewert ( s.o.) oder auch der Verfasser dieses kritischen Kommentars und dazu noch viele andere längst pensionierte Mitstreiter ohne jede institutionelle Hilfe gemacht haben? Diesen Vorwurf kann ich weder der Deutschen Bunsengesellschaft  noch der Gesellschaft Deutscher Chemiker ersparen. Daß beide  sich in guter Gesellschaft mit vielen anderen ähnlichen Gesellschaften unseres Landes befinden, kann sie nicht entschuldigen. Ihr guter Ruf steht auf dem Spiel, und es ist höchste Zeit  und aller Grund zum Umdenken.

Dr. rer.nat. Siegfried Dittrich EIKE im April 2011 (Die Broschüre ist hier abrufbar)




Der Kernenergieausstieg und seine Folgen!

Einfluss der Stilllegung der deutschen Kernkraftwerke aufgrund der Naturkatastrophe in Japan am..

11.3.2011 ausgelöst durch ein Erdbeben der Stärke 8.9. einem anschließenden Tsunami und der infolgedessen außer Kontrolle geratenen Kernreaktoren von Fukushima zur Stromerzeugung.
Die „rauchenden Reaktorruinen“ von Fukushima in Japan verschärfen quer durch alle Parteien und die Gesellschaft den Wunsch nach einem raschen Atomausstieg. Die am 4.4.2011 erstmals zusammengetroffene Ethikkommission soll der Bundeskanzlerin Merkel helfen, Probleme beim Turboausstieg zu lösen.

Was sind die Folgen für die Menschen in Deutschland?

Die durch die Stilllegung ausfallende Stromproduktion muss nun anderweitig beschafft werden. Das kann durch höhere Auslastung der Kohle- und Gaskraftwerke geschehen oder teilweise durch Stromimporte aus den Nachbarländern im Rahmen des UCTE- Netzes. Das zu deckende Defizit beträgt rd. 7.000 MW Leistung mit rd. 150 GWh Tagesarbeit.  Inzwischen ist bekannt, dass ein großer Teil der täglichen Defizitarbeit durch Importe d.h. größtenteils aus dortigen Kernkraftwerken abgedeckt werden. Die Betreiber  dieser Kraftwerke orientieren sich für den Abgabepreis an das jeweilige Strombörsenpreisniveau, welches rd. 50 €/MWh über den Kosten der Stromerzeugung in den stillgelegten deutschen Kernkraftwerken liegt. Die dann noch fehlenden Strommengen werden durch teurere inländischen Kohle und Gaskraftwerke abgedeckt, was eine höhere CO2 – Emission bedingt. Die Mehrkosten für die Strombeschaffung liegen ab dem Tag der Abschaltung am 17.3.2011 bei mindestens 7 Mio. € pro Tag.

Die sieben abgeschalteten Kernkraftwerke wären jedenfalls heute ebenso sicher wie eine Woche zuvor, bevor die Katastrophe sich in Japan anbahnte. Die Abschaltung kostet unserer Volkswirtschaft zu Lasten aller, wie und wann das auch immer bei jedem einzelnen ankommt, pro Tag und Kraftwerk 1 Million € also für die sieben pro Tag 7 Millionen €. Wenn dann mal alle 17 Kernkraftwerke abgeschaltet sind, erhöht sich der Betrag auf über 17 Mio. € täglich.


Solange unser Wohlstand in Deutschland nicht aufgebraucht ist, können wir das durchstehen. Wie lange es tragbar ist, aus rein emotionalen Gründen pro Tag 7 Mio. € einfach nutzlos – ohne Zuwachs an Wertschöpfung – zusätzlich auszugeben, wird die Zukunft erweisen.

Wenn Frau Höhn im Fernsehen erklärt, dass die Abschaltung der sieben Kernkraftwerke, sie sagt natürlich DIN/IEC widrig "Atommeiler", keinen Ausfall der Lichter gebracht hätten und daher auch nicht erforderlich seien, ist das purer Zynismus zum Schaden aller Bürger in Deutschland.

Prof. Helmut Alt

Lesen Sie hier die Meldung in SPON über das Gutachten zur großen Transformation.

Hier können Sie das "Gutachten" herunterladen