Allgemeine Klimatheorie: Erwiderung auf Kommentare

Anmerklung von A. Watts: …Dies ist eine umstrittene Ausgabe, und während es eine wunderbare Sache wäre, falls es stimmte, sehe ich persönlich nicht, wie es auf irgendeine Weise den Energieerhaltungssatz (<a href= "http://en.wikipedia.org/wiki/Conservation_of_energy"target="_blank">hier</a>) überwinden könnte. Diese Ansicht wird auch von Anderen geteilt, wie aus der Einführung des Artikels unten hervorgeht. … Anthony WattsGrößenordnung des natürlichen ‚Treibhauseffektes’

  1. Einführung

Unsere jüngste Studie zur allgemeinen Klimatheorie löste intensive Diskussionen bei  WUWT und Tallbloke’s Talkshop aus. Die Blogger, aber auch zwei Online-Artikel von Dr. Ira Glickstein und Dr. Roy Spencer stellten viele wichtige Fragen. Nachdem wir uns durch die meisten Antworten hindurchgearbeitet hatten, wurde uns klar, dass weiterführende Ausführungen erforderlich sind. Wir präsentieren unsere Antwort in zwei separaten Artikeln, die die Schwerpunkte der Blogger ebenso ansprechen wie Schlüsselaspekte unseres neuen Paradigmas.

Beachten Sie bitte, dass Sie zum Verständnis dieser neuen Theorie Ihre Sichtweise ändern müssen! Wie Albert Einstein einmal sagte, ein neues Paradigma kann nicht innerhalb eines existierenden Gedankenexperiments verstanden werden; also werden wir durch das System [episteme], in dem wir leben, eingeschränkt. In dieser Hinsicht erfordert unser Konzept neue Definitionen, die exakte Ebenbilder in der aktuellen Treibhaustheorie haben können oder nicht. Zum Beispiel ist es für uns entscheidend, den Term Atmospheric Thermal Effect (ATE) einzuführen und zu verwenden, weil: a) der Term Greenhouse effect GE unvermeidlich irreführend ist aufgrund der Tatsache, dass die freie Atmosphäre nicht wirklich wie ein geschlossenes Treibhaus funktioniert, wenn man der konvektiven Abkühlung keine Grenzen auferlegt, b) ATE genau den physikalischen Sinn des Phänomens beschreibt, nämlich des Temperaturtreibers [temperature boost] an der Oberfläche infolge der Gegenwart der Atmosphäre, c) die Argumentation in Termen wie ATE im Gegensatz zum GE hilft, die Diskussion über den Strahlungstransport hinaus zu führen und d) der Term Atmospheric Thermal Effect keine zugrunde liegenden physikalischen Mechanismen impliziert.

Wir beginnen mit der unbestreitbaren Tatsache, dass die Atmosphäre zusätzliche Wärme auf der Erdoberfläche erzeugt, verglichen mit einer atmosphärefreien Umgebung wie auf dem Mond. Dies wirft zwei grundlegende Fragen auf: (1) Welche Größenordnung hat diese Zusatzerwärmung, d.h. ATE? und (2) wie macht die Atmosphäre das, d. h. welcher physikalische Mechanismus liegt ATE zugrunde? In dieser Antwort geht es um die erste Frage, da sie die Krux bei den Schwierigkeiten [des Verständnisses] der meisten Leute zu sein scheint, und die daher gelöst werden muss, bevor wir uns mit der übrigen Theorie befassen (siehe zum Beispiel Lord Monckton’s WUWT post).

  1. Die Größenordnung des irdischen atmosphärischen Thermaleffektes

Um ATE ordnungsgemäß zu evaluieren, bleiben wir dabei, dass man die mittlere Temperatur der Erde mit der Temperatur eines sphärischen Körpers ohne Atmosphäre mit gleichem Abstand von der Sonne vergleichen muss. Man beachte, dass wir uns gegenwärtig nicht mit der Zusammensetzung oder der Durchlässigkeit von Infrarotstrahlung befassen. Stattdessen versuchen wir einfach, den gesamten Effekt unserer Atmosphäre auf die thermische Umgebung der Oberfläche zu quantifizieren; also den Vergleich mit einem gleichermaßen beleuchteten luftleeren Planeten. Wir werden uns im Folgenden auf einen solchen Planeten als einen äquivalenten planetarischen Graukörper (PGB) beziehen.

Da die Temperatur proportional (in linearer Weise) zur internen kinetischen Energie eines Systems ist, ist es theoretisch absolut gerechtfertigt, mittlere globale Temperaturen zu verwenden, um ATE zu quantifizieren. Es gibt zwei mögliche Indizes, die man hierfür nehmen könnte:

  1. Die absolute Differenz zwischen der Mitteltemperatur der Erde (Ts) und der eines äquivalenten PGB (Tgb), d.h. ATE = TsTgb; oder
  2. Das Verhältnis von Ts zu Tgb. Letzterer ist besonders attraktiv, weil er ATE normalisiert (standardisiert) mit Berücksichtigung der Solarstrahlung an der Obergrenze der Atmosphäre (TOA) und so den Vergleich ermöglicht von ATEs von Planeten, die mit verschiedenem Abstand um die Sonne laufen und verschieden große Mengen solarer Strahlung empfangen. Wir nennen dieses dimensionslose Temperaturverhältnis Near-surface Thermal Enhancement (ATEn) und kennzeichnen es durch NTE = Ts / Tgb. Theoretisch sollte NTE gleich oder größer als 1,0 sein (NTE ≥ 1.0). Man beachte bitte, dass ATEn eine Messung von ATE ist.

Es ist wichtig festzuhalten, dass unsere gegenwärtige GE-Theorie den ATE nicht durch Temperatur misst, sondern durch die Menge der absorbierten infraroten Strahlung. Obwohl Fachbücher oft erwähnen, dass die Erdoberfläche wegen des ‚Treibhauseffektes‘ unserer Atmosphäre um 18 K bis 33 K wärmer als der Mond ist, wird der tatsächliche Effekt der wissenschaftlichen Literatur zufolge durch die Menge der ausgestrahlten infraroten Strahlung gemessen, die durch die Atmosphäre absorbiert wird (siehe e.g. Stephens et al. 1993; Inamdar & Ramanathan 1997; Ramanathan & Inamdar 2006; Houghton 2009). Gewöhnlich wird sie als eine Differenz (seltener als ein Verhältnis) zwischen gesamten mittleren infraroten Strahlungsfluss an der Erdoberfläche und an der Obergrenze der Atmosphäre berechnet. Auf diese Weise definiert beläuft sich der mittlere GE Satellitenbeobachtungen zufolge auf 157 bis 161 W/m² (Ramanathan & Inamdar 2006; Lin et al. 2008; Trenberth et al. 2009). Mit anderen Worten, die aktuelle Theorie benutzt Einheiten des Strahlungsflusses anstatt Temperatureinheiten, um ATE zu quantifizieren. Diese Annäherung basiert auf der vorbedachten Absicht, dass der GE durch die Reduktion der Abkühlung durch die Rate der ins All abgestrahlten infraroten Strahlungsmenge funktioniert. Allerdings kann die Messung eines Phänomens mit einer vermuteten Grundlage anstatt durch manifeste Effekte eine Quelle erheblicher Konfusion und Irrtümer sein, wie unsere Studie zeigt. Folglich behaupten wir, dass die ordnungsgemäße Bestimmung des ATE von einer genauen Schätzung der mittleren Temperatur an der Oberfläche eines äquivalenten PGB (Tgb) abhängt.

  1. Abschätzung der Mitteltemperatur eines äquivalenten planetarischen Graukörpers

Es gibt zwei Möglichkeiten, Tgb zu bestimmen – eine theoretische, basierend auf den bekannten physikalischen Beziehungen zwischen Temperatur und Strahlung, und eine empirische durch Betrachtung von Messungen auf dem Mond als dem der Erde nächstgelegenen natürlichen Graukörper.

Dem Stefan-Boltzmann-Gesetz zufolge emittiert jedes physikalische Objekt mit einer Temperatur über dem absoluten Nullpunkt Strahlung, und zwar mit einer Intensität (I, W/m²), die proportional zur 4. Potenz der absoluten Temperatur des Objektes ist:

 

wobei ϵ die thermale Emissivität/Absorbtivität ist (0 ≤ ϵ ≤ 1 ) und σ = 5.6704×10-8 W/m². K-4  ist die Stefan-Boltzmann-Konstante. Bei einem theoretischen Schwarzkörper ist ϵ = 1,0, während bei realen festen Objekten wie Felsen normalerweise ϵ ≈ 0.95. Im Prinzip gestattet uns Gleichung 1 eine genaue Berechnung der Gleichgewichtstemperatur eines Objektes, wenn die Menge der durch das Objekt absorbierten Strahlung bekannt ist, d. h.

Die räumlich gemittelte Menge der vom System Erde-Atmosphäre absorbierten Solarstrahlung ( ̅̅̅, W/m²) kann aus der Gesamtsolarstrahlung TOA ( ̅̅̅, W/m²) und der planetarischen Albedo genau berechnet werden als

wobei der auf ein Flugzeug einfallende kurzwellige Fluss der TOA (W/m²) senkrecht zu den Sonnenstrahlen ist. Der Faktor ¼ dient dazu, den einfallenden solaren Strahlungsfluss von einer flachen Oberfläche auf eine Sphäre zu verteilen. Er ergibt sich aus der Tatsache, dass die Oberfläche einer Sphäre (4πR²) viermal größer ist als die Oberfläche einer Scheibe (πR²) mit gleichem Radius. Folglich erscheint es logisch, dass man die mittlere Temperatur der Erde ohne ATE aus dem Stefan-Boltzmann-Gesetz abschätzen kann, d. h.

Hierin ist (TeK) bekannt als die effektive Emissionstemperatur der Erde. Setzt man typische Werte ein für S0 =W/m² und αp = 0,3 und ϵ  = 1,0 ergibt Gleichung (3) 254,6 K. Dies ist die Basis für den weithin zitierten Wert von 255 K (-18°C) als mittlere Temperatur auf der Erdoberfläche ohne Treibhauseffekt, d. h. als ob die Atmosphäre fehlt oder ‚vollständig transparent‘ für IR-Strahlung ist. Dieser Temperaturwert wird auch benutzt,, um die sog. Effektive Emissionshöhe in der Troposphäre zu definieren (bei etwa 5 km Höhe), von wo man vermutet, dass der Hauptteil der emittierten langwelligen Strahlung ins Weltall ausgeht. Da die mittlere Temperatur der Erde 287,6 K (+14,4°C) beträgt, schätzt die gegenwärtige Theorie die Größenordnung von ATE bei 287,6 K – 254,6 K = 33 K. Wie jedoch in anderen Studien gezeigt wurde, leidet diese Annäherung unter einem ernsten logischen Fehler. Wenn man die Atmosphäre entfernt (oder auch nur den Wasserdampf darin), würde daraus eine viel niedrigere planetarische Albedo resultieren, da Wolken dafür verantwortlich sind, dass die meiste kurzwellige Strahlung reflektiert wird. Folglich muss man eine andere Albedo (αp) in Gleichung 3 einsetzen, die die aktuelle Oberflächenreflektion allein quantifiziert. Eine Analyse des globalen Energiehaushalts der Erde von Trenberth et al. (2009) mit Hilfe von Satellitenbeobachtungen legt einen Wert αp≈ 0,12 nahe. Glücklicherweise ist dieser Wert ziemlich ähnlich der Albedo des Mondes von 0,11 (siehe Tabelle 1 in unserer  Originalstudie), so dass es uns möglich ist, den ATE der Erde unter Verwendung unserer Satelliten als passende PGB-Proxy zu evaluieren. Setzt man 0,12 in Gleichung 3 ein, ergibt sich ein Wert von Te = 269,6 K, welches gleichbedeutend mit einem ATE von lediglich 18 K ist (d. h. 287,6 – 269,6 = 18 K).

Zusammenfassend: die gegenwärtige Treibhaustheorie verwendet eine einfache Form des SB-Gesetzes, um die Größenordnung des irdischen ATE zwischen 18 K und 33 K zu schätzen. Die Theorie nimmt weiter an, dass die mittlere Temperatur des Mondes 250 K bis 255 K beträgt, trotz der Tatsache, dass die korrekte lunare Albedo (0,11) eingesetzt in Gleichung 3 etwa 270 K ergibt, d. h. eine um 15 bis 20 K höhere Temperatur! Außerdem, die Anwendung von Gleichung 3, um die mittlere Temperatur einer Sphäre zu berechnen, führt zu einem fundamentalen mathematischen Problem durch Hölders Ungleichheit zwischen nichtlinearen Integralen (u. a. Kuptsov 2001). Was bedeutet das? Hölders Ungleichheit gilt für gewisse nichtlineare Funktionen und legt fest, dass in solchen Funktionen die Verwendung eines arithmetischen Mittels für die unabhängige (Input-)Variable nicht einen korrekten Mittelwert der abhängigen (Output-)Variablen führt. Wegen einer nichtlinearen Beziehung zwischen Temperatur und Strahlungsfluss beim SB-Gesetz (Gleichung 3) und der Variation der absorbierten Strahlung mit der geographischen Breite auf einer Sphäre kann man nicht die mittlere Temperatur eines einseitig beleuchteten Planeten mit der Menge der räumlich gemittelten  absorbierten Strahlung, definiert durch Gleichung 2, genau berechnen. Hölders Ungleichheit zufolge wird die aus Gleichung 3 berechnete Temperatur immer signifikant höher sein als die aktuelle mittlere Temperatur auf einem luftleeren Planeten. Wir können diesen Effekt mit einem einfachen Beispiel illustrieren.

Nehmen wir zwei Punkte auf der Oberfläche eines PGB, P1 and P2, die sich beide auf exakt der gleichen geographischen Breite befinden (sagen wir 45°N), aber auf entgegengesetzter geographischen Länge, so dass P1 voll beleuchtet und gleichzeitig P2 vollständig beschattet ist, und umgekehrt (siehe Abbildung 1). Wenn der PGB in der gleichen Entfernung um die Sonne kreist wie die Erde und die Solarstrahlung die Wärmequelle darauf ist, dann würde die Gleichgewichtstemperatur am beleuchteten Punkt [T1 = 349,6 K]* betragen (unter Annahme eines solaren Zenitwinkels von θ = 45°), während die Temperatur am beschatteten Punkt T2 = 0 wäre (da er keine Strahlung erhält wegen cosθ < 0). Die mittlere Temperatur zwischen den beiden Punkten beträgt dann Tm = (T1 + T2)/2 = 174,8 K. Wenn wir allerdings versuchen, eine Mitteltemperatur aus der mittleren, an den beiden Punkten absorbierten Strahlungsmenge W/m² zu berechnen, erhalten wir 234,2 K. Klarer Fall, Te ist viel größer als Tm (Te ≫ Tm), was ein Ergebnis von Hölders Ungleichheit ist.

*Der Ausdruck in den eckigen Klammern fehlt im Original. Er wurde aus der Abbildung übertragen und eingesetzt. Es ist wohl von einem Versehen der Autoren auszugehen. A. d. Übers.

 

Abbildung 1: Illustration des Effektes von Hölders Ungleichheit bei der Berechnung der mittleren Temperatur auf der Oberfläche eines luftleeren Planeten. Details im Text.

Aus dem obigen Beispiel kann man das Ergebnis mitnehmen, dass zur Berechnung einer aktuellen mittleren Temperatur auf einem luftleeren Planeten eine explizite Integration des SB-Gesetzes über die Planetenoberfläche erforderlich ist. Dies impliziert, dass man erst die 4. Wurzel aus dem absorbierten Strahlungsfluss an jedem Punkt der Oberfläche ziehen muss und erst dann das sich daraus ergebende Temperaturfeld mitteln kann – und nicht zu versuchen, eine Mitteltemperatur aus einem räumlich gemittelten Strahlungsfluss zu berechnen wie in Gleichung 3.

Also brauchen wir ein neues Modell, das in der Lage ist, Tgb robuster vorherzusagen als Gleichung 3. Um diese abzuleiten übernehmen wir die folgende Argumentation. Die Gleichgewichtstemperatur an jedem Punkt auf der Oberfläche eines luftleeren Planeten wird bestimmt durch die einfallende Sonnenstrahlung und kann (unter der Annahme einer uniformen Albedo und bei Ignoranz kleiner Wärmebeiträge durch Gezeitenkräfte und inneren radioaktiven Zerfall) approximiert werden als:

wobei [?]* der solare Zenitwinkel (Radiant) an dem Punkt ist, welches der Winkel zwischen den Sonnenstrahlen und der Achse senkrecht zur Oberfläche an diesem Punkt ist (siehe Abbildung 1). Bei Substituierung ergibt sich die mittlere Temperatur () des Planeten folglich aus dem sphärischen Integral von

Vergleicht man die Endform von Gleichung 5 mit Gleichung 3 zeigt sich, dass Tgb << Te ist in Übereinstimmung mit der Hölder’schen Ungleichheit. Um den obigen Ausdruck physikalisch realistischer zu machen, fügen wir So eine kleine Konstante hinzu, Cs =0.0001325 W/m², so dass sich, wenn So = 0,0 ist, aus Gleichung 5 Tgb = 2.72 K ergibt (die nicht mehr reduzierbare Temperatur des freien Weltraums, also

In einer aktuellen analytischen Studie hat Smith (2008) argumentiert, dass Gleichung 5 nur die mittlere Temperatur eines nicht rotierenden Planeten beschreibt und dass sich die mittlere Temperatur eines luftleeren Planeten der effektiven Emissionstemperatur nähert, falls die Rotation und die thermische Kapazität der Oberfläche explizit berücksichtigt werden. Es würde den Rahmen dieser Studie sprengen, den Trugschluss dieses Arguments mathematisch zu beweisen. Wir werden allerdings darauf hinweisen, dass eine Zunahme der mittleren Gleichgewichtstemperatur eines physikalischen Körpers immer die Zufuhr von Extra-Energie erfordert. Die Addition zusätzlicher axialer Rotation zu einem stationären Planeten mit einem Vakuum, bei dem es keine Reibung mit der äußeren Umgebung gibt, erzeugt nicht irgendeine Art zusätzlicher Wärme auf der Planetenoberfläche. Schnellere Rotation und/oder höhere thermische Trägheit des Bodens würde lediglich eine effizientere räumliche Verteilung der absorbierten Sonnenergie ermöglichen und würde damit die Gleichförmigkeit des resultierenden Temperaturfeldes über der gesamten Planetenoberfläche zunehmen lassen. Aber die mittlere Oberflächentemperatur könnte davon nicht beeinflusst werden. Folglich beschreibt Gleichung 6 korrekt (unter der Annahme gleichförmiger Albedo) die globale mittlere Temperatur von jedem luftleeren Planeten, ob er nun rotiert oder nicht.

Setzt man typische Werte für Erde und Mond in Gleichung 6 ein, d. h. So = 1362 W/m², αo = 0,11, and ϵ = 0,955, ergibt sich Tgb = 154,7 K. Diese Schätzung liegt um etwa 100 K unter der aus Gleichung 3 abgeleiteten konventionellen Schwarzkörpertemperatur und impliziert, dass der ATE der Erde (d. h. der GE) um ein Vielfaches größer ist als derzeit angenommen. Obwohl es mathematisch gerechtfertigt ist, erfordert ein  solches Ergebnis eine unabhängige empirische Verifikation wegen seiner tief greifenden Implikationen für die gegenwärtige GE-Theorie. Wie vorher schon gesagt, stellt der Mond einen idealen Proxy-PGB dar hinsichtlich seiner Position, seiner Albedo und der luftleeren Umgebung, mit der der thermische Effekt der irdischen Atmosphäre akkurat abgeschätzt werden kann. Also richten wir nun unser Augenmerk auf die jüngsten Temperaturbeobachtungen des Mondes.

  1. Das Lunar Radiometer Experiment von Diviner der NASA

Im Juni 2009 hat die NASA ihren Lunar Reconnaissance Orbiter (LRO) ins All geschossen, der (neben anderen Instrumenten) ein Radiometer mit der Bezeichnung Diviner an Bord hat. Die Aufgabe von Diviner ist es, die Temperatur der Mondoberfläche in bisher nicht erreichter Detaillierung zu kartographieren, und zwar durch Messungen in 7 IR-Kanälen, die eine Wellenlänge von 7,6 bis 400 μm umfassen. Diviner ist das erste zur Messung der gesamten Bandbreite der lunaren Oberflächentemperatur ausgelegte Instrument, von der wärmsten bis zur kältesten Stelle. Es schließt auch zwei solare Kanäle ein, die die Intensität der reflektierten Sonnenstrahlung messen, um auch eine Karte der lunaren kurzwelligen Albedo zu erstellen (weitere Details siehe die offizielle Website von Diviner, http://www.diviner.ucla.edu/).

Obwohl das Diviner-Experiment noch im Gange ist, wurde die Thermalkartierung der Mondoberfläche abgeschlossen, und die Daten sind online verfügbar. Aus zeitlichen Gründen hatten wir keine Gelegenheit, die Temperaturdaten von Diviner selbst für diese Studie zu analysieren. Stattdessen haben wir uns auf Informationen des Diviner Service Teams in wissenschaftlich begutachteten Veröffentlichungen und auf die Diviner website verlassen.

Die während der LRO-Übernahme gewonnenen Daten zeigen, dass der Mond eine der extremsten thermischen Umgebungen des Sonnensystems hat. Die Temperatur in niedrigen Breiten kann bis 117°C steigen, während sie in der langen Mondnacht bis -181°C zurückgehen kann; d. h. bis fast zum Siedepunkt flüssigen Sauerstoffs (Abbildung 2). Die per Fernerkundung gemessenen Temperaturwerte in der Äquatorregion korrelieren sehr gut mit den von der Apollo 15-Mission direkt gemessenen Temperaturdaten auf 26,1°N in den frühen siebziger Jahren (siehe Huang 2008). In den Polargebieten innerhalb dauerhaft beschatteter Gebiete in den großen Einschlagkratern hat Diviner sogar einige der kältesten jemals auf einem Himmelskörper registrierte Temperaturwerte gemessen, nämlich -238°C bis -248°C. Es ist wichtig zu beachten, dass Planetenwissenschaftler vor etwa 13 Jahren detaillierte Modelle der Oberflächentemperatur des Mondes und vom Merkur entwickelt haben (z. B. Vasavada et al. 1999). Diese Modelle wurden jetzt erfolgreich mit den Diviner-Messungen validiert (Paige et al. 2010b, Dr. M. Siegler an der UCLA, Personalkommunikation).

Was jedoch für unsere Diskussion am interessantesten ist, sind die mittleren Temperaturen in verschiedenen Breiten des Mondes, weil diese mit Temperaturen in ähnlichen Gebieten der Erde verglichen werden können, um die Größe von ATE zu evaluieren und unsere Berechnungen zu verifizieren. Abbildung 3 zeigt typische Tagesgänge der Temperatur auf der Mondoberfläche in vier geographischen Breiten (übernommen von Paige et al. 2010a).

Abbildung 2 Thermalkarten der Mondoberfläche, basierend auf den Infrarotmessungen von Diviner, die die Temperaturfelder des täglichen Maximums und des nächtlichen Minimums zeigen (Quelle: Diviner Web Site)

Abbildung 3: Typische Tagesgänge der Temperatur auf der Mondoberfläche in verschiedenen Breiten. Die lokale Zeit ist in Mondstunden dargestellt, die mit 1/24 eines Mondmonats korrespondieren. Auf einer Breite von 89° werden die Tagesgänge zur Sommer- bzw. Wintersonnenwende gezeigt (übernommen von Paige et al. 2010a). Gestrichelte Linien zeigen die Jahresmittel am Mondäquator und an den Polen.

Abbildung 4: Die Temperaturkarten der Südpole von Mond und Erde: (A) Temperaturfeld tagsüber zur Zeit der stärksten Bestrahlung auf dem Mond; (B) Temperaturfeld nachts auf dem Mond; (C) mittlere Sommertemperatur in der Antarktis; (D) mittlere Wintertemperatur in der Antarktis. Die in Fettdruck gezeigten Zahlen in den Teilkarten (C) und (D) sind Temperaturwerte in °K. Die Teilkarten (A) und (B) wurden aus den Diviner Lunar Radiometer Experiment (Paige et al. 2010b) erzeugt. Die Verhältnisse in der Antarktis  stammen von Wikipedia (http://en.wikipedia.org/wiki/Antarctic_climate). Der Vergleich der Temperaturen zwischen dem Südpol des Mondes und der Antarktis legen für diesen Teil des Globus‘ eine thermische Auswirkung (enhancement) der Erdatmosphäre (d. h. ein „Treibhauseffekt“) von etwa 107 K im Sommer und 178 K im Winter nahe.

Die Abbildungen 4A und 4B zeigen die Temperaturverteilung am Südpol des Mondes während der stärksten Illumination am Tage und in der Nacht (Paige et al. 2010b). Da der Mond nur eine Achsenneigung von 1,54° und geringe Rotation aufweist, sind die mittleren täglichen Temperaturen ähnlich den monatlichen Temperaturmitteln. Diese Daten, zusammen mit den Informationen auf der Diviner Science webpage zeigen, dass die Mitteltemperatur an der Mondoberfläche von -175°C an den Polen bis -67°C am Äquator reicht. Das passt ziemlich gut zu unserer theoretischen Abschätzung von 154,7 K für die mittlere globale Temperatur nach Gleichung 6. In den kommenden Monaten wollen wir versuchen, die tatsächliche Mitteltemperatur des Mondes aus den Diviner-Messungen zu berechnen. Inzwischen zeigen die von den Planetenwissenschaftlern der NASA veröffentlichten Daten, dass der von der gegenwärtigen GE_Theorie übernommene Wert von 250 K bis 255 K als die mittlere Temperatur des Mondes weit übertrieben ist, da so hohe Temperaturmittel nicht an irgendeiner Breite des Mondes auftreten! Selbst am Mondäquator ist es 44 K bis 49 K kälter als nach dieser Schätzung. Dieser Wert ist deswegen ungenau, weil er das Ergebnis einer nicht zulässigen Applikation des Stefan-Boltzmann-Gesetzes auf eine Sphäre ist, wenn man von der falschen Albedo ausgeht (siehe die Diskussion in Abschnitt 2.1 oben)!

Genauso sind auch die auf der Website NASA Planetary Fact Sheet gezeigten mittleren globalen Temperaturen des Merkur (440 K) und Mars (210 K) nicht korrekt, da sie mit der gleichen Gleichung 3 berechnet wurden, die zum Ergebnis von 255 K für den Mond führte. Wir legen den Lesern nahe, diese Behauptung durch Anwendung von Gleichung 3 auf die Daten der Solarstrahlung (So) und der Albedo (bond albedo) (αo) zu verifizieren, die auf der Tatsachenseite (fact sheet) jedes Planeten gelistet sind, wobei ϵ = 1 gesetzt wird. Dies ist der Grund, warum wir in unserer Originalstudie den Wert von 248,2 K für den Merkur verwendet haben, da dieser Wert mit der theoretisch korrekten Gleichung 6 errechnet worden ist. Für den Mars haben wir Mittelwerte von Temperatur und Druck an der Oberfläche übernommen, die aus von dem Radio Science Team an der Stanford University erfragten regionalen Daten berechnet worden sind, und die aus Fernerkundungsdaten der Mars Global Surveyor-Raumsonde stammen. Ist es nicht merkwürdig, dass der Autor der Planetary Fact Sheet-Site der NASA, Dr. David R. Williams Gleichung 3 gewählt hat, um die mittlere Oberflächentemperatur des Mars‘ zu berechnen und die große Zahl direkter Messungen von hoher Qualität von dem Roten Planeten ignoriert hat!?

Also, welche reale Größenordnung hat der atmosphärische thermale Effekt (ATE) der Erde?

 

Tabelle 1: Geschätzter atmosphärischer Thermaleffekt für den Äquator und die Pole, basierend auf beobachteten Temperaturen auf der Erde und auf dem Mond unter Verwendung der Mondoberfläche als Proxy für den theoretischen Graukörper der Erde. Die Daten stammen von der Diviner’s Science webpage, Paige et al. (2010b), Abbildung 4 und von Wikipedia:Oymyakon.

Abbildung 5: Die mittlere jährliche Temperatur der Erde nach Wikipedia (geographische Zonen: http://en.wikipedia.org/wiki/Geographical_zone).

Tabelle 1 zeigt beobachtete mittlere und rekordtiefe Temperaturen auf gleicher Breite von Erde und Mond. Der ATE ist berechnet als der Unterschied zwischen Erd- und Mondtemperaturen unter der Annahme, dass der Mond eine perfekte PGB-Proxy für die Erde ist. Abbildung 5 zeigt die globale Verteilung der mittleren Jahrestemperatur auf der Erde, um dem Leser zu helfen, einige der in Tabelle 1 gelisteten Werte visuell zu verifizieren. Die Ergebnisse dieses Vergleichs können wie folgt zusammengefasst werden:

Der atmosphärische thermale Effekt, derzeit als der natürliche Treibhauseffekt bekannt, variiert von 93 K am Äquator bis etwa 150 K an den Polen (letztere repräsentiert ein Mittel zwischen mittleren ATE-Werten am Nord- und Südpol, d. h. (158+143)/2 =150.5). Diese Spannbreite passt ziemlich gut zu unserer theoretischen Abschätzung von 133 K für den Gesamt-ATE der Erde, abgeleitet aus Gleichung 6, d. h. 287.6K – 154.7K = 132.9K.

Natürlich sind weitere Analysen der Diviner-Daten erforderlich, um eine präzisere Abschätzung der Mitteltemperatur an der Mondoberfläche abzuleiten und unsere Modellvorhersage zu verifizieren. Allerdings wird schon aus den veröffentlichten Messungen vom Mond deutlich, dass der weithin genannte Wert von 33 K für den mittleren ATE der Erde (GE) ausgesprochen in die Irre führt und falsch ist.

  1. Schlussfolgerung

Wir haben gezeigt, dass die Strahlungsintensität nach dem Stefan-Boltzmann-Gesetz fälschlich auf die Temperatur angewendet wurde (Gleichungen 1 und 3), um die mittleren Oberflächentemperaturen von Himmelskörpern einschließlich Mars, Merkur und Mond vorherzusagen. Infolge der Hölder’schen Ungleichheit zwischen nicht linearen Integralen liegt die mit Gleichung 3 ermittelte effektive Emissionstemperatur immer signifikant höher als die tatsächliche (arithmetische) Mitteltemperatur eines luftleeren Planeten. Dies macht die planetarische Emissionstemperatur Te aus Gleichung 3 physikalisch inkompatibel mit jeder gemessenen wirklichen Temperatur auf der Erdoberfläche oder in der Atmosphäre. Durch Verwendung einer geeigneten Integration des Stefan-Boltzmann-Gesetzes über eine Sphäre haben wir eine neue Formel abgeleitet (Gleichung 6), um die mittlere Temperatur eines planetarischen Graukörpers abzuschätzen (unter Mithilfe einiger Annahmen). Dann haben wir die nach dieser Formel berechnete Mitteltemperatur des Mondes verglichen mit aktuellen thermischen Beobachtungen durch das Diviner Radiometer Experiment der NASA. Die Ergebnisse zeigen, dass die Mitteltemperatur des Mondes wahrscheinlich sehr nahe dem Schätzwert nach unserer Gleichung 6 liegt. Gleichzeitig zeigen die Mondmessungen auch, dass die gegenwärtige Schätzung von 255 K für die lunare Oberflächentemperatur, die weit verbreitet in der Klimawissenschaft verwendet wird, unrealistisch hoch ist und außerdem demonstriert, wie ungeeignet Gleichung 3 für diesen Zweck ist. Das Hauptergebnis des Vergleichs Mond – Erde (unter der Annahme, dass der Mond eine perfekte Proxy für den Graukörper Erde ist) ist, dass der ATE der Erde, auch bekannt als der natürliche Treibhauseffekt, 3 bis 7 mal größer ist als gegenwärtig angenommen. Mit anderen Worten, die aktuelle GE-Theorie unterschätzt die tatsächliche Wärme durch die Atmosphäre um etwa 100 K! Ausgedrückt als relative thermische Größe (enhancement) wird der ATE zu NTE = 287.6/154.7 = 1.86.

Dieses Ergebnis wirft eine Frage auf: Wie kann eine so große thermische Wirkung (>80%) das Ergebnis einer Handvoll infrarot absorbierender Gase sein, die zusammen weniger als 0,5% der Gesamtatmosphäre ausmachen? Wir erinnern an unsere frühere Diskussion, dass Beobachtungen zufolge die Atmosphäre lediglich 157 bis 161 W/m² langwellige Strahlung von der Oberfläche absorbiert. Kann dieser geringe Fluss die Temperatur der unteren Atmosphäre um mehr als 100 K im Vergleich zu einer luftleeren Umgebung zunehmen lassen? Die offensichtliche Antwort lautet, dass der beobachtete Temperatursprung (temperature boost) nahe der Oberfläche nicht auf dieser atmosphärischen IR-Absorption beruhen kann! Folglich legen die Beweise nahe, dass die untere Troposphäre viel mehr kinetische Energie enthält, als der Strahlungsfluss allein bewirken kann. Die Thermodynamik der Atmosphäre wird durch die Gasgleichung festgelegt, die besagt, dass die kinetische Energie und die Temperatur eines Gasgemischs auch eine Funktion des Drucks ist (unter Anderem, versteht sich). Im Falle eines isobarischen Prozesses, bei dem der Druck konstant und unabhängig von der Temperatur ist, wie es auf der Erdoberfläche der Fall ist, ist es die physikalische Kraft des atmosphärischen Drucks allein, der in vollem Umfang die beobachtete thermische Wirkung (NTE) nahe der Oberfläche erklären kann. Aber dies ist Gegenstand unserer nächsten Studie… Bleiben Sie dran!

Ned Nikolov, Ph.D. und Karl Zeller, Ph.D.

  1. References

Inamdar, A.K. and V. Ramanathan (1997) On monitoring the atmospheric greenhouse effect from space. Tellus 49B, 216-230.

Houghton, J.T. (2009). Global Warming: The Complete Briefing (4th Edition). Cambridge University Press, 456 pp.

Huang, S. (2008). Surface temperatures at the nearside of the Moon as a record of the radiation budget of Earth’s climate system. Advances in Space Research 41:1853–1860 (http://www.geo.lsa.umich.edu/~shaopeng/Huang07ASR.pdf)

Kuptsov, L. P. (2001) Hölder inequality. In: Encyclopedia of Mathematics, Hazewinkel and Michiel, Springer, ISBN 978-1556080104.

Lin, B., P. W. Stackhouse Jr., P. Minnis, B. A. Wielicki, Y. Hu, W. Sun, Tai-Fang Fan, and L. M. Hinkelman (2008). Assessment of global annual atmospheric energy balance from satellite observations. J. Geoph. Res. Vol. 113, p. D16114.

Paige, D.A., Foote, M.C., Greenhagen, B.T., Schofield, J.T., Calcutt, S., Vasavada, A.R., Preston, D.J., Taylor, F.W., Allen, C.C., Snook, K.J., Jakosky, B.M., Murray, B.C., Soderblom, L.A., Jau, B., Loring, S., Bulharowski J., Bowles, N.E., Thomas, I.R., Sullivan, M.T., Avis, C., De Jong, E.M., Hartford, W., McCleese, D.J. (2010a). The Lunar Reconnaissance Orbiter Diviner Lunar Radiometer Experiment. Space Science Reviews, Vol 150, Num 1-4, p125-16 (http://www.diviner.ucla.edu/docs/fulltext.pdf)

Paige, D.A., Siegler, M.A., Zhang, J.A., Hayne, P.O., Foote, E.J., Bennett, K.A., Vasavada, A.R., Greenhagen, B.T, Schofield, J.T., McCleese, D.J., Foote, M.C., De Jong, E.M., Bills, B.G., Hartford, W., Murray, B.C., Allen, C.C., Snook, K.J., Soderblom, L.A., Calcutt, S., Taylor, F.W., Bowles, N.E., Bandfield, J.L., Elphic, R.C., Ghent, R.R., Glotch, T.D., Wyatt, M.B., Lucey, P.G. (2010b). Diviner Lunar Radiometer Observations of Cold Traps in the Moon’s South Polar Region. Science, Vol 330, p479-482. (http://www.diviner.ucla.edu/docs/paige_2010.pdf)

Ramanathan, V. and A. Inamdar (2006). The Radiative Forcing due to Clouds and Water Vapor. In: Frontiers of Climate Modeling, J. T. Kiehl and V. Ramanthan, Editors, (Cambridge University Press 2006), pp. 119-151.

Smith, A. 2008. Proof of the atmospheric greenhouse effect. Atmos. Oceanic Phys. arXiv:0802.4324v1 [physics.ao-ph] (http://arxiv.org/PS_cache/arxiv/pdf/0802/0802.4324v1.pdf ).

Stephens, G.L., A. Slingo, and M. Webb (1993) On measuring the greenhouse effect of Earth. NATO ASI Series, Vol. 19, 395-417.

Trenberth, K.E., J.T. Fasullo, and J. Kiehl (2009). Earth’s global energy budget. BAMS, March:311-323

Vasavada, A. R., D. A. Paige and S. E. Wood (1999). Near-surface temperatures on Mercury and the Moon and the stability of polar ice deposits. Icarus 141:179–193 (http://www.gps.caltech.edu/classes/ge151/references/vasavada_et_al_1999.pdf)

Link: http://wattsupwiththat.com/2012/01/22/unified-theory-of-climate-reply-to-comments/#more-55210

Übersetzt von Chris Frey für EIKE




Vahrenholt-Bestseller „Die Kalte Sonne“ – Das Imperium der Meinungsmacher schlägt zurück!

Zuvor können Sie hier bei der FTD Ihre Meinung zum Buch abgeben.

Medienecho :

Übernommen von der Website Die kalte Sonne

Heute am 8.2. erschien der abschließende Teil 3 der Bild-Klimaserie. Hierin geht es um die politischen und wirtschaftlichen Implikationen der Klimafrage.

Auch die WAZ und das Magazin Erneuerbare Energien berichteten über das Buch.

Die Financial Times Deutschland veröffentlichte einen Beitrag von Fritz Vahrenholt mit dem Titel “Fürchtet Euch nicht”, in dem er die Kernthesen unseres Buches zusammenfasst.

In einem Gegenartikel auf der gleichen Seite greift der Kommunikationsdirektor der Berliner European Climate Foundation, Carel Mohn, das Buch scharf an. Auffällig ist, dass Mohn nicht ein einziges wissenschaftliches Argument diskutiert. Vielmehr gibt er sich ganz der guten alten Schwarz-Weiß-Diskussion hin und übersieht dabei ganz, dass “Die kalte Sonne” hier schon viel weiter ist, nämlich die vielfältigen Grau-Schattierungen differenziert anspricht. Ungeschickt stilisiert er die Debatte auf Hobbyforscher Vahrenholt/Lüning gegen den Rest der Welt. Falsch ! Die Debatte wird seit Jahren weltweit geführt, unter Beteiligung von etablierten Fachwissenschaftlern auf beiden Seiten. Viele gute Argumente für eine stärkere Beteiligung natürlicher Klimafaktoren wie die Sonne oder Ozeanzyklen kommen gerade aus deutschen Instituten. Diese sind im Buch detailliert zitiert und in einen Kontext gesetzt. Der von Mohn angeführte, angebliche “Main Stream” gliedert sich in Wirklichkeit in viele kleine Seitenarme auf – so wie es in der Wissenschaft üblich ist. Die Hinterfragung der “etablierten Wissenschaftscommunity” als krude Verschwörungstheorie abzutun zeigt, wie weit sich die Klimawissenschaften bereits vom allgemeinen wissenschaftlichen Vorgehen entfernt haben. Kritische Diskussion und das Hinterfragen von Modellen sind integrale Bestandteile der wissenschaftlichen Grundprinzipien. Wer sich hinter hohen Mauern des Establishment verbarrikadiert, hat möglicherweise einen Grund dazu. Woher nur stammt diese Angst vor kritischer Fachdiskussion?

Die Süddeutsche Zeitung hat sich an solch einer Fachdiskussion versucht. Um es vorweg zu nehmen, mit erschreckendem Ergebnis. Dazu muss man berücksichtigen, dass der Autor Christoph Schrader in der Vergangenheit stets fest auf der Weltklimarats-Seite beheimatet war, kämpfte also gerade für die wissenschaftliche Schule, die wir in unserem Buch kritisieren. Da verwundert es nicht, dass Schrader in seinem Artikel “Eine kalte Spur – Wie stark Sonnenzyklen den Klimawandel beeinflussen” zu beweisen sucht, dass die Sonne klimatisch zu vernachlässigen sei. Auch er fällt in die Feulner-Falle, die wir in den Medienbesprechungen der Vortage bereits ausgiebig besprochen haben. Wenn man von vorneherein Modelle verwendet, in denen die solare Klimawirksamkeit minimiert wurde, dann muss man sich nicht wundern, dass auch kein Temperatureffekt herauskommt (siehe S. 320 in “Die kalte Sonne”). Die solar-geprägten Klimazyklen der vergangenen 10.000 Jahre können so natürlich nicht erklärt werden. Eine klassische Theorie-vs.-Praxis-Schere.

Erschreckend auch der irreführende Hinweis auf die Abnahme der Sonnen-”Helligkeit” seit den 1950er/60er Jahren. Besonders seltsam, dass sich Schrader hierbei auf Prof. Sami vom Max-Planck-Institut für Sonnensystemforschung bei Göttingen bezieht. Denn gerade Solanki war es, der 2004 in einer Nature-Publikation darauf hinwies, dass die Sonnenaktivität der vergangenen Jahrzehnte zur höchsten der gesamten letzten 10.000 Jahre zu zählen ist. Dafür hatte Solanki damals kräftig Kritik aus dem IPCC-Lager einstecken müssen. Seit diesem Vorfall sind die Veröffentlichungen der Max-Planck-Manns jedoch auffällig IPCC-konform geworden. Gerade konnte er dies mit einem neuen Artikel wieder zeigen. In einem Science-Artikel schrieb er kürzlich mit seiner Kollegin Natalie Krivova, dass die weitere Aktivitätsentwicklung der Sonne weitgehend unbekannt sei, womit sie sich gegen ein Dutzend anderer Solarphysiker-Kollegen aus aller Welt stellten, welche für die kommenden Jahrzehnte einstimmig eine ausgeprägte Sonnenflaute vorhersagen (siehe Seiten 299-308 in unserem Buch). Der IPCC wird sich über diese Publikation freuen, stellt er doch gerade den 5. IPCC-Bericht zusammen für den momentan fleissig Papers gesammelt werden.

Es wäre vielmehr Schraders Pflicht gewesen, die außerordentlich starken Sonnenzyklen 21 und 22 in den 1980er und 90er Jahren zu erwähnen. Diese brachten die Sonne nach einer Schwächephase im 1920. Zyklus in den 1970er Jahren wieder richtig in Fahrt. Die erwähnte Sonnenspitze des 19. Zyklus um 1960 herum war einfach viel zu kurz, so dass sich keine Gleichgewichtstemperatur ausbilden konnte (siehe Diskussion S. 116-117 im Buch). Zudem ist die herausstechende Sonnenspitze im Sonnenmagnetfeld gar nicht ausgebildet und die Werte der 1980er/90er Jahre sind sogar noch höher (siehe Abb. 56 auf S. 237). Dies ist insbesondere von Interesse, wenn man sich mögliche Solarverstärker über das Sonnenmagnetfeld, kosmische Strahlung und Wolken (Svensmark-Effekt) anschaut.

Dann Schraders nächster Ausrutscher. Während der ”Kleinen Eiszeit”, einer natürliche Kältephase vor wenigen hundert Jahren, wäre es angeblich nur um 0,5°C kälter als heute gewesen. Hier ist Schrader offensichtlich bei der mittlerweile überholten Hockey Stick Kurve hängengeblieben. Die Kurve ist mittlerweile vollumfänglich diskreditiert (siehe Buch S. 121ff) und wurde schon nicht mehr im 2007er Bericht des IPCC verwendet. Die aktuellste Kurve stammt von Ljungqvist (2010) die wir auf Seite 123 im direkten Vergleich mit anderen Kurven darstellen. So wird aus Schrader’s veralteten 0,5°C schnell mehr als das doppelte. Die Kleine Eiszeit vor allem durch Vulkanausbrüche zu erklären ist albern und ist leicht als CO2-Rettungsaktion zu enttarnen. Wenn wir uns die letzten 10.000 Jahre anschauen, gab es eine ganze Serie dieser Abkühlungsphasen, die in der Regel stets mit einem Abfall der Sonnenaktivität verbunden waren (siehe Buch S. 70). Folgt man Schraders Argumentation, müssten wir wohl die Vulkane auch für all diese anderen Kältephasen verantwortlich machen. Was für ein großer Zufall, dass sich jedesmal die Sonne abschwächte.

Und nochmal schickt Schrader Solanki ins Rennen. Solanki bemängelt das angebliche schlechte Timing zwischen Sonnenaktivität und Temperatur. Hierbei ignorieren beide ohne mit der Wimper zu zucken den Klimabeitrag der dekadischen Ozeanzyklen. So kann die Pazifische Dekaden-Oszillation (PDO) die Temperatur im Verlauf ihres 60-Jahreszyklus um wenige Zehntelgrade verändern (siehe Buch S. 110ff). PDO und Temperaturwellen verlaufen wie Zwillinge überraschend synchron. Eine simplistische Sonne-Temperaturkorrelation ist daher gar nicht zu erwarten.

Schraders weitere Ungenauigkeiten und Verdrehungen seien aus Zeitgründen nur kurz angeschnitten:

Aber sicher, für den 1000-Jahres-Sonnenzyklus gibt es natürlich sehr gute Belege (z.B. Ma 2007, Abreu et al. 2010). Die Datenlage ist alles andere als ungewiss. Fragen Sie vielleicht einmal den Schweizerischen Physiker Dr Friedhelm Steinhilber

Svensmarks Solarverstärker-Studien über die kosmische Strahlung sind keineswegs widerlegt worden (siehe Details im Buch Kapitel 6 sowie inbesondere Seite 260/261). Im Gegenteil, andere Forschergruppen konnten sogar wichtige Elemente bestätigen (z.B. Usoskin et al. 2004, Laken et al. 2010)

Beim CERN passiert Schrader dann eine ganz schlimme Fehleinschätzung. Ganz im Gegenteil zu Schraders Behauptung, hat die erste Phase des CLOUD-Experiments einen wichtigen Teileffekt des Svensmark-Mechanismus belegen können, nämlich die Entstehung von Aerosolen durch kosmische Strahlung allgemein (siehe Buch S. 249-251) . Was treibt Schrader dazu an, dieses Zwischenresultat bewußt kleinzureden und die ahnungslosen SZ-Leser in die Irre zu führen? Erst in einem zweiten Schritt wird derzeit überprüft, ob aus diesen kleinen Aerosolen größere werden können, die dann als Wolkenkondensationskeime dienen würden. Mit den Ergebnissen ist erst 2013/2014 zu rechnen.

Schraders Fazit zum Buch ”Das überzeugt Klimaforscher nicht” ist schwer zu verstehen. Unser Buch “Die kalte Sonne” bietet einer großen Zahl von Klimaforschern eine Plattform, die ihnen vom IPCC bislang aus unerfindlichen Gründen verweigert wird. Welche “Klimaforscher” meint Schrader denn nun wirklich? Vermutlich diejenigen Klimaforscher, die im IPCC das Sagen haben und die einseitigen Synthesen zu verantworten haben, aus denen sie unbequeme Klimaforscher- Kollegen bewußt heraushalten.

Da klingt die abschließende Aussage von Georg Feulner (Potsdam-Institut für Klimafolgenforschung) in Schraders SZ-Artikel schon fast wie ein Stoßgebet: “Selbst wenn da eine Lücke für ungeklärte Effekte wäre, ist sie sicher nicht groß genug, um das Gebäude der Klimaforschung einstürzen zu lassen”. Lieber Herr Feulner, es geht hier gar nicht um den Einsturz eines Gebäudes, sondern um eine gründliche Renovierung auf Basis einer tragfähigen und hinterfragbaren wissenschaftlichen Grundlage. Denn nur dann kann die Klimawissenschaft die wichtige Rolle in den politischen Entscheidungsprozessen spielen, die ihr auch unzweifelhaft zusteht.

Auch das Magazin Independence berichtete am 8. Februar über unser Buch. In dem Beitrag wird seltsamerweise behauptet, der Deutsche Wetterdienst DWD hätte die fehlende Erderwärmung des letzten Jahrzehnts widerlegt. “Im Zeitraum 1981 bis 2010 habe das Strahlungspotenzial um 2 Prozent zugelegt”. Wie bitte, welches Strahlunsgpotential eigentlich? Ging es nicht gerade noch um Temperaturen? Und plötzlich wird hier die Haupterwärmungsphase 1977-2000, die wir im Buch ausführlich besprechen, mit der erwärmungslosen Zeit seit 2000 munter vermischt. Es ist ganz klar: Wenn man den Zeitraum 1981-2010 betrachtet, ist es global natürlich wärmer geworden. Nichts anderes berichten wir in unserem Buch. Die Lust am politisch korrekten Widerspruch treibt seltsame Blüten…

Die FAZ brachte heute gleich mehrere Berichte zu unserem Buch. Im Artikel “Vahrenholt hält Warnungen vor Klimawandel für übertrieben” wird das Buch vorgestellt. Im Beitrag “Die sonderlichen Sonnenanbeter” versucht Hermann-Michael Hahn dann sogleich den klimatischen Einfluss der Sonne anhand von drei neueren Studien zu widerlegen, was jedoch misslingt:

  • Miller et al. (2012): Ein verzweifelter Versuch, die Kleine Eiszeit im 15.-19. Jh. (siehe Buch Seite 62ff) durch Vulkanausbrüche zu erklären. Dass auch die Sonne zu dieser Zeit ziemlich schwach, wäre purer Zufall. Aber was ist dann mit den anderen 10 natürlichen Kältephasen in den letzten 10.000 Jahren, als ebenso die Sonne schwach und die Temperaturen im Keller waren (Abb. 12, Seite 70)? Sicher auch alles Zufall! Nachdem die Hockey Stick Kurve vor ein paar Jahren einkassiert wurde und die Kleine Eiszeit plötzlich nicht mehr zu verstecken war, braucht der IPCC nun dringend diesen Vulkan-Joker, just in time für den 5. Klimazustandsbericht, der gerade geschrieben wird.
  • Das neue Paper von James Hansen wurde bereits von Willis Eschenbach heftig kritisiert, so dass es nicht als Beleg gegen die Sonne dienen kann. Das Hansen-Team nimmt dabei bewusst nur die geringe, vom IPCC postulierte Klimawirksamkeit der Sonne an und schließt von vorneherein solare Verstärkerprozesse aus, auf die es aber zahlreiche ernstzunehmende Hinweise gibt (siehe Kapitel 6). Man muss dazu wissen, dass sich Hansen in der Vergangenheit stets mit den alarmistischsten Klimawarnungen hervorgetan hat. Ihm reichten die vom IPCC prognostizierten 18-59 cm Meeresspiegelanstieg bis 2100 bei weitem nicht und so erhöhte er die Prognose schnell einmal auf persönliche 5 m (siehe Buch S. 201). Auch bei den Tornados machte er keine gute Figur (Buch S. 205).
  • Schließlich führt Hahn noch ein neues Paper von Jones et al. (im Druck) als angeblichen Anti-Sonnen-Beweis an. Wie auch Feulner & Rahmstorf (2010) ist die Temperaturaussage von Jones et al. aber wenig aussagekräftig, da lediglich die vom IPCC postulierte geringe solare Klimawirksamkeit in die Modelle eingebaut wird. Gerade dies bezweifeln wir aber (siehe Kapitel 3 und 5) und nehmen aufgrund der engen Sonne-Klima-Verknüpfung in den letzten 10.000 Jahren Solarverstärkerprozesse an, die bislang in den IPCC-Modellen fehlen (siehe Buch Kapitel 6). Das Jones et al. Paper als Beweis für die Unwirksamkeit der Sonne heranzuziehen ist wenig zielführend, da eine der einfließenden Grundannahmen genau das zu beweisende Ergebnis ist. Ein klassischer Zirkelschluß !

Der DNR meldete sich mit einer Pressemitteilung zu Wort, in der er das Buch kritisierte. Die vorgebrachten Argumente sind aber so schwach und unklar, dass wir sie hier nicht kommentieren wollen.

Das Buch inspiriert mittlerweile sogar zu Diskussionen zur Endlichkeit des Öls, wie heute morgen im Deutschlandradio Kultur geschehen.

In einem Interview im Tagesspiegel verteidigte der Vize-Präsident des Potsdam-Instituts für Klimafolgenforschung, Ottmar Edenhofer, den Weltklimarat und verneinte den übermäßigen Einfluss von Umweltaktivistengruppe. Dass es einen solchen Einfluss jedoch dennoch gibt und dies wohl ein reales Problem darstellt, konnte vor kurzem die kanadische Autorin Donna Laframboise eindrucksvoll in ihrem lesenswerten Buch“The delinquent Teenager who was mistaken for the world’s top climate expert” dokumentieren.

Aus Berlin meldete sich nun auch der klimaretter.info mit einem launigen Bericht zum Buch. Man muss dem Autor Toralf Staud zugestehen, dass er sich bei der Eiseskälte die Mühe gemacht hat, zur Pressekonferenz am Montag zu kommen. Und einen schönen Schreibstil hat er auch. Sehr positiv ist auch zu bewerten, dass er den Co-Autor Lüning gleich mehrfach mit dem Titel “junger Geologe” und “junger Kollege” ehrt. Das macht den Kampf gegen die grauen Haare in den 40ern auf jeden Fall erträglicher. Mehr Lob kann der “junge Redakteur” Staud aber nun wirklich hier nicht erwarten. Denn im fachlichen Bereich sieht es deutlich dünner aus, und auch sein Gedächtnis hat ihn hier und da etwas im Stich gelassen. Es fängt mit dem Titel “Natürlich haben wir etwas weggelassen” an. Hier hat nämlich Staud selber offensichtlich etwas weggelassen. Man erläuterte ihm im damaligen Gespräch, dass man die IPCC-Seite im Buch sehr wohl an vielen Seiten zitiert hätte (wie anders könnte man sie denn sonst kritisieren). Jedoch hatte man nicht das Ziel, das IPCC-Werk zu duplizieren, da man die Berichte unkompliziert und kostenlos aus dem Internet herunterladen kann.
Weiterhin erklärte man ihm geduldig, dass der IPCC überhaupt nicht offen für alle Sichtweisen ist (siehe Buch S. 155-161) und zum Beispiel Svensmark mit ein paar dürren Zeilen und einer (vor-) schnellen Abfuhr abgespeist wurde. Die wichtige Usoskin et al. (2004)-Bestätigung von Svensmarks Ergebnissen wurde schlichtweg im AR4 ignoriert. Auf Nachfrage konnte sich das nichtmal Usoskin selber richtig erklären. Die Darstellung von Staud entspricht daher keineswegs den Tatsachen.
Im Prinzip greift Staud das altbekannte Spielchen “Cherry Picking” auf, das sich beide Klimadebattenseiten gegenseitig ständig an den Kopf werfen. Dies ist ein Grundproblem. Die Darstellung eines möglichst in sich stimmigen Erklärungsmodells erfordert, dass man unzählige Einzelfakten in eine zusammenhängende Geschichte bringt. Da ist es dann für beide Debatten-Seiten und auch für die Leser lästig, wenn nach jedem einzelnen Satz ein “hingegen xyz hat gesagt” eingefügt wird. An geeigneter Stelle müssen selbstverständlich wichtige Publikationen erwähnt werden, mit einer Erläuterung, warum die Argumentation und Daten nicht nachvollzogen werden können. Und genau das haben wir getan. Im Buch “Die kalte Sonne” gehen wir auf die wichtigsten IPCC-Gegenpositionen gründlich ein. Die Feulners, Rahmstorfs, Schellnhubers und Hansens aus der IPCC-Welt sind reichlich zitiert. Man vermutet das es sich hier eher um ein Ablenkungsmanöver seitens Staud handelt. Wieso geht er nicht auf die beeindruckende Millenniumszyklik der letzten 10.000 Jahre mit der faszinierenden Sonne-Klima-Synchronität eingegangen? Warum hat er dies in seinem Bericht weggelassen, obwohl es in der Pressekonferenz lang und breit ausgerollt wurde? Und warum schreibt der Mann eigentlich seinen ganzen Artikel in “man-Form”? Vielleicht eine versteckte Huldigung an Hockey-Stick-Star Michael Mann? Und genau den versucht Staud dann auch in seinem Artikel zu verteidigen, indem er die Erwähnung einer Untersuchung des US-amerikanischen National Research Councils als angebliche Rehabilitation von Mann und seinem Hockey Schläger anmahnt. Da blättern wir doch mal im Geschichtsbuch zur Hockey Stick Kontroverse “The Hockey Stick Illusion: Climategate and the Corruption of Science” von Andrew Montford (übrigens sehr zu empfehlen!) und da stellt sich der angebliche Freispruch plötzlich ganz anders dar.
Von kleineren statistischen Fehlerchen kann zudem nicht die Rede sein. Im Jahr 2011 nahmen die Profi-Statistiker McShane & Wyner (2011)den Datensatz von Amateur-Statistiker Michael Mann und Kollegen nämlich genauer unter die Lupe und kamen zu einem gänzlich anderen Ergebnis: Die Mittelalterliche Wärmephase und die Kleine Eiszeit waren plötzlich wieder ganz deutlich ausgeprägt zu erkennen. Spätestens jetzt musste die von Mann et al. zuvor postulierte vor-industrielle Temperaturmonotonie als widerlegt angesehen werden (siehe Buch Seite 125-127). Sehr seltsam, genau das hatte man dem Herrn Staud doch damals nach der Pressekonferenz ausführlich in den Reporter-Block diktiert. Da hat er wohl was weggelassen. Weggelassen hatte er dann auch, dass der Original-Datensatz von Michael Mann zudem fehlerhaft ist, so dass zu den statistischen Problemen noch Datenprobleme kommen. Das hatte Mann dann wohl selber irgendwann einsehen müssen und veröffentlichte 2008 eine etwas verbesserte Temperaturkurve, in der die Mittelalterliche Wärmephase und die Kleine Eiszeit plötzlich wieder auftauchten (siehe Abb. 26 auf S. 123 in “Die kalte Sonne”). Apropos jung. Hatte man eigentlich schon erwähnt, dass Michael Mann seinen Hockeyschläger als ziemlich junger Klimatologe erschuf, frisch promoviert und schon kurz darauf IPCC-Leitautor? (siehe Buch S. 122). Auf den angekündigten Fakten-Check des Buches in den kommenden Tagen kann man gespannt sein. Momentan beschleicht einen noch das seltsame Gefühl, dass der klimaretter.info in Wahrheit vielmehr ein klimaratsretter.info ist.

Und es dauerte nicht lange (kann man das Buch so schnell lesen?), da hatte Toralf Staud auch schon den Faktencheck für Die Zeit fertig. Aus Zeitgründen wollen wir hier nur die entsprechenden Kapitel bzw. Seiten in unserem Buch angeben, wo man unsere Sichtweise detailliert nachlesen kann. Bei Rückfragen, können Sie uns gerne über das Kontaktformular ansprechen.

  • These: »Seit 1998 erwärmt sich die Erde nicht mehr, der Klimawandel hat gestoppt.«
    Unsere Entgegnung: Wir sagen nicht, der Klimawandel wäre gestoppt. Wir sagen nur, die Temperatur ist in den letzten 12 Jahren nicht mehr angestiegen (S. 15). Bis 2100 steigt die Temperatur in unserem schematischen Modell um bis zu 1°C an (S. 318)
  • These: »Die Hockeystick-Kurve war eine Fälschung.«
    Hierzu haben wir oben schon genug gesagt (S. 121-127)
  • These: »Die Sonne ist schuld an der Erderwärmung.«
    Kapitel 3 und 6
  • These: »Die kosmische Strahlung befeuert den Klimawandel.«
    Kapitel 6 und Gastbeitrag Prof. Svensmark (S. 209ff).
  • These: »Wegen sinkender Sonnenaktivität wird die Erderwärmung eine Pause einlegen.«
    Kapitel 7, S. 298ff
  • These: »Der IPCC manipuliert die Klimaforschung.«
    S. 154ff
  • These: »Da die Erderwärmung Pause macht, haben wir Zeit für die Energiewende.«
    Kapitel 9



Windenergie in der Grund-, Mittel- und Spitzenlast?

Die Stromerzeugungskosten in ct/kWh für die ersten 50 Prozent – leicht verständlich und realitätsnah:

Einleitung

In der Diskussion über die Energiewende gilt die Windenergie als die Hauptstütze für die Zukunft. Bisher fehlen jedoch belastbare Zahlen über die Kosten.

Dabei ist eine Überschlagsrechnung einfach durchzuführen. Bei dem beschriebenen Konzept  werden Gaskraftwerke mit ähnlich leistungsfähigen Windenergieanlagen (WEA) gekoppelt. Immer dann, wenn der Wind nicht genug leistet, springen Gaskraftwerke ein.

So ist ständig Strom in gefordertem Umfang verfügbar und das macht auch die Preiskalkulation einfach. Es ist gleichzeitig das einzig realistische und heutzutage mögliche Konzept zum Einsatz von Windenergie in maximalem Umfang. Alle Vorstellungen, die weit darüber hinausgehen, sind heute von den technischen Möglichkeiten her lediglich Visionen.

Ermittelt werden maximale (kein Wind) und minimale (100% Wind) Kosten, zwischen denen sich der reale Betrieb bewegt.

Die Ergebnisse sind überraschend: 

* wegen der Sicherheit in der Abschätzung,

* wegen  der Höhe der Kosten (Grundlast: 10-14 ct/kWh landbasiert, 15-19 ct/kWh Offshore, Mittellast: + 33%) und

* dem technisch-realistisch machbaren Anteil der Windenergie von 50% in Grund- und Mittellast.

Zum Vergleich: Die Stromerzeugungskosten für Kohle liegen bei 2,5-3,3 ct/kWh.

Der Einsatz von Speichertechniken wird ausgeschlossen, da sie in erforderlichem Umfang nicht annähernd verfügbar sind. Auch wird hier nicht dargestellt, wie hoch die Kosten eines Umsteuerns wären, wenn noch wirtschaftlich laufende Kraftwerke vorzeitig abgeschaltet werden. Zusätzlicher Netzausbau und Gasleitungen sind in der Kalkulation ebenfalls nicht enthalten.

Es ist davon auszugehen, dass andere Modelle (www.kombikraftwerk.de) mit höheren Anteilen alternativer Energien (Wind, Sonne, Biogas) und evtl. umfangreichen Speichern angesichts der praktischen Möglichkeiten im Großmaßstab zu keinen günstigeren, sondern deutlich teureren Ergebnissen kommen werden.

Es geht hier nur um Technik und Preise. Eine Bewertung unter sozialen, politischen, Klima-  und Umweltgesichtspunkten wird nicht vorgenommen.

Konzept

Es soll Grundlastbetrieb sicher gewährleistet sein.

Grundlast bezeichnet die Netzbelastung, die während eines Tages in einem Stromnetz nicht unterschritten wird. In Deutschland liegt sie bei um die 40 GW4 (2005) im Gegensatz zur Jahreshöchstlast mit 75 bis 80 GW.

Dazu werden Gaskraftwerke mit gleich leistungsfähigen WEAs gekoppelt. Dabei wird bei diesen eine durchschnittliche Auslastung im Jahresmittel von 20 % der Nennleistung angenommen, wie sie in der Realität von landbasierten WEAs in Deutschland auch vorkommen. D.h. beispielsweise, dass ein 300 MW Gaskraftwerk mit 1.500 WEAs mit je 1 MW Nennleistung gekoppelt wird, die zusammen ebenfalls im Durchschnitt 300 MW liefern.

Dabei entsteht unvermeidbar überschüssige Windenergie in Höhe von ca. 50%, für die es derzeit überwiegend keine wirtschaftlich vertretbare Verwendung gibt.

Um die Leistung von 40 GW zuverlässig bereitzustellen, wären ca. 130 Gaskraftwerke á 300 MW und 195.000 WEAs mit 1 MW Nennleistung notwendig. Derzeit gibt es ca. 22.000 WEAs in Deutschland mit einer installierten Durchschnittsleistung von 1,3 MW je Anlage. Je nach Anlagengröße und Standort ist daher ein weiterer umfangreicher Ausbau notwendig.

Wie sich Wind und Gas die Erzeugung der Grundlast aufteilen würden ist in der Grafik2a am Beispiel des Windgangs aller deutschen WEAs für März 2011 demonstriert. Für die unvermeidbare überschüssige Windenergie (grau) wird es vermutlich kaum Abnehmer5 geben, obwohl die  Kosten anfallen und auch in der Kalkulation hier einbezogen sind. Um es deutlich zu sagen: Windenergie, die angeboten, aber nicht abgenommen werden kann, muss bezahlt werden.

Kalkulation für Grundlast

Dass heutige EEG (Erneuerbare-Energien-Gesetz) bestimmt, dass aller durch WEAs erzeugte Strom auch abgenommen werden muss.

Bei der Verwendung in der Grundlast mit Kopplung von Gaskraftwerken ist das nicht möglich. Dann verfallen ungefähr 50%.

Aber der gesamte angebotene Strom durch WEAs muss bezahlt werden, weil sonst die Anlagenbetreiber nicht auf ihre Kosten kommen würden.

Wenn bspw. von den WEAs mehr als 300 MW Wind erzeugt werden, dann kann alles über 300 MW nicht verwendet werden und muss daher verfallen. Aber bezahlt werden muss es.

Preislich sieht das dann im  Durchschnitt so aus:

Es entfallen auf alle der ständig angebotenen 300 MW des gekoppelten Systems im Durchschnitt auch immer die entsprechenden Windkosten von 9 ct pro verbrauchter Kilowattstunde.

Erzeugerpreise1:

9 ct/KWh (Einspeisevergütung) bei WEAs

5 ct/KWh Erzeugerpreis bei Gaskraftwerken im Betrieb und 1 ct/kWh in Bereitschaft (angenommen)

Obere Preisgrenze:

Die Ausgangsfrage: Wo ist ungefähr die obere überhaupt mögliche Preisgrenze, wenn WEAs durch Gaskraftwerke gepuffert werden, um Grundlastbetrieb zu gewährleisten?

Die Antwort: Am teuersten ist es, wenn Gaskraftwerke zu 100% und WEAs zu 0% einspeisen, aber die WEAs mit ihrem Stromangebot bezahlt werden müssen, so, als ob sie 100% liefern würden. Dabei ist es egal wie lange dieser Zustand dauern würde. Die Stromleistung wird gleich zweimal erzeugt, aber nur einmal abgenommen. Einen höheren Preis kann es nicht geben.

Demnach beträgt der gesamte Erzeugerpreis:

5 ct/kWh (Gas, Erzeugerpreis) + 9 ct/kWh (Wind, Einspeisevergütung) = 14 ct/kWh obere Preisgrenze

Untere Preisgrenze:

WEAs liefern 100% Strom und das Gaskraftwerk ist nur in Bereitschaft.

9 ct/kWh + 1 ct/kWh  (Bereitstellungskosten) = 10 ct/kWh  untere Grenze

Zwischen 10 und 14 ct/kWh muss sich der real existierende Erzeugerpreis dieses Modells in der Realität einpendeln, wobei 12 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (15-19 ct/kWh) und im Mittel 17 ct/kWh sein.

Windenergieanteil

Im Durchschnitt liefern die WEAs 20% ihrer Nennleistung. Alles, was im gegebenen Augenblick über 300 MW erzeugt (angeboten) wird, verfällt. Das ist wahrscheinlich realistisch, da es kaum Speichermöglichkeiten in großem Umfang (Pumpspeicherwerke, etc.) gibt und der Verkauf ins Ausland bei einer nur nationalen Energiewende nicht zuverlässig sein dürfte.

Daher teilen sich im Durchschnitt Gas und Wind die Stromerzeugung je zur Hälfte.  Man kann es auch so ausdrücken: Um 50% Gas zu sparen werden 2-3fach höhere Erzeugerkosten bezahlt.

 

Die rote Linie stellt die durchschnittlich erzeugte Leistung dar und beträgt im Jahresmittel ca. 20% der Spitzenleistung. 2)

Erhöhung des Windanteils auf weit über 50%

Eine Erhöhung des Windanteils ist nur über eine massive Entwicklung von Speichern möglich. Praktisch stehen diese nicht in nennenswertem Umfang zur Verfügung. Die meisten Ideen sind reine Visionen, kaum kalkulierbar und dürften realisiert preislich astronomische Höhen erreichen.

Kalkulation für Mittellast

Mittellast bezeichnet im Kraftwerksmanagement den Bereich der Tageslastkurve, in dem

* über die Grundlast hinaus zusätzlicher Strom verbraucht wird und

* die Charakteristik des Stromverbrauchs so ist, dass sie von Mittellastkraftwerken abgedeckt werden kann.

Für kurze Spitzen des Stromverbrauchs, sehr starke Lastanstiege oder unvorhergesehenen Strombedarf müssen dann Spitzenlastkraftwerke hinzugenommen werden.

Ein Einsatz von ungespeicherter Windenergie in der Mittellast kann wie vorstehend für die Grundlast berechnet werden. Dabei muss berücksichtigt werden, dass ca. 1/3 der gesamten Zeit keine Leistung abgerufen werden kann. Dadurch ist der Preis der Kilowattstunde gegenüber der Grundlast im Mittel um ca. 1/3 höher.

Daher  muss sich der real existierende Erzeugerpreis dieses Modells in der Mittellast zwischen 13 und 19 ct/kWh einpendeln wobei 17 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (20-26 ct/kWh) und im Mittel 23 ct/kWh sein.

Es wären dann weitere ca. 34.000 WEAs mit je 1 MW Nennleistung notwendig.

-> Mittellast: http://de.wikipedia.org/wiki/Mittellast

Spitzenlast

Spitzenlast bezeichnet kurzzeitig auftretende hohe Leistungsnachfrage. Bedarfsspitzen zeichnen sich oft durch einen starken Anstieg der nachgefragten Leistung aus, so dass für die Stromversorgung schnell regelbare Spitzenlastkraftwerke eingesetzt werden müssen. Diese können innerhalb von Sekunden oder Minuten hohe Leistungen zur Verfügung stellen. Hierzu zählen unter anderem Pumpspeicher- und Druckluftspeicherkraftwerke, aber auch moderne Gasturbinenkraftwerke.

Vom Leistungsumfang her ist die Spitzenlast vergleichsweise gering.

Ein Einsatz von Windenergie in der Spitzenlast ist zuverlässig nur über Zwischenspeicherung möglich. Dazu können vorhandene Pumpspeicherwerke, etc. verwendet werden.

-> Spitzenlast: http://de.wikipedia.org/wiki/Spitzenlast

 

Die Grundlast betrug 40 GW im Jahre 2005. Mittellast ist nach dieser Grafik  für etwa  2/3 eines Tages notwendig. ->  http://de.wikipedia.org/wiki/Kraftwerksmanagement

Verbraucherpreise

Wie würden sich die vorstehend ermittelten Windenergiepreise auf die Verbraucherpreise auswirken?

Die Stromerzeugerpreise für die fossilen Energien (Kohle, Gas) betragen 2,5 bis 5 ct/kWh.

Die Windenergie liefert im Modell wie oben ausgeführt im Mittel für 12 ct (landbasiert) und 17 ct (offshore) die Kilowattstunde, also zu 8 ct oder 12 ct höherem Preis. Bei einem Drei-Personen-Haushalt mit 3.500 kWh jährlichem Verbrauch ergibt sich dadurch eine Erhöhung von 280 € bzw. 420 €  (plus MwSt).

Diese Mehrkosten könnten durch Senkung von Steuern und Abgaben kompensiert oder teilkompensiert werden. Staat und Kommunen müssten dann auf Einnahmen verzichten, die dann allerdings auch nicht mehr zu Ausgaben führen können. Auf volkswirtschaftlicher Ebene ergäbe sich dadurch direkt oder indirekt eine Absenkung von gewohnten Standards.

Für das Gewerbe und stromintensive Industrien können Strompreiserhöhungen existenzielle Bedeutungen haben und wären damit ein Politikum ersten Ranges.

Über die Zusammensetzung des Strompreises kann bei Wikipedia nachgelesen werden.

-> http://de.wikipedia.org/wiki/Strompreis

Fazit

Die Windenergie ist unter den Alternativen zu den fossilen Energien diejenige, deren technisches Potential am weitesten entwickelt und die preislich im Vergleich zur Sonne, der anderen Energie mit großem Potential, weit günstiger ist.

Nur eine Entwicklung der Speichertechnik wie Pumpspeicherwerke, Gasgewinnung (Wasserstoff, Methan, etc.) kann den Windanteil nennenswert über 50% anheben. Preislich dürften die Stromerzeugungskosten dadurch weiter stark ansteigen.

Bisher ist die öffentliche Diskussion mehr durch Vermutungen geprägt als durch fundiertes Zahlenmaterial. Vielleicht können die hier vorgelegten Betrachtungen bei der Fundierung und Versachlichung hilfreich sein.

Klaus Öllerer Publizist  – Dipl-Ing. Hannover, im Februar 2012

0170 92 60 771

www.oellerer.net

Anmerkung der Redaktion: Russland drosselt Gaslieferung

Bei weiterem Ausbau der Puffer-Gaskraftwerke würde die Abhängigkeit von Russland weiter steigen. Wenn die drosseln wie bereits jetzt geschehen, gehen die Lichter aus: Zitat aus der Welzheimer Zeitung vom 7.2.11

Am vergangenen Freitag habe sich die Lage aber weiter verschärft. In einem daraufhin an alle Großkunden verschickten Brief spricht die GVS-Netz von einer „kritischen Situation“ und fordert die Energieversorger „dringend“ auf Gas zu sparen. Unter anderem sollen – falls vertraglich möglich – Lieferungen heruntergefahren oder unterbrochen werden.

Nach Recherchen unserer Zeitung ist dies auch schon geschehen. So ist seit vergangenen Freitagabend Block vier des Karlsruher EnBW-Meilers RDK nicht mehr am Netz, wie eine EnBW-Sprecherin bestätigte. Die GVS-Netz selbst habe in den vergangenen Tagen die Gaslieferungen für „eine Handvoll Kunden“ reduziert, sagte der Sprecher.

Weitere Quellen

1. Stromerzeugungskosten
http://www.energie-verstehen.de/Energieportal/Navigation/Energieversorgung/stromerzeugung,did=249676.html

Die Einspeisevergütung für Land-WEAs als Kalkulationsgrundlage ist realistisch, da sie die Errichtung, den Betrieb, die Wartung und den Gewinn für die Eigentümer beinhaltet.

2. Windleistung in Deutschland

 Prof. Dr.-Ing H. Alt, Fachhochschule Aachen, Hilfsb 123-5 Windleistung Deutschland 3-2011

2a. wie vor, jedoch geändert

3. Foto Windenergie in Landschaft
(c) J. Musehold

4. GW=Gigawatt, MW=Megawatt, kW=Kilowatt, W=Watt

1 GW=1.000 MW=1.000.000 kW=1.000.000.000 W

5. Wind-Wärme-Kopplung
Es wäre denkbar, dass überschüssiger Windstrom niederpreisig zur Wärmeerzeugung (Fernwärme, etc.) verwendet wird.




Windräder töten Vögel und Fledermäuse! Update

Rotorspitzen über 400 km/h schnell

Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 km/h durch die Luft und laut Informationstafel am Schellenberg bei Neustadt a. d. Aisch liegt deren Spitzengeschwindigkeit bei 272,3 km/h. Neuere Anlagen erreichen über 400 km/h. Für Skeptiker zum Nachrechnen: Einfach die Rotorblattlänge in Metern mit 22,6 multiplizieren und durch die Zahl der Sekunden teilen, die das Windrad für eine Umdrehung braucht und man erhält die Geschwindigkeit der Rotorblattspitzen in km/h. Die meisten Rotorblätter sind zwischen 35 und 55 Meter lang, auf See sind Längen von 125 Metern geplant.
Aktualisiert am 26. Januar 2012Sog zieht Vögel und Fledermäuse an die Rotoren.
Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe eines Rotorblattes, saugt sie ein Unterdruck unweigerlich gegen das Rotorblatt und es ist um sie geschehen. Dieser Unterdruck entsteht durch die Luftströmung an den Rotorblättern und schwankt, weil der Wind mal schneller oder mal langsamer weht und auch, weil sich das Rotorblatt wegen seines hohen Trägheitsmomentes nur verzögert schneller oder langsamer drehen kann. Mit dem Unterdruck schwankt auch der daraus resultierende Sog ständig. Verstärkt werden die Druckschwankungen durch den Turm-Effekt, weil immer dann, wenn ein Rotorblatt vor dem Turm vorbei saust, der Winddruck abfällt und deshalb das Rotorblatt vor und zurück springt. Das hört man als Wummern, weil der Mast periodisch von den nachlaufenden Luftströmungen des vor ihm vorbei sausenden Rotorblattes getroffen wird und sich seine Anströmrichtung und Anströmgeschwindigkeit kurzzeitig ändern. Hinzu kommt, dass der Wind mit der Höhe zunimmt, was man schon vom Kinderdrachen kennt. Das bedeutet aber, dass die Rotorblätter, wenn sie ganz oben stehen, mehr belastet werden, als wenn sie ganz unten stehen. Das führt zu weiteren Schwingungen und zwar umso mehr, je länger die Rotorblätter werden.

Druckschwankungen sind kilometerweit zu hören

Obwohl sich die Druckschwankungen mit Schallgeschwindigkeit ausbreiten und sich dabei mit dem Quadrat der Entfernung abschwächen, hört man das Wummern noch kilometerweit. Daran erkennt man die enorme Wucht der Druckschwankungen und ihre Gefährlichkeit für Vögel und Fledermäuse. Auch der Infraschall wird letztlich durch die Druckschwankungen ausgelöst. Wir Menschen können ihn wegen seiner tiefen Tonlage nicht hören, er scheint aber trotzdem gesundheitsschädlich zu sein. Hinzu kommt, dass Infraschall weiter reicht als der hörbare Schall. Elefanten unterhalten sich mit Infraschall über 2,5 Kilometer Entfernung.

Ausweichen für Vögel und Fledermäuse unmöglich

Werden Tiere von einem Rotorblatt direkt getroffen, dann ist es natürlich erst recht um sie geschehen und die Wahrscheinlichkeit dafür ist groß. Denn jedes einzelne Rotorblatt wiegt 3,5 t und mehr, also so viel wie ein rasender Kleinlaster und alle paar Sekunden kommt das Nächste mit einer Geschwindigkeit von 27 bis 76 Metern pro Sekunde herangerast und dann wieder eines und wieder und wieder. Das ist der sprichwörtliche Kampf gegen Windmühlenflügel, den jeder Vogel und jede Fledermaus verliert.

Tod auch ohne direkte Kollision

Doch selbst wenn die Opfer nicht vom Rotorblatt angesogen oder direkt getroffen werden, lösen die heftigen Druckschwankungen im Turbulenzbereich der Rotorblätter innere Verletzungen aus. Die Tiere sterben ohne Zeichen äußerer Verletzungen, was durchaus vergleichbar mit der Wirkung von Luftminen auf Menschen im 2. Weltkrieg ist. Diese Minen lösten ebenfalls heftige Druckschwankungen aus und zerrissen auch Menschen die Lungen, die sich im Bunker sicher glaubten. Diese als Barotraumen bezeichneten inneren Verletzungen betreffen nicht nur die Lungen. Bei Fledermäusen fand man sogar geplatzte Fettzellen (Current Biology 18, S. 695 – 696, 2008), was zeigt, wie äußerst aggressiv die Druckschwankungen sind.

Einfacher Versuch zu Sogwirkung 

Die Sogwirkung der Rotorblätter zeigt ein einfacher Versuch. Hält man zwei Blatt Papier in geringem parallelen Abstand vor den Mund und bläst hindurch, so weichen sie nicht etwa auseinander, wie man vermuten könnte, sondern der Sog zieht sie aufeinander zu. Ersetzt man eines der beiden Blätter durch Karton, zieht der Sog das leicht bewegliche Papier auf den starren Karton. Der Karton entspricht dem starren Rotorblatt und das bewegliche Papier dem Vogel oder der Fledermaus. Jedoch pustet kein harmloser Mensch, sondern ein Tornado mit Windgeschwindigkeiten bis über 400 km/h und zwar ständig, solange sich das Windrad dreht! Ein solcher Sog ist tödlich, da gibt es kein Entkommen. Schon viel geringere Geschwindigkeiten wie bei Schiffsschrauben oder sich eng begegnenden LKWs oder von vorbei fahrenden Zügen sind lebensgefährlich: Ein Hobbyfilmer wollte einen dramatischen Streifen drehen, stellte seine Kamera ganz dicht an die Bahngleise und filmte den herannahenden Zug. Er glaubte sich sicher, doch der Sog des Unterdruckes zog ihn an den Zug, er selbst überlebte, seine Kamera nicht….

Dr. Friedrich Buer

Lesen Sie den ganzen undefinedBericht als Dateianlage




Vahrenholt bringt politisch korrektes Klimawandel Mantra durcheinander!

Die Zeit schägt in die gleiche Kerbe. Nur Bild traut sich was und haut dem Volk die Klimalügen um die Ohren. Und das nicht nur als Eintagsfliege, sondern gleich als Serie. (Auszug)

Teil 1: Was der Weltklimarat der UNO verschweigt

Klimahorror-Warnungen prasseln auf uns hernieder: Hitzewellen, Wirbelstürme, biblische Fluten sollen den Planeten bald heimsuchen. Endzeitstimmung! Schon in der Schule bekommen Kinder eingetrichtert: Das alles haben wir uns selbst eingebrockt. Ab 2020 sollen wir Industrieländer daher jedes Jahr 100 Mrd. US-Dollar an die Entwicklungsländer zahlen zur Wiedergutmachung angeblicher Klimaschäden.

Fest steht: In den letzten 150 Jahren ist es auf unserem Globus um überschaubare 0,8°C wärmer geworden. Der allwissende Weltklimarat der Vereinten Nationen erklärt uns, dass die Erwärmung fast vollständig durch das böse CO2 entstanden sei. Und wenn unsere Abgase schon bisher fast ein Grad Erderwärmung verschuldet hätten, dann würden bis Ende des Jahrhunderts schnell ein paar weitere Grade dazukommen…..

Die Internetszene berichtet ebenfalls umfassend voran ACHGUT mit einem Beitrag von Michael Miersch (zuvor im Focus erschienen): Unter dem Titel:

„Ich habe es nicht mehr ausgehalten“

lässt er Fritz Vahrenholt ausführlich zu Wort kommen:

….Hunderttausende Christen treten alljährlich aus der Kirche aus. Das erregt kaum Aufsehen. Doch wenn ein Bischof vom Glauben abfällt, ist es ein Paukenschlag. Ganz ähnlich verhält es sich mit dem Glauben an die Klimakatastrophe. Nur noch 31 Prozent der Deutschen fürchten sich vor globaler Erwärmung. 2006 waren es noch genau doppelt so viele. Und jetzt verstärkt ein Schwergewicht die Reihen der Ungläubigen. Fritz Vahrenholt, einer der Väter der deutschen Umweltbewegung, vertraut den Vorhersagen des Weltklimarats (IPCC) nicht mehr. Und auch nicht den Szenarien des Potsdam Instituts, das Kanzlerin und Umweltminister berät und seit Jahren den Klimaalarm ausruft.

Den Konsens, dass die Welt im 20. Jahrhundert um 0,8 Grad wärmer wurde, teilt Vahrenholt nach wie vor. Nicht jedoch die Prognosen für einen weiteren massiven Temperaturanstieg. „Bis vor zwei Jahren“, sagt er, „glaubte ich dem Weltklimarat und vertrat seine Empfehlungen in meinen Vorträgen.“ Zweifel kamen ihm, als er als Gutachter den IPCC-Report über erneuerbare Energien überprüfen sollte. „Ich entdeckte zahlreiche Fehler und fragte mich, ob die anderen IPCC-Berichte wohl ähnlich unzulänglich sind.“

Gleichzeitig brachte ihn die Tatsache ins Grübeln, dass entgegen den Vorhersagen die globale Durchschnittstemperatur seit über einem Jahrzehnt nicht weiter angestiegen ist. Vahrenholt fragte sich, ob die vom Menschen erzeugten Treibhausgase tatsächlich die wichtigste Kraft im Klimageschehen darstellen. Nach Gesprächen mit Dutzenden Wissenschaftlern hält er den Einfluss der Sonne für unterschätzt. Und schließlich zieht Vahrenholt in Zweifel, dass eine Erwärmung grundsätzlich schlecht für Menschen und Natur sei.

Stutzig machte ihn zusätzlich die Ent-hüllung von E-Mails, die offenbarten, dass führende Klimawissenschaftler unerwünschte Forschungsergebnisse unter den Teppich kehren wollten. Sein Vertrauen war vollends erschüttert, als sich herausstellte, dass die sogenannte Hockeyschläger-Kurve manipuliert  war. Diese Grafik spielt eine Hauptrolle in Al Gores Film „Eine unbequeme Wahrheit“. Sie soll zeigen, dass die jüngste Erwärmung dramatischer verläuft als alle historischen Warmzeiten.

…Auch im persönlichen Gespräch macht der 62-Jährige keinen Hehl daraus. „Ich habe es nicht mehr ausgehalten“, sagt er, „ich musste dieses Buch schreiben.“ Seine Kritikpunkte sind nicht neu. Sie wurden bereits von vielen Wissenschaftlern vorgetragen. Doch in der Politik kommt es weniger darauf an, was gesagt wird, sondern viel-mehr, wer es sagt. Vahrenholt war jahrzehntelang der prominenteste Umweltschützer in der SPD neben Erhard Eppler, der das Vorwort zu seinem ersten großen Bestseller schrieb: „Seveso ist überall“. Ein Titel, der vielen noch heute im Gedächtnis haftet. Das Buch über „die tödlichen Risiken der Chemie“ erschien 1978. Es war eines der Werke, die der aufstrebenden grünen Bewegung Argumente lieferte. Vahrenholt avancierte dadurch zum bekanntesten Kritiker der Chemieindustrie. In den 90er-Jahren machte ihn die SPD zum Umweltsenator von Hamburg….

….Er tut jedoch das Gegenteil. „Die Förderung der Photovoltaik ist Irrsinn“, sagt er in München. „Sie ist die unwirtschaftlichste Form des Klimaschutzes.“ Windenergie hält er nach wie vor für vernünftig. Doch seine frühere Euphorie wurde gebremst, als er 2009 und 2010 erleben musste, dass der Wind in Mitteleuropa manchmal wochenlang Pause macht. Er fing an, sich mit den zyklischen Luftdruckschwankungen zu befassen, die starken Einfluss auf das Windgeschehen und auf das Klima ausüben….

… Es gibt jedoch Anzeichen, dass inzwischen selbst im Potsdam Institut der Zweifel nagt.

Abweichend von früheren Vorhersagen räumte Institutschef Hans Joachim Schellnhuber vor einigen Tagen auf einem Seminar internationaler Agrarexperten ein, es sei durchaus möglich, dass wärmeres Klima in Kombination mit einem weiteren Anstieg des CO2 in der Luft zu mehr Pflanzenwachstum und besseren Ernten führt. Wenige Tage später verwunderte sein Stellvertreter Ottmar Edenhofer Münchner Journalisten bei einer Pressekonferenz, die er gemeinsam mit Vahrenholt abhielt. Der Skeptiker sagte, es sei seit über einem Jahrzehnt nicht wärmer geworden und werde in Zukunft wohl eher kühler. Da wollte Edenhofer auch auf Nachfrage nicht widersprechen.

Na also, denkt man sich: geht doch!

Zur direkten Unterrichtung interessierter Leser und Bewältigung des großen Medienechos haben Vahrenholt und Lüning eine eigene Website eingerichet: Die kalte Sonne.

Update: Die Financial Times Deutschland lässt Vahrenholt zu Wort kommen. Fürchtet euch nicht vor dem Klimawandel

und ergänzend schreibt die FTD: RWE prophezeit Flaute für Offshore-Windanlagen

Michael Limburg EIKE