Das Rätsel der Eiszeiten, Teil 7, Global Circulation Models I

scienceofdoom
Im sechsten Teil ging es um einige der zahlreichen Theorien, die konfuserweise alle unter dem gleichen Namen laufen: die „Milankovitch“-Theorien.
Die Basis all dieser Theorien ist: Obwohl die Änderungen in der Neigung der Erdachse und der Zeitpunkt, in der die Erde der Sonne am Nächsten ist, nicht die Gesamt-Energieeinwirkung der Sonne auf das Klima verändert, verursacht die sich ändernde Verteilung der Energie massive Klimaänderungen über tausende von Jahren. Eine der „klassischen” Hypothesen lautet, dass zunehmende Einstrahlung im Juli bei 65°N die Eisschilde zum Schmelzen bringt. Oder umgekehrt, abnehmende Einstrahlung dort bringt die Eisschilde zum Anwachsen.
Alle hier beschriebenen Hypothesen können ziemlich überzeugend klingen. Das heißt, wenn man sie einzeln für sich betrachtet, klingt jede ziemlich überzeugend – aber wenn man diese „Milankovitch-Theorien“ in ihrer Gesamtheit nebeneinander stellt, klingen sie sämtlich nicht nach viel mehr als nach hoffnungsvollen Gedanken. In diesem Beitrag fangen wir nun an zu betrachten, was GCMs (global circulatio models – kurz "Klimamodelle") dazu tun können, diese Theorien zu falsifizieren. Zu den Grundlagen der GCMs schaue man hier.
Viele Leser dieses Blogs machen sich in verschiedener Weise so ihre Gedanken über GCMs. Aber wie der regelmäßig Kommentare schreibende Leser DeWitt Payne oft sagt: „Alle Modelle sind falsch, aber einige sind nützlich“. Das heißt, keines dieser Modelle ist perfekt, aber einige können etwas Licht auf Klimamechanismen werfen, die wir verstehen wollen. Tatsächlich sind GCMs eine wesentliche Grundlage zum Verständnis vieler Klimamechanismen und zum Verständnis der Wechselwirkungen zwischen verschiedenen Teilen des Klimasystems.

Exkurs: Eisschilde und positive Rückkopplung

Für Anfänger folgt hier ein kleiner Exkurs zu den Eisschilden und zur positiven Rückkopplung. Das Schmelzen und die Neubildung von Eis und Schnee ist unbestreitbar eine positive Rückkopplung im Klimasystem. Schnee reflektiert etwa 60% bis 90% der einfallenden Sonnenstrahlung. Wasser reflektiert weniger als 10% und die meisten Landoberflächen weniger als 25%. Heizt sich eine Region genügend auf, schmelzen Eis und Schnee. Das bedeutet, dass weniger Strahlung reflektiert und mehr Strahlung absorbiert wird, was eine weitere Aufheizung des Gebietes zur Folge hat. Der Effekt „füttert sich selbst“. Es ist eine positive Rückkopplung.
Im jährlichen Zyklus führt dies jedoch nicht zu irgendeiner Art „Runaway“ oder zu einer Schneeball-Erde, weil die Solarstrahlung einen viel größeren Zyklus durchläuft. Über viel längere Zeiträume ist es vorstellbar, dass das (regionale) Abschmelzen von Eisschilden zu mehr (regional) absorbierter Sonnenstrahlung führt, was wiederum mehr Eis zum Schmelzen bringt mit der Folge, dass noch mehr Eis schmilzt. Und umgekehrt gilt das Gleiche für das Anwachsen von Eisschilden. Der Grund, warum dies vorstellbar ist, ist ganz einfach der, dass es der gleiche Mechanismus ist.
Exkurs Ende.

Warum Global Circulation Models (GCM)?

Die einzige Alternative zu GCM’s ist, die Berechnung im Kopf oder schriftlich durchzuführen. Man nehme ein Blatt Papier, plotte den Verlauf der einfallenden Strahlung in allen Breiten während des uns interessierenden Zeitraumes – sagen wir von vor 150 ky bis vor 100 ky (ky = kilo-years = 1000 Jahre) – aufgeschlüsselt nach Jahren, Dekaden oder Jahrhunderten in Abhängigkeit von der Menge des schmelzenden Eises.  Dann bestimme man die neue Albedo für jedes Gebiet. Man berechne die Änderung der absorbierten Strahlung und dann die regionalen Temperaturänderungen. Dann berechne man den neuen Wärmetransport von niedrigen in höhere Breiten in Abhängigkeit vom Temperaturgradienten in der jeweiligen Breite, den transportierten Wasserdampf sowie Regen- und Schneemenge. Man vergesse dabei nicht, die Eisschmelze in hohen Breiten zu verfolgen sowie deren Einfluss auf die Meridional Overturning Circulation (MOC), die einen großen Teil des Wärmetransportes vom Äquator zu den Polen treibt. Dann gehe man zum nächsten Jahr, zur nächsten Dekade oder zum nächsten Jahrhundert und wiederhole das Ganze.
Wie machen sich diese Berechnungen?
Ein GCM benutzt einige fundamentale physikalische Gleichungen wie Energie- und Massengleichgewicht. Es benutzt viele parametrisierte Gleichungen, um Dinge zu berechnen wie den Wärmetransport von der Oberfläche in die Atmosphäre abhängig von der Windgeschwindigkeit, Wolkenbildung, Impulstransport durch den Wind in die Ozeane usw. Was immer wir in einem GCM haben, ist besser als die Berechnungen auf einem Blatt Papier (denn dort wird man die gleichen Gleichungen mit viel geringerer räumlicher und zeitlicher Auflösung verwenden müssen).
Falls uns die oben erwähnten „klassischen” Milankovitch-Theorien interessieren, müssen wir die Auswirkungen einer Zunahme von 50 W/m² (über 10.000 Jahre) bei 65°N herausfinden – siehe Abbildung 1 im Teil V. Welche Auswirkungen hat eine simultane Reduktion im Frühjahr bei 65°N? Heben sich die beiden Effekte gegeneinander auf? Ist die sommerliche Zunahme bedeutender als die Reduktion im Frühjahr? Wie schnell sorgt die Zirkulation für eine Verringerung dieser Auswirkungen? Der Wärmetransport von Äquator zu Pol wird getrieben durch die Temperaturdifferenz – wie jeder Wärmetransport. Heizt sich also die Nordpolarregion infolge schmelzenden Eises auf, wird sich die Zirkulation im Ozean und in der Atmosphäre ändern, und weniger Wärme wird polwärts transportiert. Welche Auswirkungen hat das?
Wie schnell schmilzt ein Eisschild bzw. bildet es sich neu? Können die Zu- und Abnahmen der absorbierten Sonnenstrahlung die massiven Eisvorstöße und –rückzüge erklären? Falls die positive Rückkopplung so stark ist, wie geht dann eine Eiszeit zu Ende und wie kann sie 10.000 Jahre später erneut einsetzen? All dies können wir nur mit einem allgemeinen Zirkulationsmodell GCM abschätzen.
Nun gibt es da jedoch ein Problem. Ein typischer GCM-Lauf erstreckt sich über ein paar Modell-Jahrzehnte oder ein Modell-Jahrhundert. Wir brauchen aber einen GCM-Lauf über 10.000 bis 50.000 Jahre. Also brauchen wir 500 mal höhere Rechenleistung – oder wir müssen die Komplexität des Modells reduzieren. Alternativ können wir ein Modell im Gleichgewicht zu einer bestimmten Zeit in der Geschichte laufen lassen um zu sehen, welche Auswirkungen die historischen Parameter auf die uns interessierenden Änderungen hatten.

Frühe Arbeiten

Viele Leser dieses Blogs sind häufig verwirrt durch meinen Ausdruck „alte Arbeiten“ zur Behandlung eines Themas. Warum nimmt man nicht die aktuellste Forschung?
Weil ältere Studien normalerweise das Problem klarer umreißen und detaillierter beschreiben, wie man sich diesem Problem nähert.
Die jüngsten Studien wurden für Forscher vor Ort geschrieben und setzen den größten Teil der bisherigen Erkenntnisse als bekannt voraus – Erkenntnisse, die jedermann vor Ort bereits hat. Ein gutes Beispiel hierfür ist die Studie von Myhre et al. (1998) zum Thema „logarithmische Formel“ für den Strahlungsantrieb durch zunehmenden CO2-Gehalt. Sie wurde auch im IPCC-Zustandsbericht 2001 erwähnt. Diese Studie hat sehr viele Blogger verwirrt. Ich habe viele Blogbeiträge gelesen, in denen die jeweiligen Autoren und Kommentatoren wegen der fehlenden Rechtfertigung des Inhalts dieser Studieihre die metaphorischen Hände gehoben haben. Es ist aber nicht mehr verwirrend, wenn man mit der Physik von Strahlungstransporten vertraut ist sowie mit den Studien aus den siebziger bis zu den neunziger Jahren, in denen das Strahlungs-Ungleichgewicht als Folge von mehr oder weniger „Treibhausgasen“ berechnet wird. Es kommt eben immer auf den Zusammenhang an.
Wir wollen jetzt einen Spaziergang durch einige Jahrzehnte von GCMs machen. Wir beginnen dazu mit Rind, Peteet und Kukla (1989). Sie umreißen die klassische Denkweise des Problems:
Kukla et al. (1981) beschreiben, wie die orbitalen Konfigurationen anscheinend zu den großen Klimavariationen der letzten 150 Millenien passen. Als Ergebnis dieser und anderer geologischer Studien besteht der Konsens, dass orbitale Variationen  für die Auslösung eiszeitlicher bzw. zwischeneiszeitlicher Bedingungen verantwortlich sind. Der offensichtlichste Unterschied zwischen diesen beiden Regimes, nämlich die Existenz subpolarer kontinentaler Eisschilde scheinen  mit der Sonneneinstrahlung in hohen Breiten der Nordhemisphäre im Sommer korreliert zu sein. Zum Beispiel war die Sonneneinstrahlung im August und September, verglichen mit den heutigen Werten, abgeschwächt, und zwar etwa 116.000 Jahre vor heute (116 ky). Während dieser Zeit begann anscheinend das Wachstum des Eises. Die Sonneneinstrahlung war erhöht um etwa 10.000 Jahre vor heute, während einer Zeit also, in denen sich die Eisschilde rapide zurückzogen (Berger 1978).
Und nun zur Frage, ob Grundlagen-Physik die angenommenen Ursache und Wirkung in Zusammenhang bringen kann:
Sind die solaren Strahlungsvariationen selbst ausreichend, um kontinentale Eisschilde wachsen oder schmelzen zu lassen?
Die Sonneneinstrahlung im Juli bei 50°N und 60°N während der letzten 170.000 Jahre zeigt Abbildung 1, zusammen mit den Werten von August und September bei 50°N (wie der Juli zeigt, traten Fluktuationen bei der Einstrahlung in verschiedenen Breiten in ähnlicher Form auf). Die Spitzen-Variation liegt in der Größenordnung von 10%. Überträgt man dies mit gleicher Prozentzahl auf Änderungen der Lufttemperatur, würden diese in der Größenordnung von 30°C liegen. Das wäre mit Sicherheit ausreichend, um Schnee in den nördlichsten Gebieten von Nordamerika den ganzen Sommer über zu halten, wo die Juli-Temperatur heute nur etwa 10°C über dem Gefrierpunkt liegt. Allerdings ignoriert die direkte Übertragung alle anderen Phänomene, die die Lufttemperatur im Sommer beeinflussen, als da wären Wolkenbedeckung und Albedo-Variationen, langwellige Strahlung, Flüsse am Boden und Advektion. 
Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung in Verbindung mit veränderten Orbitalparametern sein würde. Während sich mit dem Beginn von Eisausdehnung die Oberflächen-Albedo verändert und eine Rückkopplung zur Klimaänderung liefern wird, müssen die Modelle auch grobe Schätzungen einbeziehen, wie die Eisbedeckung sich mit dem Klima ändert. Mit der geeigneten Wahl von Parametern, von denen einige durch Beobachtungen gestützt sind, kann man die Modelle dazu bringen, die großen Klimaänderungen von Eis- und Zwischeneiszeiten zu simulieren.
Allerdings berechnen diese Modelle aus Prinzip nicht all die oben beschriebenen verschiedenen Einflüsse auf die Lufttemperatur, und sie enthalten auch keinen hydrologischen Zyklus, der es zulassen würde, dass sich eine Schneedecke bildet oder ausdehnt. Die tatsächlichen Prozesse, unter denen sich den Sommer über eine Schneedecke halten kann, involvieren komplexe hydrologische und thermische Einflüsse, für welche die einfachen Modelle nur grobe Annäherungen liefern können.
Sie gehen dann näher auf die praktischen Probleme ein, die sich aus der Verwendung von GCMs für Läufe über Tausende von Jahren ergeben, und die wir oben angesprochen haben. Das Problem wird angegangen durch die Verwendung vorgegebener Werte für bestimmte Parameter und durch Verwendung eines groben Gitters von 8 mal 10 Grad und 9 vertikalen Schichten.
Die verschiedenen Modellläufe der GCMs sind typisch für dieses Vorgehen, GCMs zu verwenden, um „das Zeug herauszufinden“ – man versucht, mit verschiedenen Läufen und verschiedenen Änderungen der Parameter zu erkennen, welche Variationen die größten Auswirkungen haben und welche Variationen, falls überhaupt welche, zu den realistischsten Antworten führen:

Wir haben also das GCM des GISS für eine Reihe von Experimenten verwendet, in welchen orbitale Parameter, die atmosphärische Zusammensetzung und die Wassertemperaturen verändert worden sind. Wir untersuchen, wie die verschiedenen Einflüsse die Schneebedeckung und Eisschilde beeinflussen, und zwar in den Regionen der Nordhemisphäre, wo während des letzten glazialen Maximums (LGM) Eis gelegen hatte. Soweit wir wissen, ist das GCM generell nicht in der Lage, den Beginn des Wachstums der Eisschilde zu simulieren oder Eisschilde auf dem Niveau des Meeresspiegels, unabhängig von den verwendeten orbitalen Parametern oder der Wassertemperatur.
Und das Ergebnis:
Die Experimente zeigen, dass es eine große Diskrepanz gibt zwischen den Modell-Reaktionen auf Milankovitch-Störungen und der geophysikalischen Beweise des Beginns der Bildung eines Eisschildes. Da das Modell das Wachstum oder den Erhalt von Eisschilden während der Zeit der größten Reduktion der Sonneneinstrahlung in hohen Breiten nicht simulieren konnte (120.000 bis 110.000 Jahre vor heute), ist es unwahrscheinlich, dass es dies zu irgendeiner anderen Zeit innerhalb der letzten vielen hunderttauend Jahre vermocht hätte.
Wenn die Modelläufe korrekt sind, zeigt dies, dass das Wachstum des Eises in einer extrem Wärme absorbierenden Umgebung stattfand. Folglich bedurfte es irgendeiner komplizierten Strategie oder auch irgendwelcher anderen Klimatreiber zusätzlich zum Einfluss der orbitalen Variation (und CO2-Reduktion). Dies würde implizieren, dass wir die Ursache von Eiszeiten und den Zusammenhang mit Milanlovitch nicht wirklich verstehen. Falls das Modell nicht annähernd sensitiv genug auf Klimaantriebe anspricht, kann das Implikationen auf Projektionen künftiger Klimaänderungen haben
Das grundlegende Modellexperiment hinsichtlich der Fähigkeit von Milankovitch-Variationen, selbst Eisschilde in einem GCM zu bilden (Experiment 2), zeigt, dass im GISS-GCM nicht einmal übertriebene Strahlungsdefizite im Sommer dazu ausreichen. Lässt man ausgedehnte Eisschilde in einer Höhe von 10 m ü. NN eingehen sowie eine CO2-Reduktion um 70 ppm, Zunahme des Meereises bis zu vollen Eiszeitbedingungen und Wassertemperaturen, die auf CLIMAP-Schätzungen vor 18.000 Jahren oder noch niedriger reduziert wurden, ist das Modell kaum in der Lage, diese Eisschilde in begrenzten Gebieten vor dem Schmelzen zu bewahren. Wie wahrscheinlich ist es, dass diese Ergebnisse den aktuellen Stand der Dinge repräsentieren?
Das waren die GCMs des Jahres 1989.
Phillips und Held (1994) hatten im Wesentlichen das gleiche Problem. Das ist der berühmte Isaac Held, der extensiv über Klimadynamik gearbeitet hat sowie über Wasserdampf-Rückkopplung und GCMs. Er betreibt einen sehr lesenswerten exzellenten Blog.
Während paläoklimatische Aufzeichnungen deutliche Beweise zur Stützung der astronomischen oder Milankovitch-Theorie von Eiszeiten liefern (Hays et al. 1976), sind die Mechanismen, mit denen orbitale Änderungen das Klima beeinflussen, immer noch ziemlich schlecht verstanden. Für diese Studie nutzen wir das gemischte Atmosphäre-Ozean-Modell [the atmosphere-mixed layer ocean model]. Bei der Untersuchung der Sensitivität dieses Modells auf unterschiedliche Kombinationen orbitaler Parameter haben wir drei numerische Experimente miteinander verglichen.
Sie beschreiben die Vergleichsmodelle:
Angefangen haben wir mit der Auswahl der beiden Experimente, die vermutlich die größten Unterschiede hinsichtlich des Klimas zeitigen unter Vorgabe der Bandbreite von berechneten Variationen von Parametern, die sich während der letzten paar hunderttausend Jahre ereignet haben. Die Exzentrizität wird in beiden Fällen mit 0,04 gleich gesetzt. Das ist deutlich größer als der gegenwärtige Wert von 0,016, aber vergleichbar mit dem, was es vor 90.000 bis 150.000 Jahren gegeben hat.
Im ersten Experiment werden das Perihel zur Sommer-Sonnenwende der Nordhemisphäre und die Neigung auf den hohen Wert von 24° gesetzt. Im zweiten Fall liegt das Perihel zum Zeitpunkt der Wintersonnenwende auf der Nordhemisphäre, und die Neigung entspricht 22%. Perihel und Neigung begünstigen beide warme Sommer der Nordhemisphäre im ersten Fall und kühle nördliche Sommer im zweiten Fall. Diese Experimente werden jetzt jeweils mit WS bzw. CS bezeichnet.
Dann haben wir eine weitere Berechnung durchgeführt, um zu bestimmen, wie viel der Differenz zwischen diesen beiden Integrationen der Verschiebung des Perihel geschuldet ist und wie viel davon der Änderung der Neigung. In diesem dritten Modell liegt das Perihel zur Sommersonnenwende, aber die Neigung beträgt nur 22°. Die Exzentrizität ist immer noch mit 0,04 angesetzt. Dieses Experiment wird im Folgenden als W22 bezeichnet.
Aber traurigerweise:
Trotz der großen Temperaturänderungen auf dem Festland erzeugt das CS-Experiment keinerlei neue Regionen mit permanenter Schneebedeckung auf der Nordhemisphäre. Die gesamte Schneedecke schmilzt im Sommer vollständig. Folglich ist das Modell, so wie derzeit getrimmt, nicht in der Lage, den Beginn der Bildung von Eisschilden allein aufgrund orbitaler Störungen zu simulieren. Dies ist konsistent mit dem Ergebnissen von Rind mit einem GCM (Rind et al. 1989).
Im nächsten Artikel schauen wir auf günstigere Ergebnisse im ersten Jahrzehnt dieses Jahrhunderts.
http://scienceofdoom.com/2013/11/23/ghosts-of-climates-past-part-seven-gcm-i/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/





Neue Studie der State University of New York bestätigt Svensmark-Effekt: Wolkenkondensationsskeime durch solare Aktivitätsschwankungen beeinflusst

Dem IPCC und seinen Anhängern schmeckte dies natürlich gar nicht. Man ignorierte die Ergebnisse so gut man konnte, sperrte Fördermittelströme ab und schrieb fleißig Gegenstudien, in denen das angebliche Fehlen des Svensmark-Zusammenhangs belegt werden sollte. Über die Gegenstudien wird in der Presse gelegentlich berichtet. So schrieb der Journalist und IPCC-Freund Christopher Schrader im Oktober 2013 in der Süddeutschen Zeitung einen Artikel mit dem mutigen Titel “Kosmische Strahlung beeinflusst Klima kaum“. Allerdings hatte Schrader da die eine oder andere Kleinigkeit übersehen.
Im April 2014 erschien nun in den Environmental Research Letters ein Fachartikel, der wichtige Hinweise auf die Gültigkeit des Svensmark-Effekts liefert. Fangqun Yu und Gan Luo vom Atmospheric Sciences Research Center der State University of New York fanden dabei jedoch auch, dass sich die Wolkenkondensationskeime in der Reaktion auf die komische Strahlung bzw. Sonnenaktivitätsschwankungen stark differenziert verhielten, je nach atmosphärischem Höhenstockwerk, Erdhalbkugel und Jahreszeit. Zudem ist der Effekt wohl sehr viel stärker als in früheren Studien behauptet. Hier die Kurzfassung der Arbeit:
Auswirkungen solarer Variationen auf die Bildung von Partikeln und Wolken-Kondensationskernen
Der Einfluss solarer Variationen auf die Bildung von Partikeln und Kondensationskernen für Wolken (CCN), einem kritischen Schritt für einen der möglichen indirekten Klimaantriebe durch die Sonne, wird hier untersucht mit einem globalen Aerosol-Modell, optimiert für die Simulation detaillierter Partikelbildung und deren Wachstum. Der Einfluss der Temperaturänderung infolge Verstärkung des solaren Zyklus‘ hinsichtlich des CCN-Signals wird hier zum ersten Mal untersucht. Unsere globalen Simulationen zeigen, dass eine Abnahme der Ionisierungs-Rate im Zusammenhang mit Änderungen des Flusses galaktischer Strahlung vom solaren Minimum zum solaren Maximum die mittlere jährliche Kernbildungsraten reduziert. Das gilt auch für die Anzahl der Kondensationskerne größer als 10 nm und die Konzentration von CCN bei einem Wasser-Übersättigungs-Verhältnis von 0,8% (CCN0,8) und 0,2% (CCN0,2) in der unteren Troposphäre jeweils von 6,8%, 1,36%, 0,74% und 0,43%. Die Einbeziehung eines Temperaturanstiegs von 0,2°C verstärkt die solaren CCN-Signale um etwa 50%. Die jährlichen mittleren solaren CCN-Signale weisen große räumliche und jahreszeitliche Schwankungen auf: (1) sie sind stärker in der unteren Troposphäre, wo sich warme Wolken bilden, (2) sie sind auf der Nordhemisphäre um etwa 50% größer als auf der Südhemisphäre und (3) sie sind um etwa einen Faktor 2 größer während der korrespondierenden Sommer-Jahreszeiten. Die Auswirkung der Durchdringung des solaren Zyklus‘ auf CCN0,2, auf der diese Studie basiert, ist generell höher als in Studien zuvor angegeben, und zwar bis zu einer Größenordnung.
Link: http://www.kaltesonne.de/?p=18111
Englischer Abschnitt übersetzt von Chris Frey EIKE.
Der Original-Artikel war erstmals bei der kalten Sonne  erschienen.




Bundesrechnungshof: Energiewende kostet 50 Mrd € jährlich – In der Strompolitik umsteuern

Augenwischerei der Regierung und ihrer Altparteien

Die Bundesregierung, gestützt auf die Altparteien CDU/CSU und SPD, versucht gegenzusteuern und das Erneuerbare-Energien-Gesetz (EEG) zu reformieren. Das ist Augenwischerei (siehe u.a.hier). Das EEG ist ein Missbrauchsinstrument staatlicher Gewalt (siehe hier) – auch dann, wenn es „reformiert“ wird. In fünf Sätzen lässt sich kurz zusammenfassen, was stattdessen getan werden muss:
1. Die staatliche Planwirtschaft in der deutschen Stromversorgung ist zu beenden.
2. Das EEG und die Folgegesetze (wie die EnEV und EEWärmeG) sind ersatzlos zu streichen, Marktwirtschaft und Wettbewerb in der Stromversorgung wieder herzustellen.
3. Der Staat hat sich darauf zu beschränken, den Wettbewerb auf dem Markt für Strom zu schützen und ihn von Beschränkungen freizuhalten.
4. Der Staat unterstützt in allen Bereichen der Energieversorgung nur Forschung und Entwicklung, aber er unterlässt es, die Stromerzeugung zu subventionieren.
5. Alle Reglementierungen für die Emissionen von CO2 werden vorerst eingestellt.

Die fast ebenso kurze Begründung

1. Der Bundesrechnungshof (Quelle: hier) hat die Kosten der Energiewende ermittelt. Es sind über 50 Milliarden Euro jährlich, davon
– mehr als 20 Milliarden ausgewiesene Kosten durch das EEG,
– gut 10 Milliarden Euro als steuerliche Beihilfen und Verwaltungskosten sowie
– über 20 Milliarden Euro aus Förderprogrammen der Kreditanstalt für Wiederaufbau (KfW)
Diese Kosten sind sogar noch weit höher als die Kosten, die uns durch die sogenannte Euro-Rettung drohen, und sind unnötig. Von unnötigen Kosten lässt man die Finger.
2. Die Stromversorgung v o r dem EEG hat sich bewährt, sie war sicher und preisgünstig. Die Stromversorgung s e i t dem EEG ist unsicher geworden (Stromausfälle häufen sich), und sie wird trotzdem teurer und teurer.
3. Die behaupteten Wirkungen menschlicher CO2-Emissionen auf das Klima (übermäßige Erwärmung) sind in der Wissenschaft zumindest sehr umstritten. Daher ist die These, diese Emissionen seien zu begrenzen, um das Klima zu schützen, also die Erwärmung aufzuhalten, ebenfalls sehr umstritten. Belegt ist die These bisher nicht. Dagegen ist belegt, dass Wärmephasen in der Erdgeschichte schon immer stattgefunden haben, als es menschliche CO2-Emissionen noch gar nicht gab. Was nicht belegt ist, bedeutet Unsicherheit. Auf Unsicherheit darf keine derart weitreichende und kostspielige Politik gegründet sein, wie es mit den CO2-Reglementierungen geschieht. Daher sind diese Reglementierungen so lange einzustellen, bis die Unsicherheit überzeugend ausgeräumt ist.

Die AfD setzt sich auch hier von den Altparteien deutlich ab

Bei dieser Sachlage ist es abenteuerlich und für Deutschlands wirtschaftliche Kraft ruinös, dass die Altparteien an dieser Stromerzeugungswende festhalten – als wollten sie ebendiesen Ruin herbeiführen. Anders dagegen verhält sich die junge Partei Alternative für Deutschland (AfD), auch hier setzt sie sich von den Altparteien deutlich ab. Sie immerhin vertritt in ihrem Parteiprogramm zur bevorstehenden Wahl in das EU-Parlament dies:

Erstens: Komplett weg mit dem EEG

„Das EEG muss komplett abgeschafft werden. Ansprüche von Altanlagen-Besitzern sind rechtskonform abzufinden. Alle Energiemarkt-Eingriffe durch Subventionen wie z. B. staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, sind sofort einzustellen. Sie führen zu einer noch stärkeren Beeinträchtigung der Wettbewerbsfähigkeit der deutschen Wirtschaft im EU-Binnenmarkt und weltweit, denn sie verteuern den Strom in Deutschland auf unverantwortliche Weise und schädigen die bisher hohe Sicherheit der Stromversorgung in Deutschland.“

Zweitens: Der anthropogene CO2-Einfluss ist sehr unsicherheitsbehaftet

Und: „Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet. Zudem kann ein globales Problem nur durch ein koordiniertes Vorgehen aller großen Wirtschaftsnationen gelöst werden. Deshalb lehnt die AfD nationale und europäische Alleingänge ab.“ Dieses koordinierte Vorgehen gibt es nicht: Mit dem Kernkraftausstieg und dem EEG steht Deutschland allein. Und das, was unsicherheitsbehaftet ist, darf  nicht zu Gesetzen werden, wie es aber mit den Emissionsgrenzwerten für das anthropogene CO2, mit den CO2-Zertifikate-Vorgaben und dem CO2-Emissionshandel geschieht.

Doch verfängt sich die AfD in einen Widerspruch

Doch ist die AfD nicht konsequent. Eine andere Formulierung in ihrem Wahlprogramm steht dazu im Widerspruch. Sie lautet: „Um dem Vorsichtsprinzip Rechnung zu tragen, kann aber im Rahmen internationaler Abkommen eine graduelle Reduktion von CO2-Emissionen vereinbart werden. Diese sollte ausschließlich durch marktwirtschaftliche, technologieneutrale Instrumente wie z. B. CO2- Zertifikate erfolgen. Da die Auswirkungen menschenverursachter CO2-Emissionen auch nicht annähernd genau bestimmt werden können, muss sich ein Zertifikatesystem daran orientieren, was für Haushalte und Unternehmen finanziell tragbar ist.“

Wenn etwas unsicher ist, lässt man die Finger ganz davon

Hier eiert die Partei herum: Was sie einerseits zutreffend als „unsicherheitsbehaftet“ bezeichnet, billigt sie andererseits dann doch zu, indem sie sich auf das „Vorsichtsprinzip“ beruft und für international vereinbarte CO2-Reduktion eintritt. Das ist nicht folgerichtig: Wenn etwas unsicher und zugleich so teuer ist, lässt man die Finger ganz davon. Also ein bedauerlicher Makel. AfD-Mitglieder, die sich auf dem Parteitag am 22. März in Erfurt dagegen auflehnten, fanden – auch aus zeitlichen Gründen – nicht genügend Gehör und daher (noch) nicht die nötige Gefolgschaft. Der Vorstand, hier als Sprecher vor allem Konrad Adam, blockte es ab. Die Partei mochte sich daher nicht dazu entschließen, die von der Programmkommission und dem Vorstand vorgeschlagenen Aussagen zur Energiepolitik durch die fünf schlichten Sätze (siehe oben) zu ersetzen. Es war der Antrag von mir. Aber hinter ihm stand auch der AfD-Bundesfachausschuss für Energie.
_________________________________________________________________________
*) Politiker und Mainstream-Medien haben mit ihrer Angstmacherei vor radioaktiver Strahlung ganze Arbeit geleistet. Aber gegenüber Kernkraftwerken in Deutschland mit ihrer Sicherheit und ihrem radioaktiven Restmaterial ist sie unbegründet. Die Gefahr, hier zu Schaden zu kommen, ist im heutigen Verkehrsalltag weit höher als die Gefahr, ein Leben lang neben einem deutschen Kernkraftwerk zu wohnen (zitiert nach Prof. Dr. Hans-Günter Appel). Die „German Angst“ auch vor der Kernkraft hat hysterische Züge, siehe u.a. hier. Zu hundert Prozent sicher ist nichts, auch das Nutzen der Kernkraft nicht. Aber der Rest an Unsicherheit und die Wahrscheinlichkeit, dass der gefürchtete Reaktorunfall eintritt, sind derart gering, dass es töricht wäre, die Kernkraft nicht zu nutzen.
Dr. K.P. Krause. Der Beitrag erschien zuerst im Blog von K.P.Krause hier




Neue Studie: Meeresspiegel-Anstieg immer noch unsicher; keine statistische Sicherheit bis 2020 oder 2030

Bild rechts: Eine Tiden-Meßstelle am National Oceanography Centre in Liverpool, UK.
Das internationale Forscherteam unter Leitung der University of Southampton einschließlich Wissenschaftlern des National Oceanography Centre, der University of Western Australia, der University of South Florida, der Australian National University und der Universität Siegen hat Daten von 10 seit Langem in Betrieb befindlichen, den Meeresspiegel messenden Stationen auf der ganzen Welt analysiert. Sie haben in die Zukunft geschaut, um den Zeitpunkt zu berechnen, an dem die Beschleunigung eines Meeresspiegel-Anstiegs signifikant zu merken ist.
Leitautor Dr. Ivan Haigh, Dozent im Fachbereich küstennahe Ozeanographie an der University of Southampton, sagt:
„Unsere Ergebnisse zeigen, dass wir zwischen 2020 und 2030 hinreichende statistische Gewissheit haben werden, wie die Lage hinsichtlich des Meeresspiegel-Anstiegs bis zum Ende dieses Jahrhunderts aussehen wird. Das bedeutet, dass wir erst dann wissen, was uns erwartet, dann haben wir noch 70 Jahre Zeit zu planen. Bei einem Thema mit so großen Unsicherheiten ist diese lange Planungszeit ein Geschenk.
Da Städte einschließlich London an langzeitlichen Lösungen hinsichtlich des Meeresspiegel-Anstiegs arbeiten, werden wir dann in einer besseren Position sein, die Lage für die UK-Hauptstadt und andere Küstengebiete weltweit vorherzusagen. Wissenschaftler sollten weiterhin diese Analyse alle 5 bis 10 Jahre aktualisieren, was zu größerer Sicherheit bei der langzeitlichen Planung verhilft – und hilft, bessere Lösungen für einen sich ändernden Planeten zu finden“.
Der Studie zufolge ist das wichtigste Element zur frühestmöglichen Erkennung einer signifikanten Beschleunigung des Meeresspiegel-Anstiegs ein verbessertes Verständnis der Variabilität in den Messungen des Meeresspiegels. Danach kann man die jährliche bis multidekadische Variabilität entfernen.
„Der gemessene Meeresspiegel zeigt eine Vielfalt von Prozessen mit unterschiedlichen zeitlichen Größenordnungen“, sagt Mitautor Dr. Francisco Calafat vom National Oceanography Centre. Er fügt hinzu: „Eine der größten Schwierigkeiten bei der Bestimmung von Meeressspiegel-Beschleunigungen ist die Präsenz dekadischer und multidekadischer Variationen. Zum Beispiel: mit der North Atlantic Oscillation in Verbindung stehende Prozesse haben starken Einfluss auf den Meeresspiegel rund um UK in multidekadischen Zeiträumen. Derartige Prozesse bringen eine Menge ‚Rauschen‘ in die Aufzeichnungen, was zugrunde liegende Beschleunigungen der Rate verschleiert. Unsere Studie zeigt, dass wir erst dann eventuelle Beschleunigungen erkennen können, wenn wir diese Prozesse angemessen verstehen und sie aus den Aufzeichnungen entfernt haben“.
Mitautor Prof. Eelco Rohling von der Australian National University und früher der University of Southampton, fügt hinzu:
„Mit der Entwicklung einer neuen Methode, die realistisch den zukünftigen Anstieg des Meeresspiegels abschätzt, ist es uns gelungen, neue Einsichten in die Debatte einzubringen und zu zeigen, dass es substantielle Beweise für eine signifikante Beschleunigung des Meeresspiegel-Anstiegs im globalen und regionalen Bereich gibt. Allerdings verhindern die großen Signale des ‚Rauschens‘ an einigen Küstenorten, dass wir vor dem Ende dieses Jahrzehnts an diesen individuellen Messorten irgendwelche Beschleunigungen entdecken können“.
Die Ergebnisse der Studie, gefördert vom Natural Environmental Research Council (iGlass consortium), werden demnächst im Journal Nature Communications veröffentlicht.
Link: http://wattsupwiththat.com/2014/05/09/study-sea-level-rise-acceleration-still-uncertain-we-wont-have-statistical-certainty-until-2020-2030/
Übersetzt von Chris Frey EIKE




Der Ozean hat meine globale Erwärmung gefressen

Mehr zum Bild rechts!
Die Entschuldigung für diesen hochtrabenden Zusatz, der einen großen Teil des Unterschieds ausmacht zwischen den Satellitendaten und den Tidenmessungen, lautet, dass sich das Land immer noch hebt und der Meeresspiegel sinkt wegen des Abschmelzens der massiven Eisschilde vor 9000 Jahren. Daher, so heißt es, müsste der Meeresspiegel eigentlich fallen, gäbe es die globale Erwärmung nicht.
Und siehe da! Der Anstieg des Meeresspiegels beschleunigt sich augenblicklich.
Nils Axel Mörner nennt diese Verfälschungen „persönliche Kalibrierungen“ – eine höfliche Form für etwas, das im Grunde Fiktion ist. Schließlich konnten wir im vorigen Jahrhundert bis zum Jahr 1950 keinen signifikanten Einfluss auf das Klima oder den Meeresspiegel gehabt haben. Und doch war der Meeresspiegel gestiegen.
Während der letzten ein oder zwei Jahrzehnte ist der Meeresspiegel nicht sehr viel gestiegen, wie der Satellit ENVISAT und danach die GRACE-Satelliten bestätigt haben. Dies zeigt, dass alle der wesentlichen globalen Temperaturaufzeichnungen korrekt sind, wenn sie in letzter Zeit keinen globalen Temperaturanstieg zeigen.
Es gibt also keinen besonderen anthropogenen Grund dafür, dass der ozeanische Wärmegehalt merklich steigt. Jene, die sagen, vor allem dieser mit allem falsch liegende Kevin Trenberth, dass „der Ozean meine globale Erwärmung gefressen hat“, haben einfach unrecht.
Der Stillstand setzt sich derweil fort. Die RSS-Satellitendaten für April 2014 sind jetzt verfügbar. Der aktualisierte Graph zeigt seit 17 Jahren und 9 Monaten keine globale Erwärmung.

Man erfreue sich des Stillstands, solange er dauert. Eine Kelvin-Welle galoppiert über den Pazifik, und die üblichen Verdächtigen beten um einen Super-El Niño, falls sie einen Sinn für die Alte Religion anstatt für den neuen Aberglauben haben. Schon sagen die gut bezahlten Extremisten einen neue globale Rekordtemperatur für die Jahre 2014 oder 2015 voraus.
Deren Vorhersage für 2014 wird vermutlich nicht eintreffen. Vier Monate ohne jede Erwärmung machen die Vorstellung schwierig, dass dies ein Rekordjahr für die globale Temperatur wird, obwohl es dafür auch eine geringe Wahrscheinlichkeit gibt.
Die Vorgabe einer neuen Rekordtemperatur im nächsten Jahr ist weniger unwahrscheinlich, vor allem, wenn einem starken und langen El Niño eine schwache La Niña folgt. Wie Roy Spencer in seinem nüchternen und immer vernünftigen Blog schreibt, wenn alle äußeren Umstände gleich bleiben, würde man erwarten, das von Zeit zu Zeit Temperaturrekorde gebrochen werden würden, weil sich das CO2 in der Atmosphäre akkumuliert und eventuell ein wenig Erwärmung verursachen könnte.
Wie allerdings der ebenso nüchterne Dick Lindzen sagt, würde der neue Rekord, so er auftritt, um ein paar hundertstel Grad über dem alten Rekord und damit immer noch deutlich innerhalb der natürlichen Variabilität des Klimas liegen. Wenn die Erwärmung möglicherweise wieder einsetzt, vielleicht zum Ende dieses Jahres, weil El Niño ein jahreszeitliches Ereignis ist, wird es vermutlich nicht viel Stoff für Schreibereien hergeben. Und die folgende La Niña kann Einiges davon wieder kompensieren. Aber das wird die üblichen Verdächtigen nicht davon abhalten zu schreien, dass ‚es schlimmer ist als wir je gedacht haben‘.
Beenstock bringt das auf den Punkt. Seine Schlussfolgerung zur Rate des Meeresspiegel-Anstiegs: „Konsens-Schätzungen des derzeitigen globalen mittleren Meeresspiegels liegen bei etwa 2 mm pro Jahr. Wir zeigen, dass der Unterschied zwischen den beiden Schätzungen induziert wird durch den weit verbreiteten Gebrauch von Daten-Rekonstruktionen, die die Konsens-Schätzungen stützen“.
Kurz gesagt, sie haben wieder herumgefummelt. Und weder Politiker noch Journalisten haben irgendeine der angebrachten Fragen gestellt.
Als Nils Axel Mörner vor einigen Jahren eingeladen worden war, einen Vortrag zum Anstieg des Meeresspiegels auf einer internationalen Klimakonferenz in Cambridge zu halten, fertigte er Kopien einer Studie an, die sich direkt an Laien richtete. Die Organisatoren stimmten zu, aber just in dem Moment, als den Titel lasen Sea Level is not Rising, haben sie nicht nur die Erlaubnis verweigert, die Studie kursieren zu lassen – ohne sie tatsächlich zu lesen – sondern gingen durch die Reihen, um die wenigen Kopien einzusammeln, die die Delegierten bereits erreicht hatten.
Diese offensive und inzwischen routinemäßige Intoleranz dessen, was jetzt täglich als die objektive Wahrheit bestätigt wird, sollte keine Sekunde länger toleriert werden.
Link: http://wattsupwiththat.com/2014/05/03/the-ocean-ate-my-global-warming/
Übersetzt von Chris Frey EIKE