Schwarz-Gelber Energie-Sozialismus – Haftung für Offshore Anschluss wird auf Verbraucher verlagert.

In Zukunft darf sich der Betreiber Tennet seine Kosten per "Haftungsumlage" von den Verbrauchern zurückholen, wenn das Unternehmen die Windparkbetreiber entschädigen muss, weil die Anlagen verspätet ans Netz gehen. Selbst zahlen muss das Unternehmen nur bei vorsätzlichen Verzögerungen und anteilig bei grober Fahrlässigkeit. Auf entsprechende Eckpunkte haben sich Wirtschaftsminister Philipp Rösler (FDP) und Umweltminister Peter Altmaier (CDU) am Montag verständigt.

Das Haftungsrisiko schätzt die Regierung auf mehr als 1 Mrd. Euro…

Lesen Sie den ganzen Text in der FTD hier, gefunden auf ACHGUT




Neue Studie zur Modellanalyse

McKitrick, Ross R. und Lise Tole (2012) “Evaluating Explanatory Models of the Spatial Pattern of Surface Climate Trends using Model Selection and Bayesian Averaging Methods” Climate Dynamics, 2012, DOI: 10.1007/s00382-012-1418-9
[Titel etwa: Evaluierung erklärender Modelle zur räumlichen Verteilung von Klimatrends mit Hilfe von Modellselektion und Bayesianischer Mittelung].

Abstrakt:

Wir evaluieren drei Kategorien von Variablen, um die räumliche Verteilung von Erwärmungs- und Abkühlungsgebieten auf dem Festland zu erklären: Vorhersagen der globalen Zirkulationsmodelle GCM als Reaktion auf beobachtete Antriebe; geographische Faktoren wie Breite und Druck sowie sozioökonomische Einflüsse auf die Landoberfläche und die Datenqualität. Räumliche Autokorrelation (SAC) in der beobachteten Trendverteilung wird von den übrigen Daten entfernt mit Hilfe eines gut spezifizierten erklärenden Modells. Begleitende Tests zeigen, dass keiner der drei Variablen die Verteilung der jeweils anderen beiden beeinflusst, obwohl 20 von 22 GCMs individuell entweder keine signifikanten Erklärungen beitragen oder eine Trendverteilung zeigen, die negativ mit Beobachtungen korreliert ist. Nicht genestete Tests [non-nested tests ?] weisen die Null-Hypothese zurück, dass sozioökonomische Variablen keine erklärende Funktion haben. Wir wenden eine Bayesianische Methode zur Mittelbildung an (BMA) [?], um alle möglichen linearen Kombinationen erklärender Variablen zu untersuchen und um Verteilungen von Koeffizienten zu erhalten, die bei der Auswahl der Modelle robust sind. Diese Ergebnisse, bestätigt durch klassische umfassende Tests, deuten darauf hin, dass die geographischen Variablen plus drei der 22 GCMs und drei sozioökonomische Variablen den Datensatz vollständig erklären. Wir schließen daraus, dass die besten Modelle zur räumlichen Trendverteilung auf dem Festland von 1979 bis 2002 eine Kombination der durch einige GCMs repräsentierten Prozesse und bestimmter sozioökonomischer Messungen erforderlich sind, die Änderungen der Datenqualität und Veränderungen der Landoberfläche berücksichtigen.
Er schreibt auf seiner Website:
Wir wenden klassische und Bayesianische Methoden an, um zu sehen, wie gut 3 unterschiedliche Typen von Variablen die räumliche Verteilung von Temperaturtrends von 1979 bis 2002 erklären können. Ein Typ ist der Output einer Kollektion von 22 GCMs, die das IPCC im 4. Zustandsbericht verwendet. Ein weiterer ist eine Kollektion von Maßnahmen sozioökonomischer Entwicklungen auf dem Festland.
Der dritte Typ ist eine Kollektion geographischer Indikatoren einschließlich geogr. Breite, Art der Küstenlinien und troposphärische Temperaturtrends. Die Frage ist, ob eine extreme Position gerechtfertigt ist, die eine oder mehrere Kategorien von Daten ausschließt, oder ob eine Kombination der drei Typen notwendig ist.
Ich möchte die IPCC-Position als extrem beschreiben, weil sie die Rolle sozioökonomischer Faktoren in ihren Zustandsberichten verwerfen. In den klassischen Tests schauen wir, ob irgendeine Kombination von einem oder zwei Typen den dritten Typ „umfasst“, und ob nicht genestete Tests, die kombinierte Gruppenpaare sich zu 0% oder 100% auswirken. („Umfassen“ [encompass] bedeutet, dass es ausreichende erklärerische Kraft gibt, die nicht nur zu den Daten passt, sondern auch zu der offensichtlichen erklärerischen Kraft des rivalisierenden Modells). In allen Fällen weisen wir es vehement zurück, dass sozioökonomische Daten nicht berücksichtigt werden.
In nur 3 von 22 Fällen lehnen wir es ab, die Klimamodelldaten außen vor zu lassen, aber in einem dieser Fälle ist die Korrelation negativ, so dass nur 2 zählen – das heißt, in 20 von 22 Fällen finden wir, dass Klimamodelle entweder nicht besser oder sogar schlechter sind als Zufallszahlen. Dann haben wir Bayesianische Mittelbildungs-Modelle angewendet, um die Vielfalt von 537 Millionen möglichen Kombinationen erklärender Variablen zu erforschen und Koeffizienten und Standardabweichungen zu finden, die robust gegenüber der Modellselektion sind (= Rosinenpickerei). Zusätzlich zu den geographischen Daten (die wir hypothetisch einschließen) identifizieren wir drei sozioökonomische Variablen als diejenigen, die in ein optimales erklärendes Modell gehören, eine Kombination, die alle übrigen Daten umfasst. Also lautet unsere Schlussfolgerung, dass ein gültiges erklärendes Modell der Verteilung von Klimaänderungen auf dem Festland sowohl sozioökonomische Indikatoren als auch GCM-Prozesse erfordert. Das Auslassen der sozioökonomischen Faktoren bei der empirischen Arbeit könnte die Größenordnung der Analyse sowie die Gründe für seit 1979 beobachtete Klimatrends verzerren.
Dr. McKitrick’s neue Studie zusammen mit Lise Tole ist jetzt online bei Climate Dynamics. Er schrieb auch ein Op-ed in der Financial Post am 13. Juni. Eine Version mit den Verweisen gibt es hier. Teil II ist hier online, und die Versionen mit Hinweisen hier.
Link: http://wattsupwiththat.com/2012/06/21/new-modeling-analysis-paper-by-ross-mckitrick/
Übersetzt von Chris Frey EIKE




Die Energiewende ist noch zu schaffen – Neue BGR Studie zum Schiefergas sieht in Deutschland große Potenziale

Die Abbildung auf der rechten Seite zeigt die möglichen Standorte für Schiefergasvorkommen an (Ockerfarben). Regionen mit Bergbau-Berechtigung in Deutschland sind gelb dargestellt.
Die gesamten Ressourcen an Schiefergas schätzen die Geowissenschaftler in der Arbeit auf 6,8 bis 22,6 Billionen m³. Bei der (sehr konservativen) Annahme, dass man 10% davon wirtschaftlich gewinnen kann werden die Reserven mit 0,7 bis 2,3 Billionen m³ abgeschätzt.
Offiziell beziffert man momentan die Deutschen Schiefergas Reserven mit 1,3 Billionen Tonnen. Das ist zehnmal mehr als man bislang dachte und würde ausreichen Deutschland für 15 Jahre mit Gas zu versorgen.

Bislang bekannte Gas-Reserven in Deutschland. Quelle: BGR-Studie

Ressourcen und Reserven

An dieser Stelle verdient der Unterschied zwischen Energieressourcen und Energiereserven eine kurz Erläuterung. Bei den Reserven handelt es sich um die Menge, welche sich zu heutigen Preisen und bei heutigem Technologiestand wirtschaftlich fördern lässt. Ressourcen sind Energiequellen die zwar bekannt sind, deren Nutzung heute jedoch technologisch oder ökonomisch noch nicht interessant ist.

Die im Jahr 2010 bekannten weltweiten Reserven an Schiefergas (Deutschland 2012). Quelle: BGR-Studie
Aus diesem Umstand ergibt sich der auf den ersten Blick seltsam erscheinende Effekt, dass die Energiereserven bei steigenden Rohstoffpreisen ansteigen. Zum einen weil durch höhere Preise auch solche Quellen genutzt werden, deren Erschließung bislang zu teuer war. Und zum anderen, weil durch höhere Preise und die daraus resultierenden höheren Gewinnerwartungen die Entwicklung neuartiger Technologien gefördert wird.
Genau der letztgenannte Effekt hat den gewaltigen Technologiesprung bei der Förderung von unkonventionellem Gas in den letzten Jahren ausgelöst.

Vorrat an unkonventionellem Gas und Öl ist vermutlich viel größer als bislang bekannt

Es ist noch wichtig zu erwähnen dass es sich bei den in der BGR-Studie genannten Zahlen um sehr vorläufige Werte handelt. Die Forscher schreiben:

Bei den ermittelten Gasmengen handelt es sich um vorläufige Angaben, da die derzeitige Datengrundlage für eine abschließende Bewertung des Erdgaspotenzials nicht ausreichend ist.

Schließlich läuft das Projekt zur Erforschung der unkonventionellen Lagerstätten der BGR noch bis 2015. Das jetzt Vorgestellte Papier ist ein Zwischenbericht. Weite Bereiche in Deutschland sind noch gar nicht untersucht worden. Auch steht die Suche nach Formationen die Schiefer-Öl enthalten noch aus. Und die Gewinnung von unkonventionellem Öl hat mit ähnlichen Techniken wie sie beim Gas-Fracking angewendet werden in den USA gerade eine Renaissance bei der Ölforderung ausgelöst. Der Vorrat an förderbaren Kohlenwasserstoffen in Deutschland wird also aller Voraussicht nach noch um einiges höher sein.
Neben der Abschätzung des Schiefergaspotenzials wird im weiteren Fortgang des Projektes auch das Potenzial an nicht-konventionellem Erdöl untersucht werden. Darüber hinaus wird eine Methode des US-amerikanischen Geologischen Dienstes (USGS) zur Potenzialabschätzung angewendet.

Unkonventionelles Gas könnte Boom in Deutschland auslösen


Schematische Darstellung konventioneller und nicht-konventioneller Erdöl- und Erdgas-Vorkommen. Rot: Erdgas, grün: Erdöl. Quelle: BGR-Studie
Die Aussicht auf die bereits jetzt bekannte riesige Mengen an förderbarem unkonventionellem Gas allein könnte schon einen Boom in der Gasindustrie auslösen.
Und damit genau das erreichen, was die Politik sich von den “Erneuerbaren Energien” zwar versprochen hat, woran diese aber, wie die Pleiten in der Solarindustrie eindrucksvoll zeigen, grandios gescheitert sind. Und zwar, sichere Arbeitsplätze in einer zukunftsträchtigen High-Tech Industrie zu schaffen.
Und man kann es wohl als gesichert ansehen, dass die Förderung von unkonventionellen Kohlenwasserstoffen in Deutschland einen weiteren Technologieschub erfahren wird.
Die Erfahrungen beim Bergbau, wo Deutschland bei der Entwicklung neuer Technologien und Verfahren eine führende Rolle auf der Welt eingenommen hat, können hier als Beispiel dienen. Und obwohl Deutschland bei der Förderung von Kohle keine bedeutende Rolle mehr spielt, zählt es bei der Entwicklung und Produktion von Bergbaumaschinen nach wie vor zu den führenden Nationen. Die Wahrscheinlichkeit dass Deutschland in naher Zukunft auch bei der Bohr-und Extraktionstechnologie zur technologischen Weltspitze gehört ist extrem hoch.

Schematische Darstellung einer Horizontalbohrungsstrecke mit einem durch Fracking erzeugten hydraulischen Riss. Quelle: BGR-Studie

Kombination aus Technologien macht Förderung interessant

Die Exploration von unkonventionellen Kohlenwasserstoffen ist schließlich technologisch äußerst anspruchsvoll. Es wird dabei ausgenutzt, dass unterirdische Bohrungen mittlerweile in die verschiedensten Richtungen gelenkt werden können. Dadurch können selbst bislang nicht zugängliche Gasfelder auf einmal sehr interessant werden. Vor allem wenn man die Möglichkeit des horizontalen Bohrens mit einer anderen Technik verbindet, dem Öffnen von Gesteinsporen durch das Einpumpen von Flüssigkeit, auch Hydraulic Fracturing oder Fracking genannt. Durch die Kombination dieser beiden Technologien wurde die Gasförderungin den letzten Jahren nicht weniger als revolutioniert.

Fracking wird seit langem angewendet

Das Fracking selbst ist eine Technik, die im 19. Jahrhundert zum ersten mal angewendet wurde und seit den 50er Jahren des 20. Jahrhunderts auf breiter Basis durchgeführt wird. Seit Beginn der 60er Jahre wird diese Technologie auch in Deutschland zur Stimulierung von Erdgaslagerstätten eingesetzt.
Bei den heutzutage üblichen Verfahren wird zunächst eine Bohrung senkrecht in die Tiefe getrieben bis die Zielgesteinsschicht erreicht wird. Diese befindet sich in der Regel zwischen 1.000 und 4.000 Meter Tiefe. Danach wird die Bohrung umgelenkt und horizontal weitergeführt.
Das gesamte Bohrloch wird dabei mit einem Stahlrohr ausgekleidet welches im gasführenden Gestein mit einer Perforationskanone durchlöchert wird. Beim dann folgenden eigentlichen Fracking-Prozess wird wird eine Flüssigkeit unter hohem Druck in die Erdgaslagerstätte gepumpt, um künstliche Fließwege für das Gas zu schaffen.
Die Flüssigkeit besteht zu rund 98 Prozent aus Wasser und Quarzsand. Bis zu 2 Prozent sind chemische Stoffe, die unter anderem für den Korrosionsschutz und zur Reibungsminderung erforderlich sind. Die Gesteinsrisse werden von dem beigegebenen Quarzsand offen gehalten. Sie stellen sicher, dass das Erdgas aus dem festen Gestein entweichen und zum Bohrloch fließen kann. Das Bohrloch selbst wird mit mehreren Schichte einzementierter Stahlrohre abgedichtet. So wird eine undurchdringbare Barriere zwischen dem Bohrloch und etwas wasserführenden Schichten geschaffen.
Bei dem gesamten Prozess dauert die Bohrung einige Wochen, Das Fracking selbst benötigt nur wenige Tage. Die eigentliche Gasförderung ist weit weniger arbeitsintensiv, kann aber, abhängig von der Lagerstätte, zwischen 10 und 30 Jahre andauern. Der gesamte Prozess der Bohrung, des Frackings und der anschließenden Förderung ist sehr anschaulich in einem Video von ExxonMobil und in dieser Animation dargestellt.

Widerstand kommt von den bekannten Stellen

Das Potenzial an Gaslagerstätten welche mit dieser neuen Technologie wirtschaftlich genutzt werden können ist gigantisch. Die weltweite Versorgung mit Gas könnte so über lange Zeit gesichert werden. Ein Umstand, der selbsternannte Umweltschutzgruppen jedoch nicht davon abhält, dieses Verfahren mit Vehemenz zu bekämpfen. Das Muster dabei ist altbekannt. Es werden theoretische Gefahren postuliert und durch Übertreibung und oft auch falsche Darstellungen soll in der Bevölkerung Angst vor der neuen Technologie geschürt werden.
So wird von Kritikern dieser Methode gerne der Film „Gasland“ des amerikanischen Filmemachers Josh Fox angeführt. Dieser Film zeigt unter anderem brennende Wasserhähne, die eine Folge der Förderungen von unkonventionellem Gas in Colorado sein sollten. Allerdings hat eine vom Department of Natural Ressources des Staates Colorado durchgeführte Untersuchung, dass das in den Hausbrunnen gefundene Methan nachweislich mit dem Fracking in mehr als tausend Meter Tiefe nichts zu tun hat, was sich etwa anhand der chemischen Zusammensetzung und der Isotopenverteilung belegen lässt.

Risiken nicht größer als bei konventioneller Förderung

Und gerade die Erschließungen in Nordamerika zeigen, dass die immer wieder genannten Gefahren beim Fracking von Seiten der Umweltschutzbewegungen massiv übertrieben wurden. Eine Anfang des Jahres erschienene Studie zu dem Thema, die sich auch mit der Förderung in den USA beschäftigt hat, kommt zu dem Ergebnis dass bei korrekter Durchführung nur eine geringe Gefahr von Fracking ausgeht. Auch in der aktuelle BGR-Studie wird auf die Umweltaspekte dieser Methode ausführlich eingegangen. Die Forscher kommen dabei zu ähnlichen Resultaten wie ihre amerikanischen Kollegen:

“Die Risiken von Fracking-Maßnahmen im geologischen Untergrund stellen sich im Vergleich zu möglichen Unfällen bei obertägigen Aktivitäten als gering dar. durch standortbezogene Voruntersuchungen können Fracking-Maßnahmen so geplant werden, dass ein unkontrolliertes Entweichen der Fracking-Fluide aus dem unterirdischen Riss in angrenzende Formationen mit sehr hoher Wahrscheinlichkeit ausgeschlossen werden kann.”

Auch die oft getätigte Aussage, dass es sich bei der beim Fracking eingesetzten Flüssigkeit um einen gefährlichen Chemikaliencocktail handeln würde, ist mehr als eine simple Übertreibung. Hauptbestandteil der Fracking-Flüssigkeit ist Wasser. Dazu kommt noch (manchmal) CO2, Quarz (Sand) und eine Reihe von Chemikalien (< 2%). Das Flüssigkeitsgemisch als Ganzes ist als schwach wassergefährdend und nicht umweltgefährdend eingestuft. Es stellt nach dem Chemikalienrecht kein kennzeichnungspflichtiges Gemisch dar (Hier eine Übersicht über eingesetzte Chemikalien bei verschiedenen Frac-Maßnahmen in Deutschland).
Es handelt sich beim Fracking um eine Technologie, die bei sachgemäßer Durchführung keine größere Gefährdung für die Umwelt darstellt, als die konventionelle Gasförderung. Durch die Möglichkeit der horizontalen Bohrung ist der überirdische Flächenverbrauch sogar weit geringer als bei herkömmlichen Methoden.

Chancen für die Energieversorgung in Deutschland

Noch ein weiterer Aspekt macht das Schiefergas interessant. Schließlich besitzt die Kontroverse um das unkonventionelle Gas in Deutschland erhebliches Potenzial zu einem politischen Streitthema zu werden. Einem Streit, bei dem es viel zu gewinnen gibt. Geht es dabei nämlich um nicht weniger als die zukünftige Ausrichtung der Energieversorgung bei uns im Land.
Die Förderung von Schiefergas könnte der Debatte um die Energiewende eine völlig neue Richtung verleihen. Schließlich versucht sich unsere Bundesregierung gerade an der Quadratur des Kreises, indem sie die Energieversorgung auf “Erneuerbare” umstellen will, die Stromversrogung jedoch bezahlbar halten und die Versorgungssicherheit gewährleisten muss und nach dem Ausstieg aus der CO2-freien Kernenergie trotzdem die Europäischen Ziele zur Emissionsminderung einzuhalten plant.

Strompreise als Gefahr für die „Energiewende“

Vor allem einen weiteren Anstieg bei den Strompreisen zu verhindern scheint jedoch zunehmend das Gebot der Stunde zu werden. Während zu erwarten ist, dass die Preise im nächsten Jahr vor allem aufgrund der Erhöhung der Einspeisevergütung für die neuen ineffizienten Energien (NIE) Wind und Sonne auf über 5 Cent für die Kilowattstunde ansteigt, sorgen sich immer mehr Menschen hier im Land um die Bezahlbarkeit des Stroms. Und so langsam scheint die Presse auch auf die Entwicklung der Stromkosten durch die Energiewende aufmerksam geworden zu sein. Artikel wie etwa der vorletzte Focus-Titel oder wie diesen Artikel in der Welt oder diesen aus der FAZ hätte man noch vor einem Jahr wohl vergeblich gesucht. So langsam verbreitet sich die Geschichte, dass der Strom in naher Zukunft wegen der Energiewende immer teurer wird.
Während eine kürzlich von der grün-roten Landesregierung in Stuttgart in Auftrag gegebene Studie bis 2020 nur einen moderaten Anstieg der Strompreise um etwa 5 Cent pro Kilowattstunde erwartet, glauben mittlerweile viele Deutsche eher an die Zahlen die das Karlsruhe Institut für Technolgie (KIT) ermittelt hat. Dort geht man von einem Anstieg der Strompreise in Höhe von 70% bis 2025 aus. Vor allem wegen der teuren „Erneuerbaren“ Energien.
Immer mehr Menschen haben (zurecht) Angst davor, dass die Energie schon bald unbezahlbar wird. Und für immer mehr ist sie das bereits geworden. Laut dem Bund der Energieverbraucher ist bislang 600.000 bis 800.000 Menschen der Strom abgestellt worden weil Sie ihre Rechnung nicht mehr bezahlen konnten. Im Vergangenen Jahr haben so viele Harz 4 Empfänger Notkredite beantragt, wie nie zuvor. Oft weil sie ansonsten die Nachzahlung der Stromrechnung nicht hätten begleichen können.
 
Ein modernes Gas-und-Dampf-Kraftwerk. Bildquelle: Wikipedia

Schiefergas als Rettungsanker für die Energiewende

Die Suche nach bezahlbarer und umweltverträglich produzierter Energie könnte durch das Schiefergas eine völlig neue Richtung bekommen. Ohne Zweifel würde die Förderung von unkonventionellem Gas in Deutschland die Gaspreise senken. In den USA hat sich der Preis für Gas seit Beginn des Shale-Gas Booms halbiert. Obwohl die amerikanische Regierung den Bau von zwei neuen Kernkraftwerken genehmigt hat werden diese in absehbarer Zeit wohl nicht gebaut werden. Strom aus Gas ist dort jetzt billiger, also baut man Gaskraftwerke.
Das sind Energiewirtschaftliche Bedingungen von der unsere Bundesregierung derzeit nur träumen kann. Weil Gaskraftwerke vielfach wegen des Vorrangs der NIE nicht mehr rentabel zu betreiben sind plant Eon bereits drei Blöcke zu schließen. Der für die Aufrechterhaltung der Stromversorgung so dringend benötigte Neubau von schnell regelbaren Gaskraftwerken findet erst recht nicht statt. Vor allem weil diese vornehmlich als Lückenbüßer für die Zeit dienen müssten, in denen nicht genug „erneuerbarer“ Strom produziert wird. Ein niedriger Gaspreis könnte die Situation hier umdrehen und Gaskraftwerke zu günstigen Stromproduzenten machen.

Schiefergas kann Deutschland unabhängiger von Importen machen

Billiges Gas aus eigener Produktion wäre die Chance unsere Stromversorgung bezahlbar und stabil zu halten, die in Europa vereinbarten Klimaschutzziele zu erreichen und gleichzeitig unabhängiger von Importen von Energierohstoffen zu werden. Die entstehenden Arbeitsplätze in der Förderindustrie und im Anlagenbau würden dauerhaft in Deutschland bleiben. Und das Ganze würde diesmal völlig ohne Subventionen und marktverzerrende Gesetze funktionieren. Die Förderung von unkonventionellem Gas würde dem Staat umgekehrt sogar Einnahmen aus Explorationslizenzen und Steuern einbringen.
Um auch in Deutschland einen Gasboom auszulösen bedarf es eigentlich nur noch einer Politik welche das riesige Potenzial der Gasförderung in Deutschland erkennt und die gewillt ist seine Entscheidungen auch gegen den Widerstand von Umweltschutzgruppen und anderen Forschrittsgegnern durchzusetzen.
Eine solche Politik hätte sicher vor allem bei den zuletzt von der CDU und der FDP vergraulten konservativen und liberalen Wähler einiges Mobilisierungspotenzial. Den meisten dieser Menschen sind bezahlbare Energiepreise und die Sicherung Deutschlands als Industriestandort nämlich wichtiger als die Bestätigung irrationaler Technologieängste.
Rudolf Kipp; zuerst erschienen in Science Sceptical
ÄHNLICHE BEITRÄGE :
* ganz aktuell SPON: Neue Studie gibt Entwarnung für Fracking (mit Dank an Leser Laburda)
* Welt Online vom  01.07.2012  Mehr als 30 Gasanbieter erhöhen die Preise
Ein weiterer Rückschlag für Peak-Oil – Schwarzes Gold vom Schwarzen Kontinent
Neue Energiestudie: “Der Tod der Peak-Oil Hypothese”
Öl und Benzin – der Faktencheck




Klimamodellresultate nicht besser als Zufallsergebnisse!

Bild rechts: Beispiel von acht Zufallsbewegungen in einer Dimension mit dem Startpunkt 0. Der Plot zeigt die gegenwärtige Position auf der Linie (vertikale Achse) in Abhängigkeit von Zeitschritten (horizontale Achse). Quelle: Wikipedia

Computermodelle scheitern kläglich bei der Vorhersage von Klimaänderungen in einzelnen Regionen.

Aus der Financial Post: Eine Studie aus dem Jahr 2011 im Journal of Forecasting nahm sich einmal den gleichen Datensatz vor und verglich Modellvorhersagen mit der „Zufallsbewegungen (random walk)“-Alternative, die einfach den letzten Wert der Periode an jeder Stelle als Vorhersage des Wertes in der nächsten Periode an dieser Stelle enthielt.
Der Test misst die Summe der Fehler relativ zu den Zufallsbewegungen. Ein perfektes Modell zählt als 0, d. h. es machte keine Fehler. Ein Modell, das nicht besser abschneidet als die Zufallsbewegung erhält die Kennzahl 1. Ein Modell mit einer Wertung größer als 1 lieferte schlechtere Ergebnisse als Raten ohne Informationen. Einfache statistische Modelle ohne Klimatologie oder Physik erhalten typischerweise eine Wertung von 0,8 bis 1, was auf geringe Verbesserungen der Zufallsbewegungen hinweist. In manchen Fällen ergab sich jedoch eine Wertung bis 1,8.
Im Kontrast dazu erzielten die Klimamodelle eine Wertung in einer Bandbreite von 2,4 bis 3,7, was auf ein totales Scheitern hindeutet, gültige Vorhersageinformationen auf regionalem Niveau zu liefern, selbst über lange Zeiträume. Die Autoren kommentieren: „Dies bedeutet, dass die gegenwärtigen (Klima-)Modelle mangelhaft sind hinsichtlich örtlicher dekadischer Prognosen, obwohl sie als Input für politische Entscheidungen benutzt werden“. …
Mehr: http://opinion.financialpost.com/2012/06/13/junk-science-week-climate-models-fail-reality-test/
Zuvor gab es bei WUWT zu diesem Thema Zufallsbewegungen hier etwas:
Ist die globale Temperatur eine Zufallsbewegung?
Aktualisierung: Die Studie  Fildes, R. and N. Kourentzes, 2011: Validation and forecasting accuracy in models of climate change. International Journal of Forecasting. doi 10.1016/j.ijforecast.2011.03.008 ist als PDF hier verfügbar.
Link: http://wattsupwiththat.com/2012/06/14/climate-models-outperformed-by-random-walks/
Übersetzt von Chris Frey EIKE
Man sehe auch hier: 
Klimamodelle und Temperaturrekonstruktionen wollen einfach nicht zusammenpassen: Neue Studie vom Hamburger Max-Planck Institut für Meteorologie




Treibhauseffekt

Da der in Rede stehende Beitrag der EIKE-Konferenz über die kühlende Wirkung des CO2 ausdrücklich zur Kritik einlädt, sei diese hier vorgenommen. Allerdings soll nicht zum wiederholten Male auf die vollen Details des TE eingegangen werden. Dies ist bereits (hier) erfolgt. Stellvertretend in drei Punkten sollen die grundlegenden physikalischen Fehler des TE-Kritikers festgemacht und richtig gestellt werden.
Um vorab keine Missverständnisse aufkommen zu lassen, sind auch die Unterzeichner davon überzeugt, dass über die unbedenkliche und sehr geringe Treibhauswirkung des CO2 hinaus keine weiteren Verstärkungseffekte existieren. Dafür gibt es gute, durch physikalische Theorie und vor allem durch Messungen belegte Gründe (hier). Um dieses Thema geht es im Folgenden aber nicht. Es geht darum, ob die Hypothese, die Erderwärmung durch CO2 sei ein Nulleffekt, oder sie sei sogar negativ (hier) mit dem Stand der Physik und von Messungen vereinbar ist.
Zu Punkt 1: TE-Kritiker
Der TE-Kritiker erläutert die Stefan-Boltzmanngleichung (SB) wie folgt: „Diese Gleichung ist nichts anderes als das Verhältnis von tagseitiger Energiezufuhr von der Sonne zu nachtseitiger Energieabgabe an das Weltall. Dabei ist der Gesamteffekt des vollen Tages nach 24 Stunden, also die Tagesvariabilität sehr exakt gleich Null“.
Zu Punkt 1: Physik
Zum ersten Satz: Die SB-Gleichung gibt die von einem idealen schwarzen Strahler thermisch abgestrahlte Leistung P in Abhängigkeit von seiner Temperatur T an, sie ist also eine funktionale Beziehung P = f(T).  Die SB-Gleichung ist bzw. sie beschreibt kein „Verhältnis von Energien“ und hat infolgedessen nichts mit tagseitiger Energiezufuhr von der Sonne zu nachtseitiger Energieabgabe an das Weltall zu tun. Sie verknüpft ausschließlich die beiden Größen T und P miteinander.
Zum zweiten Satz, in dem von der SB-Gleichung als einem „Gesamteffekt“ gesprochen wird, der exakt Null ergäbe, die Richtigstellung: Die für die Leistungsabgabe verantwortliche Erdoberflächentemperatur T in der SB-Gleichung P = f(T), d.s. die Wasser- und Bodentemperaturen, ändert sich für die in Rede stehende Anwendung nur unmaßgeblich im Tages- und Nachtrhythmus. Die ins SB-Gesetz eingehende Temperatur T ist der zeitliche und örtliche Temperaturmittelwert der gesamten Oberfläche der Erde. Die bei dieser Temperatur abgestrahlte Leistung P ist nicht Null, denn die Erde befindet sich nicht am absoluten Temperaturnullpunkt. Vermutlich meint der TE-Kritiker, dass die Energiebilanz der Erde von eingestrahlter zu abgestrahlter Energie Null ist. Dies ist zwar richtig, es hat aber nichts mit der SB-Gleichung zu tun, sondern ist Folge des Satzes von der Erhaltung der Energie.
Zu Punkt 2: TE-Kritiker
Der TE-Kritiker behauptet: „Die Vorstellung, der Planet (Erde) sei ein schwarzer Strahler ist falsch. Der Planet besteht aus chemischer Materie, und die real messbaren Temperaturen hängen von der Chemie der Materie ab
Zu Punkt 2: Physik
Hier hat der TE-Kritiker im Prinzip ein wenig recht, denn die Erde ist nur in guter Näherung ein schwarzer Strahler. Sie ist ein "grauer Strahler", aber der Fehler ist sehr gering und im hier interessierenden Zusammenhang völlig vernachlässigbar, wenn man sie trotzdem als schwarzen Strahler betrachtet. Die Eigenschaft eines festen Körpers, ein schwarzer Strahler zu sein, leitet sich aus dem Frequenzspektrum seiner Abstrahlung ab. Entspricht dieses Spektrum dem eines schwarzen Strahlers (s. hierzu Demtröder, Experimentalphysik 3), dann trifft das SB-Gesetz zu und die Oberfläche des Körpers weist die vom SB-Gesetz vorgesehene Temperatur aus. Dieser Zusammenhang ist theoretisch (Quantenmechanik) und durch Messungen belegt. Wer ihn bezweifelt, stellt das SB-Gesetz und alle dieses Gesetz bestätigenden Messwerte in Frage. Man kann natürlich jedes physikalische Gesetz in Frage stellen, bewegt sich dabei aber auf sehr dünnem Eis.
Das SB-Gesetz sagt nichts darüber aus, wie die Temperatur des Strahlers zustande kommt. Es ist unerheblich. Nirgendwo kommen chemische oder sonstigen weiteren physikalischen Größen in der SB-Gleichung vor. Chemie, Eigenschaften von Wasser und Gestein, Thermodynamik des Körpers etc. brauchen für das SB-Gesetz nicht bemüht zu werden.  Die richtige Spektralverteilung reicht aus. Es dann unerheblich, welche Oberflächenstruktur der Körper besitzt und es ist ebenfalls unerheblich, ob dieser Körper aus geschmolzenem Käse, verfaulten Eiern oder einer Legierung des noch nicht gefundenen Atomgewichts 500 oder beliebig Weiterem besteht.  Im Übrigen rührt die Eigenschaft der Erde, in guter Näherung ein schwarzer Strahler zu sein, von den spektralen Absorptionseigenschaften des Wassers und – nachrangig – des Erdbodens ab und nicht von den Eigenschaften der Erdatmosphäre.
Zu Punkt 3:TE-Kritiker
Der TE-Kritiker stellt eine neue Hypothese zur Schwerkraft vor: „Die Schwerkraft ist die energetische Immobilie der Materie, und mit zunehmender Schwerkraft steigt die innere Energie der Materie und damit deren messbare Temperatur an. Die Schwerkraft erhöht mit zunehmender Masse nicht nur den Druck in der Masse, indem das darunter Liegende immer stärker zusammengepresst wird, sondern parallel zum Druck wird auch noch die Temperatur erhöht. Diese Wirkung der Gravitation auf Druck und Temperatur ist lange bekannt. Mein Oberstufenphysikbuch am Gymnasium in den 60-er Jahren beschreibt das schon. Die Abhängigkeit von Druck und Temperatur der Venus belegt meine Aussage“. 
Zu Punkt 3: Physik
Träfe diese "Schwerkraft-Druck-Hypothese" zu, müsste man in einem Experiment, bei dem zwei ruhende Massen infolge ihrer Schwerkraft (Gravitation) mit jeweils gleicher Berührungsfläche auf eine Unterlage Druck ausüben (die eine Masse von 1 kg, die zweite von 1000 kg), bei der schwereren Masse eine höhere Temperatur an der Druckstelle als bei der leichteren Masse messen. Und zudem wären die Temperaturen beider Druckstellen auch noch höher als die der Umgebung ohne zusätzliche Drücke. Aus diesem Effekt ließe sich ein Perpetuum Mobile herleiten, und alle Energiesorgen der Menschheit hätten sich erledigt. Auch in großen Meeresstiefen, etwa im Marianengraben mit ca. 10 km Tiefe und einem Druck von 1000 bar müsste es demnach mächtig heiß sein, was aber bekanntermaßen nicht der Fall ist.
Die physikalische Richtigstellung: Druck und Temperatur haben nur dann etwas miteinander zu tun, wenn durch Druck (Druck = Kraft/Fläche, Kraft-Vektor, Druck-Skalar) Arbeit verrichtet wird und dabei Verlustwärme anfällt. Jeder von uns kennt dies, wenn wir zum Beispiel einen Fahrradreifen aufpumpen und dabei die Luft in der Pumpe warm wird. Dieser Effekt, hier Temperaturänderung bei adiabatischer Zustandsänderung von Gasen, und weil man beim Aufpumpen des Fahraddreifens Handdruck aufwenden muss, scheint der Grund für die immer noch bei Laien herumgeisternde, irrige Annahme zu sein, dass Druck per se mit Temperaturerhöhung verbunden sein muss. Nun wird auch klar, dass der Temperaturverlauf der Venusatmosphäre mit ihrem Druckverlauf praktisch nichts zu tun hat. Es ist der Treibhauseffekt ihrer Treibhausgase, sonst nichts.
Offenbar bewirken die komplexen Verhältnisse in der Erdatmosphäre, dass einfache physikalische Grundgegebenheiten über Kraft, Druck, Temperatur und Arbeit nicht nur von unserem TE-Kritiker, sondern auch von Physikern gelegentlich übersehen werden. So schreibt beispielsweise Prof. D. Hebert (inzw. emeritierter Klimatologe an der Bergakademie Freiberg): „Bei einer Erdkugel, deren Atmosphäre durch andere als die Gravitationskräfte festgehalten wird, hat die Luftschicht eine von der Höhe unabhängige Dichte. Sie ist überall gleich und soll überall die gleiche Temperatur T = 255 K, die Strahlungsgleichgewichts­temperatur der Erde haben. Wird die Gravitation dazugeschaltet, so erfolgt durch die Schwerkraft eine Dichte- und Druckzunahme in Richtung Erdmittelpunkt und eine Dichte- und Druckabnahme in Richtung der oberen Grenze der Atmosphäre. Damit entsteht das durch die barometrische Höhenformel beschriebene vertikale Druckgefälle. Dieser Vorgang entspricht einer adiabatischen Expansion nach oben und einer adiabatischen Kompression nach unten. Es kommt also oben zur Abkühlung von 255 K auf 220 K und nach unten zur Erwärmung der Luftschichten von 255 K auf 288 K“.
Vermutlich ist es genau dieses immer wieder kolportierte Gedankenexperiment, welches viele TE-Kritiker in die Irre führt. Wird Gravitation „dazugeschaltet“, leistet dieses Hinzuschalten in der bisher "gravitationsfreien" Atmosphäre eine Menge Arbeit. Ein Stein, der in der gravitationsfreien Atmosphäre ohne potentielle Energie „schwebt“, erhält diese nach Einschalten der Gravitation, wandelt sie beim Herunterfallen in kinetische Energie um und verliert diese beim Aufschlagereignis in Verformungsenergie und Wärme. Und so wird auch die Atmosphäre durch Gravitationsarbeit verdichtet – mit den von D. Hebert richtig beschriebenen Konsequenzen hinsichtlich ihrer Temperaturveränderung. Das Gedankenexperiment ist allerdings unsinnig, denn Gravitation kann nicht aus- oder eingeschaltet werden, außer bei Star-Trek. Und daher kann auch in den weitgehend stationären Verhältnissen der Atmosphäre keine Arbeit durch „eingeschaltete“ Gravitation mit begleitender Temperaturänderung geleistet werden. Die Erklärung von D. Hebert begeht den Fehler, zur Erklärung eines realen physikalischen Zustands einen physikalisch unmöglichen Vorgang (Einschalten von Gravitation) heranzuziehen und daraus falsche Schlüsse herzuleiten.
Resumée
TE-Kritiker vernachlässigen keineswegs generell alle physikalischen Gesetze. Auch in dem hier kritisierten Beitrag wird richtig vom energetischen „Nullsummenspiel“ des Strahlungsenergiehaushalts der Erde berichtet und ebenfalls korrekt von der indirekt erwärmenden Wirkung von Nachtwolken. Insbesondere Letzteres würde bei etwas gründlicherem Nachdenken über diese Beobachtung schnell auf den richtigen Weg führen, wenn gedanklich die Gegenstrahlung der Nachtwolken mit der ähnlichen Wirkung des Treibhausgases CO2 verknüpft werden würde.
Wir wollen daher an dieser Stelle den Treibhauseffekt einmal in drei Schritten so einfach wie möglich darstellen:
1)  Das Nullsummenspiel: alle von der Sonne herrührende Strahlungsenergie wird von der Erde – zeitverschoben und mit einem veränderten Spektrum – in gleicher Energiemenge wieder abgestrahlt. Es geht nichts verloren. Wäre dies nicht so, würde sich die Differenz aufaddieren und entweder zum Verglühen der Erde oder zu einem Gesteinsbrocken auf nahezu Nulltemperatur führen. Die genannte Zeitverschiebung bewirkt übrigens, dass die Erde sich immer kurzfristig im Energie-Ungleichgewicht befindet, auf Dauer bzw. im Mittel aber nicht.
2) Treibhausgase verhindern teilweise die direkte Abgabe der vom Erdboden bzw. den Meeren emittierten Infrarot-Strahlung in das Weltall. Diese verhindernde Eigenschaft von Treibhausgasen ist durch spektroskopische Labormessungen, Satellitenmessungen und Messungen der Gegenstrahlung bestens belegt. Durch diese teilweise – selektive Absorption diskreter Linien – Zurückhaltung der Infrarot-Strahlung ist das „Nullsummenspiel“ gestört, es fehlt jetzt ein Anteil der ohne die Treibhausgase sonst direkt in das Weltall abgestrahlten Energie (etwa 50% der von den THG absorbierten Energie gelangt als Re-Emissions-Strahlung wieder zurück zum Erdboden)!
3) Die Natur (Physik) antwortet auf die unausgeglichene Bilanz mit Temperaturerhöhung des Erdbodens (der wiederum einen erheblichen Teil dieser aufgenommenen Energie als „fühlbare Wärme“ an die untere Luftschicht abgibt. Konvektion transportiert dann Wärme in höhere Luftschichten, die Troposphäre erwärmt sich). Diese Temperaturerhöhung am Erdboden ist mit verstärkter Infrarotabstrahlung verbunden, und somit gleicht auf diese Weise die Natur in penibler Beachtung des „Energieerhaltungssatzes“ den fehlenden Abstrahlungsanteil wieder aus. Die Nullsumme ist wieder herstellt. Das ist der Treibhauseffekt.
Jedem von uns ist der Treibhauseffekt an anderer Stelle als „Wärmestau“ bekannt. Wir ziehen Kleidung an, um nicht auszukühlen. Allerdings ist es im „Wärmestau“ bei Kleidung und Technik die Verhinderung von Konvektion (die erwärmte Luft kann nicht entweichen), die den Energieausgleich bewirkt, nicht die Infrarot-Strahlung. Bei der Kleidung geht es zudem vorwiegend nicht um eingestrahlte Energie, sondern um Energie, die durch Nahrungsverbrennung entsteht. Das Prinzip aber, Temperaturerhöhung unter einem abschirmenden Mantel von Erdatmosphäre mit Treibhausgasen oder von Kleidungshüllen ist das gleiche, weil anders als mit Erwärmung unter dieser schützenden Hülle die notwendige Energiebilanz nicht einzuhalten ist.
Das Wort "Treibhaus-Effekt" für die Atmosphäre ist im Übrigen recht unglücklich gewählt. Der physikalische Erwärmungs-Effekt des Gärtner-Glashauses ist weit überwiegend die "Luft-Falle", nicht die "Strahlen-Falle". Die am Gewächshaus-Boden erwärmte Luft steigt auf (Thermik), bleibt aber im geschlossenen System unter dem Glasdach gefangen. Ein solches Glasdach gibt es aber in der Atmosphäre nicht; weder aus Glas, noch aus CO2 noch sonst wie. Selbst Wolken verhindern die Luft-Konvektion nach oben hin nicht!
Prof. Horst-Joachim Lüdecke (EIKE-Pressesprecher)
Klaus-Eckart Puls (stellvertr. EIKE-Pressesprecher)
Prof. Horst Malberg (EIKE-Fachbeirat)
Prof. Gerhard Hosemann (EIKE-Fachbeirat)
Prof. Carl Weiss (EIKE-Fachbereit)
Dr. Siegfried Dittrich (EIKE)
Dr. Rainer Link

Anmerkung der Redaktion: EIKE steht für Freiheit der Wissenschaft. Sachliche Kommentare sind willkommen.