Über die Gefahren der Modellierung globaler Erwärmung

Vielleicht werde ich jetzt von Kollegen angegriffen, aber als Programmierer (und Physiker und Umweltschützer) möchte ich meine Zweifel öffentlich machen.
Den ersten Hinweis, was gemeint ist, bietet die Erklärung in „Wikipedia“ zum Stichwort Programmierer. Dort heißt es:

Im Unterschied zu fast allen anderen technischen Berufen braucht ein Programmierer weder eine Lizenz, noch muss er sich irgendwelchen Prüfungen unterwerfen, um sich als „Programmierer“ oder gar „Softwareingenieur“ bezeichnen zu dürfen.

Hmmm…
Vereinfacht gesagt, ist aus meiner Sicht das Programmieren nichts weiter, als ein Bündel von Annahmen in mathematische Gleichungen zu pressen.
Aber ist es wirklich möglich, hoch komplexe reale Zusammenhänge exakt in Nullen und Einsen zu übertragen? HAL [der Computer in „Odyssee 2001“, A. d. Übers.] mag das glauben, aber der gesunde Menschenverstand sagt nein. Dennoch versucht man es natürlich immer wieder, jedoch mit sehr begrenzten Erfolgen. Schauen wir uns das mal näher an!
Fangen wir mal mit den Annahmen an, die ein solches Modell macht.
Ich habe einmal ein Programm für das Begleichen von Rechnungen geschrieben. Typischerweise teilt man dem Schuldner mit, bis wann er zu zahlen hat. Die rechnungsstellende Firma hat die Zahlung nicht rechtzeitig verbucht. Welche Antwort ist jetzt angebracht? (Kursiv im Original).
Üblicherweise nimmt in solchen Fällen ein Computer Kontakt mit dem Schuldner auf. (Bei hunderten solcher Schuldner jeden Einzelfall von Hand zu prüfen, ist zeitlich völlig illusorisch!)
Also, was sagt man in diesem Falle dem Schuldner? Schon hier muss ein Programmierer bereits erste Annahmen machen.
Der Programmierer versucht, diese oder ähnliche Situationen in einem möglichst einfachen Modell zu erfassen. Entscheidend könnte zum Beispiel die Frage sein, ob der Schuldner überhaupt das Geld hat, die Rechnung zu begleichen, ja oder nein? (Kursiv im Original). Diese grundsätzliche Frage wird dann einer Boole’schen Regression unterzogen.
Welche Entscheidungshilfen hat der Programmierer für ja oder nein? Nun, zum Beispiel könnte er schauen, ob frühere Zahlungen pünktlich geleistet wurden, um eine statistische Wahrscheinlichkeit zu berechnen.
Natürlich besteht kein Computerprogramm lediglich aus einem einzigen möglichen Szenario, sondern einer ganzen Serie solcher Möglichkeiten, alle zu bearbeiten mit einer ja/nein – Entscheidung, die alle zusammen zu einer generellen Schlussfolgerung führen. In einer sehr komplexen Situation (z. B. Schulden eintreiben, Klimaänderungen oder finanzielle Transaktionen) kann man sehr leicht hunderte solcher Annahmen konstruieren.
Um zu verstehen, was das bedeutet, wollen wir einmal einen Fall betrachten, in dem es zehn solcher Entscheidungen zu treffen gilt – jede einzelne mit der Antwort „ja“ oder „nein“. Am Ende eines solchen Prozesses gibt es 2 hoch 10, also 1024 verschiedene Möglichkeiten. M. a. W., es gibt eine ganze Menge völlig verschiedener Schlussfolgerungen.
Unglücklicherweise gibt es in der Realität noch viel mehr Möglichkeiten. Die Annahme, dass die Situation unseres Schuldners in diesem Fall auf eine einfache ja/nein – Antwort reduziert werden kann, ist sehr ungenau. Es gibt viele andere reale Möglichkeiten, die sich häufig eben nicht mit ja oder nein beantworten lassen!
Beispiele: Es könnte sein, dass der Schuldner gar keine Rechnung bekommen hat, warum auch immer. Oder er hat korrekt gezahlt, aber die Überweisung ist irgendwie verloren gegangen. Oder er hat die Rechnung versehentlich an eine falsche Adresse gezahlt. Oder er hat es korrekt und pünktlich überwiesen, aber die Firma hat es falsch verbucht. Und so weiter, und so fort.
Soll ein Computerprogramm (oder –modell) genau sein, müssen alle diese Möglichkeiten in Betracht gezogen werden. Sieht man hier schon, wie kompliziert das Ganze schon in diesem einfachen Beispiel einer nicht eingegangenen Zahlung wird?
Es gibt noch einen anderen Faktor, der bisher nicht erwähnt wurde. Vielleicht kann ja der Schuldner gar nicht zahlen, weil sein Kind MS hat und er nicht krankenversichert ist? Wie kann ein Programmierer so etwas wie „fairness“ in seinem Programm berücksichtigen? Anders ausgedrückt: Können Nullen und Einser wirklich alle Möglichkeiten erfassen? Ich denke nein.
Also lautet die grundsätzliche Frage: Gibt es eine Möglichkeit, dass ein Computerprogramm alle Möglichkeiten der Realität korrekt abbilden kann, und sei es nur in diesem einfachen Beispiel? Die Antwort lautet nein!
Ein anderes scheinbar ganz einfaches Beispiel ist die simple Übersetzung hebräischer Bibeltexte in die englische Sprache. Wie viele Versionen der Bibel gibt es? Warum gibt es nicht nur eine einzige?
Kann man wirklich einen Prozess, der viel komplizierter ist, korrekt in ein Programm pressen? Man kann es natürlich versuchen, aber natürlich wird bei dieser Übertragung eine Menge (Kursiv im Original) verloren gehen.
Viele Menschen glauben, die volle Kontrolle über alle Variablen zu haben, und dass sie Szenarien von Hand verändern können. Das stimmt aber nicht, denn die vom User kontrollierten Elemente repräsentieren immer nur einen kleinen Teil aller Faktoren, die in einem Computermodell eine Rolle spielen.
Ganz ähnlich ist der Trugschluss, dass „wir alle Annahmen des Programmierers kennen, und dass wir diese Annahmen beeinflussen können“. Das ist falsch.
Beim Schreiben eines Computerprogramms werden jedes Mal Hunderte von Annahmen gemacht. Der Programmierer teilt dem User natürlich längst nicht (kursiv im Original) alle diese Annahmen mit; ähnlich wie ein Buchhalter, der einem Klienten, für den er eine Steuererklärung vorbereitet, auch nicht alle Annahmen mitteilen wird. Er präsentiert lediglich einige wichtige und sagt dann nur noch: „Bitte hier unterschreiben!“
Und noch eine andere grundlegende Variable ist zu beachten: Welche Datenbasis benutzt der Computer überhaupt für seine Annahmen?
Das Erstellen einer Steuererklärung ist abhängig von der Zusammenarbeit zweier Parteien. Beim Schreiben eines Computerprogramms bestehen diese zwei Parteien aus dem Programmierer und dem Wissenschaftler. Wenn der Steuerzahler seinem Buchhalter falsche oder nicht korrekte Zahlen übermittelt, wird das Ergebnis falsch sein. Viel schlimmer ist, dass keine der beiden Parteien dies bemerken dürfte.
Falls ein Wissenschaftler (irrtümlich) dem Programmierer unvollständige oder nicht korrekte Daten für sein Programm zur Verfügung stellt, dürfte das Ergebnis ebenfalls falsch sein. Und keiner der beiden wird das bemerken oder wissen! (Kursiv im Original).
Dann gibt es noch eine grundlegende Variable! Nachdem der Computer sein Modell berechnet hat, muss es jemanden geben, der dieses Ergebnis für Politiker und Öffentlichkeit (meist in Gestalt der Medien) interpretiert.
Und da gibt es eine Überraschung: Diese öffentliche Interpretation wird beeinflusst durch politische, religiöse, umwelttechnische, finanzielle und wissenschaftliche Meinungen! (Kursiv im Original). Berücksichtigen die Interpretierenden all diese unterschwelligen Verschiebungen? Die Antwort dürfte inzwischen klar sein: Absolut nicht!
Sollten alle diese Meinungen auch noch in die Gleichungen eingefügt werden, entfernt man sich so weit von den wissenschaftlichen Fakten, dass diese gar nicht mehr zu sehen sind.
Also sollte man sehr sorgfältig nachdenken, bevor man massive Aktionen durchführt, die nur auf solchen Modellergebnissen beruhen (als da wären: Ausgabe von Milliarden Dollar für Klimaschutz,; Bewertung der Rentabilität von Windparks, usw.)
Was also kann man tun? Soll man nun alle Computermodelle einstampfen?
Nein, das wäre das andere Extrem. Modelle haben ihre Berechtigung – sollten aber nicht der Schwanz sein, der mit dem Hund wedelt!
Man sollte Computermodelle realistischerweise als das sehen, was sie sind – Hilfsmittel, Denkanstöße und Hinweise, die als Ausgangspunkt für echte wissenschaftliche Forschungen dienen können.
Wegen ihrer naturgemäßen Grenzen (die ich hier nur gestreift habe), sollten alle (Kursiv im Original) diese Modelle mit einer gehörigen Portion Skeptizismus betrachtet werden. Außerdem sollten sie, um ihre Berechtigung unter Beweis zu stellen, den Forderungen wissenschaftlicher Methoden unterworfen werden.
Unglücklicherweise passier genau das nicht!
Wir sind der Illusion, dass diese Modellrechnungen korrekt sind, so hörig, dass wir jetzt sogar umgekehrt diese echten Fakten den Modellen anpassen oder sie anstelle der Modelle verwerfen, wenn sie nicht zu den Modellrechnungen passen (beide Hervorhebungen vom Übers.)! Das ist krankhaft!
Wenn eine Modellrechnung die Realität nicht vollständig spiegeln kann, hat sie nur sehr begrenzten Nutzen und sollte genauso behandelt werden wie die Vorhersagen eines Horoskops!
John Droz jr. ist Physiker und Anwalt für Umweltschutz
frei übersetzt von Chris Frey EIKE. Der Originalartikel erschien im Dezember 2009 bei Pajamas Media hier




Ein typischer Fall von Temperatur Daten-Manipulation?

Die erste Abbildung zeigt das Diagramm von GISS. Warum dort die Werte vor 1978 weggelassen werden ist nicht ersichtlich, vielleicht um so einen "dramatischen" Temperatur-Anstieg im Polargebiet zu zeigen, die sogenannte "polare Amplifikation".

Abbildung 1 GISS: Temperaturverlauf der Svalbard Inseln von 1978 bis 2008
Die zweite Abbildung zeigt das Temperatur-Diagramm von "Nordklim", dem Daten-Zentrum von Skandinavien:  Es zeigt ziemlich genau das Gegenteil:

Abbildung 2 Nordklim-Datenbank: Temperaturverlauf der Svalbard Inseln von 1913 bis 2006
Es gibt keinen "einmaligen Anstieg", sondern das Temperaturniveau ist in den letzten 90 Jahren praktisch konstant geblieben – mit ganz natürlichen Schwankungen um plus/minus 3°C.
Hinzu kommt die Tatsache, dass sich die Messstation am Flughafen bei Longyearbyen befindet und zwar direkt neben der asphaltierten Vorfeldfläche. Das bedeutet, dass mit dem Wachstum des Ortes und des Flugverkehrs in den letzten 20 Jahren neben dem Albedo-Effekt auch ein UHI-Effekt aufgetreten sein dürfte.
Die Daten von Svalbard werden auch für grosse Polarregionen verwendet , weil es im Bereich nördlich davon nur noch zwei Stationen auf 82° gibt.
D.E.Koelle EIKE
Redaktionelle Ergänzung:
Wie Leser Kowatsch herausfand nimmt die Sorge wegen des Beginns einer neuen Eiszeit zu, ganz anders als es uns Prof. Rahmstorf glauben machen will, dass das chronisch katastropenverkündende IPCC sogar noch untertrieben hätte. 
Als Ergänzung zum Kopfartikel paßt vielleicht auch diese Meldung:

SANKT PETERSBURG, 23. April (RIA Novosti). Nicht eine Erwärmung, sondern eine Abkühlung wird laut dem russischen Forscher Oleg Pokrowski in den nächsten Jahren das Erdklima prägen und die Pläne zur Erschließung der Arktis-Rohstoffe durchkreuzen. Seit etwa 1998 kühle das Klima ab. „Es wird natürlich keine Eiszeit geben, doch die Temperaturen werden auf den Stand des kalten Jahrzehnts von 1950 bis 1960 fallen“, sagte Pokrowski, leitender Mitarbeiter am Staatlichen Geophysikalischen Wojejkow-Observatorium, am Freitag am Rande einer Klima-Forschungskonferenz für Arktis und Antarktis in Sankt Petersburg. Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt. „Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen. Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“ Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.




Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback

Dr. Spencer gilt als einer der führenden Experten bei der Temperaturbestimmung mithilfe von Mikrowellen-Messungen von Satelliten. Er hat viele Jahre als Klimawissenschaftler für die NASA gearbeitet und beschäftigt sich noch heute, als Grundlagenforscher an der University of Alabama, mit dem Programm der NASA zur satellitengestützten Temperaturmessung. Durch seine unbestreitbare Expertise und seine sehr sachliche Art, Zusammenhänge darzustellen, haben seine Ansichten heute sowohl bei AGW-Befürwortern, als auch bei sogenannten Klimaskeptikern, einiges Gewicht. Das Original von Dr. Spencers Artikel finden Sie auf seiner Homepage. Lesen Sie im Folgenden die deutsche Übersetzung.

Die aktuellen CERES-Messungen zur Strahlungsbilanz über den globalen Ozeanen zeigen ein starkes negatives Feedback

Die zurzeit wohl wichtigste wissenschaftliche Einzelfrage in der Debatte um die globale Erwärmung, welche noch immer ungelöst ist, stellt die Klimasensitivität dar. Führt der Anstieg des CO2 Gehaltes in der Atmosphäre zu einer zusätzlichen Erwärmung, die so gering ist, dass man sie getrost ignorieren kann (geringe Klimasensitivität), oder verursacht dieser ein globales Wärme-Armageddon (hohe Klimasensitivität)?

Die Antwort auf diese Frage hängt stark von der Netto-Strahlungs-Rückkopplung ab, also der Rate mit der die Erde zusätzliche Strahlungsenergie bei einer Erwärmung abgibt. Die Klimasensitivität wird hauptsächlich von Änderungen in der Wolkenbedeckung und dem Wasserdampfgehalt der Atmosphäre bestimmt, welche als Reaktion auf relativ kleine direkte Erwärmungseinflüsse durch (zum Beispiel) erhöhte Kohlendioxid-Konzentrationen folgen.

Die Netto-Strahlungs-Rückkopplung kann mithilfe von globalen satellitengestützten Messungen der natürlichen Klimaveränderungen in (1) der Strahlungsbilanz der Erde und (2) den Temperaturen der Troposphäre abgeschätzt werden.

Diese Abschätzungen von Rückkopplungen sind abhängig von der Verfügbarkeit brauchbarer Messungen. Die besten zurzeit verfügbaren Daten zum Strahlungshaushalt der Atmosphäre stammen von den NASA CERES Instrumenten, welche Daten der letzten 9,5 Jahre (Terra-Satellit) bzw. der letzten 7 Jahre (Aqua-Satellit) liefern. Beide Datensätze sind jetzt bis September 2009 verfügbar.

Ich habe diese Daten auf verschiedenste Weise untersucht und möchte hier die Ergebnisse von 7 Jahren Messungen der globalen Ozeane (60°N bis 60°S) des NASA Aqua-Satelliten vorstellen. Das folgende Diagramm zeigt die Daten der monatlichen Veränderung der Netto-Abstrahlung der Erde (reflektierte kurzwellige Strahlung plus der emittierten langwelligen Infrarotstrahlung) in Abhängigkeit zur gemittelten Troposphärentemperatur, die ebenfalls mit Satelliten ermittelt wurde (AMSU Channel 5).

Eine einfache Lineare Anpassung der Daten ergibt einen Netto-Rückkopplungsfaktor von 5,8 Watt Abstrahlung pro m² pro Grad Celsius. Wenn man diesen Rückkopplungsfaktor in globale Erwärmung umrechnet, ergibt sich eine menschengemachte globale Erwärmung von 0,6 °C bis zum Ende dieses Jahrhunderts im Vergleich zur vorindustriellen Temperatur. (Wenn man die Temperatur der Meeresoberfläche anstelle der Troposphärentemperatur verwendet, kommt man auf einen Faktor von 11 W/m²K, also eine noch geringere Klimasensitivität).

Vor dem Hintergrund, dass wir in den letzten 100 Jahren bereits 0,6 °C Erwärmung erlebt haben lässt sich also folgern, dass der größte Teil dieser Erwärmung natürlich ist, und keine anthropogenen Ursachen haben muss.

Wie wir allerdings in einer aktuellen Arbeit (im Druck) im Journal of Geophysical Research zeigen, können solche Rückkopplungen nicht allein mit einer einfachen linearen Regression der Satellitendaten ermittelt werden, weil diese so gut wie immer ein Unterschätzen der Netto-Rückkopplung, und damit ein Überschätzten der Klimasensitivität, zur Folge haben.

Ohne hier zu stark ins Detail gehen zu wollen, haben wir gefunden, dass die am meisten robuste Methode zur Abschätzung der Rückkopplung eine andere ist. Hierfür haben wir die Größe der Veränderung der Strahlungsbilanz von Monat zu Monat (im obigen Diagramm dargestellt als die Steigungen der blauen Linien) in ein Diagramm aufgetragen und nach der Größe der Temperaturveränderung für den jeweiligen Monat sortiert. Hierbei wurden die stärksten monatlichen Temperaturschwankungen links und die kleinsten rechts aufgetragen, unabhängig, ob es sich dabei um eine Erwärmung oder Abkühlung gehandelt hat.

Das folgende Diagramm zeigt, von links nach rechts, die kumulierten durchschnittlichen Veränderungen der Strahlungsbilanz von den größten Temperaturveränderungen hin zu den kleinsten. Diese Werte reichen von ungefähr 10 W/m²K für die größten monatlichen Temperaturveränderungen und pendeln sich bei einem Wert von ungefähr 6 W/m²K bei der Mittelung der Daten vieler Monate ein. (Hierbei ist zu beachten, dass nicht der gesamte Datensatz benutzt wurde, sondern nur solche Daten mit monatlichen Temperaturänderungen größer als 0,03 °C. Es ist übrigens größtenteils Zufall, dass beide hier vorgestellten Methoden in etwa den gleichen Wert ergeben.)

 

Eine Netto-Rückkopplung von 6 W/m²K ergibt eine Klimasensitivität (also Erwärmung bei CO2-Verdopplung) von nur 0,5 °C. Dieser Wert ist um einiges niedriger, als die 3 °C, welche das IPCC als beste Schätzung angibt, und auch deutlich unterhalb des Wertes von 1,5 °C, von welchem das IPCC nach eigener Aussage zu mehr als 90% überzeugt ist.

Wie vertragen sich dies Ergebnisse mit den IPCC Klimamodellen?

Wenn wir vergleichen stellen wir fest, dass kein einziges der 17 IPCC Modelle (solche, die genügend Daten für eine Vergleichsrechnung liefern) einen so großen Wert für die negative Rückkopplung liefert, wenn man diese analog berechnet. Das gilt sowohl für die Simulationen für das 20. Jahrhundert, als auch für die Simulationen für weiter ansteigende CO2-Werte. Die Model-basierten Werte bewegen sich alle in der Größenordnung von um 2 bis wenig über 4 W/m²K.

Diese Ergebnisse legen nahe, dass die Sensitivität des realen Klimasystems weit geringer ist, als es in sämtlichen IPCC-Modellen dargestellt wird. Daraus werden sich ernsthafte Probleme für die Vorhersagen der Globalen Erwärmung ergeben. Wie man sieht, obwohl die Modellierer für sich in Anspruch nehmen, dass die Klimamodelle recht gut in der Lage sind, das durchschnittliche Verhalten des Klimas widerzugeben, ist es nicht das durchschnittliche Verhalten, dass von Interesse ist, sondern inwieweit sich dieses durchschnittliche Verhalten verändert.

Und die oben dargestellten Ergebnisse zeigen ganz deutlich, dass nicht ein einziges der IPCC Klimamodelle sich so verhält, wie das reale Klima, wenn man die Rückkopplungen bei mehrjährigen Klimaschwankungen betrachtet. Und diese Rückkopplungen sind es, die bestimmen, eine wie ernsthafte (oder vernachlässigbare) Gefahr die menschengemachte globale Erwärmung sein wird.

 Rudolf Kipp, EIKE (Science Skeptical Blog)




Kehraus der Klimapolitik: Das Hartwell-Papier

Auf die Frage, ob unser Wissen genügt, um Risiken vorhersehen und rechtzeitig die richtigen Maßnahmen zu ihrer Minimierung ergreifen zu können, gibt es je nach Problemstellung unterschiedliche Antworten. Die Kollision eines Fahrzeuges mit einem Hindernis gleich welcher Natur ist (abhängig von seiner Masse und seiner Geschwindigkeit) ab einer bestimmten Annäherung tatsächlich unvermeidbar. Auf dieser Basis können Automaten entscheiden, eine Vollbremsung einleiten (um die Aufprallenergie zu vermindern) und tatsächlich in Zukunft einen Notruf bereits kurz vor dem Unfall absetzen. Ob aber ein bestimmter Fluß zu einem bestimmten Zeitpunkt über seine Ufer tritt und Menschen und Sachwerte gefährdet, ist letztendlich auch durch noch so viel klimawissenschaftliche Erkenntnisse niemals beantwortbar. Und selbst wenn man das im Rahmen der Hypothese von der menschgemachten Erwärmung steigende Risiko einer Überschwemmung durch Gegenmaßnahmen wie Emissionsvermeidung verringert, es wird immer größer als Null sein. Denn der Fluß kann aus einer Vielzahl von Gründen sein Bett verlassen, von denen kaum alle jemals menschlicher Kontrolle unterliegen werden.
Das Hartwell-Papier hat hier seine stärksten Momente. Probleme vom Typ des kollidierenden Autos nennt es „zahm“ („tame“). Solche Herausforderungen können durch den Ansatz der Risikovermeidung gebändigt werden. Fragestellungen vom Typ Klimawandel aber sind „boshaft“ („wicked“), denn was man auch unternimmt, sie erstehen auf tückische Weise immer wieder neu und sind nie endgültig zu beantworten. Das Papier nennt neben der Klimafrage Themen wie Armut, Krebs, Drogen und Terrorismus als typische Beispiele für die Boshaftigkeiten, denen man sich  ohne Hoffnung auf Lösung stellen muß.
Da haben sich also 14 Wissenschaftler aus unterschiedlichen Disziplinen, die in unterschiedlichen Zusammenhängen tätig sind, an drei Tagen im Februar im Hartwell House in Buckinghamshire getroffen, um sich über eine Neuausrichtung der Klimapolitik Gedanken zu machen.
Ihre Argumentation beginnt mit einer klaren Beschreibung der realen Situation. Das Scheitern des Kopenhagen-Gipfels hat jegliche Anstrengungen, ein globales Regime zur Emissionsminderung aufzubauen, für die kommenden Jahre (wenn nicht Jahrzehnte) sinnlos werden lassen. Das „zwei Grad Ziel“ ist endgültig obsolet. Climategate und verknüpfte Enthüllungen haben einen großen Vertrauensschwund in Politik, Medien und allgemeiner Öffentlichkeit in die Klimawissenschaft zur Folge. Ein Vertrauensschwund, der zu Recht besteht und ebenfalls auf Jahre hinaus irreparabel sein wird.
Davon ausgehend ruft das Hartwell-Papier einige grundlegende Wahrheiten in Erinnerung, die von der Debatte oft überdeckt wurden und damit aus dem Bewußtsein der Menschen verschwunden zu sein schienen:

  • Jegliche Technologie, und insbesondere die zu Bereitstellung von Energie bzw. Elektrizität, hat aus Nutzersicht robust (verfügbar und verläßlich), sicher und wirtschaftlich zu sein. Nur solche Technologien setzen sich im Marktgeschehen durch, die diese Ansprüche besser erfüllen, als ihre Vorgänger.
  • Technologien robust, verfügbar und verläßlich zu gestalten, bzw. Rahmenbedingungen zu schaffen, in denen dies geschehen kann, ist eine Frage der Menschenwürde. Denn ein würdiges Leben aus heutiger Sicht ist ein solches, in dem die Versorgung mit Nahrung, Gesundheit, Mobilität und Kommunikation, also letztlich mit Energie, gesichert ist.
  • Wenn also mehr als 1 Milliarde Menschen auf diesem Planeten hungern, wenn mehr als 1,3 Milliarden Menschen keinen Zugang zu Elektrizität haben, wenn Menschen in unterentwickelten Regionen nach wie vor an eigentlich leicht zu behandelnden Krankheiten sterben, dann ist dies das Problem, dem sich die Politik auf globaler Ebene mit höchster Intensität widmen muß. Es kann keine andere Priorität geben. Alles, was man auf globaler Ebene vereinbart, hat sich dieser Fragestellung unterzuordnen.

Als Astronom kennt man die Technik des indirekten Sehens. Man schielt an einem kontrastarmen Objekt im Zentrum des Bildfeldes vorbei, um es letztendlich besser erkennen zu können. Das Hartwell-Papier verwendet ein ähnliches Beispiel aus der Arbeit eines berühmten englischen Landschaftsgärtners, wo Menschen auf indirekten Wegen zu ihrem Ziel geführt werden. Wege, die letztendlich aber effektvoll Freude und Entspannung bereiten.
Es ist diese Form der Strategie, die auch für die Neuausrichtung der Klimapolitik vorgeschlagen wird. Ein eher zahmes Problem, also die Versorgung der Menschen mit Strom, in den Mittelpunkt zu rücken, und auf dem Weg zu dessen Lösung indirekt auch eine Antwort auf die boshafte Klimafrage zu geben.
Es ist ja völlig richtig, den wachsenden Energiehunger der Welt kann man durch fossile Energieträger nicht stillen. Sie werden ausreichen, um den Bedarf der Industrieländer für viele Jahrzehnte zu sichern, aber sie sind unmöglich dazu in der Lage, eine Verdoppelung oder Verdreifachung des Energieumsatzes weltweit bis 2050 darzustellen. Um die Welt mit Energie zu versorgen, sprich die Menschen überall mit Strom und Treibstoffen, sind zwingend neue Technologien, alternative Energielieferanten zu entwickeln. Und die, die man sich vorstellen kann, sind oft frei von Kohlendioxid-Emissionen. Wind- und Sonnenenergie werden im Hartwell-Papier genannt, aber auch Kernenergie und die Nutzung von Pflanzenabfällen (Biomasse der zweiten bzw. dritten Generation). Und es ist auch möglich, durch den technischen Fortschritt Strom aus diesen Energieträgern irgendwann einmal preiswerter darzustellen, als solchen aus Kohle. Und dann haben alternative Quellen nicht nur das Potential, fossile Energieträger zu ergänzen, sondern auch, sie zu substituieren, zu ersetzen.
Auf diese Weise, so das Hartwell-Papier, schlägt man zwei Fliegen mit einer Klappe. Man löst die Energiefrage und vermindert dabei, als indirekten Nebeneffekt, langfristig die Kohlendioxid-Emissionen. Daß dieser Weg nur als Marktlösung, nur durch den Verzicht auf verzerrende Subventionen, beschritten werden kann, wird im Papier ebenfalls klar benannt.
Nur: Ist das nicht der Weg, den die Welt schon immer genommen hat? Es ist der Weg des technischen Fortschrittes, wie er sich natürlicherweise ergibt. Dieser Weg hat nicht nur dazu geführt, daß man nach Holz und Torf auf Kohle und Erdgas, nach Walöl auf Erdöl und schließlich auf Kernenergie gesetzt hat. In freien Märkten ist immer schon das Gute durch das Bessere ersetzt worden, religiös getriebener Umweltaktivismus ist da eher hinderlich. Der stetige Gang des technischen Fortschrittes hat auch in den entwickelten Industrieländern zur Entkopplung von Energieumsatz und Wertschöpfung geführt. Effizienzsteigerungen unter dem Aspekt der Wirtschaftlichkeit sind eine Grundbedingung freier Märkte, um Anbietern von Produkten aller Art das Überleben zu gewährleisten. In der westlichen Welt sind die Steigerung der Wirtschaftsleistung und der Energieumsatz seit mehr als 20 Jahren bereits entkoppelt.
Es bedarf keiner formulierten Klimapolitik, um diese Entwicklung überall auf der Welt weiter zu fördern. Es bedarf einzig einer klugen, auf Liberalisierung und dem freien Spiel der Kräfte beruhenden Wirtschaftspolitik.
Auch der zweite wesentliche Aspekt der neuen Klimapolitik im Sinne der Hartwell-Gruppe, die Anpassung an Veränderungen unserer natürlichen Umwelt, ist ein stetiges Element in der Entwicklung der menschlichen Zivilisation. Denn deren Fortschreiten kann auch unter dem Blickwinkel einer immer größeren Unabhängigkeit von destruktiven natürlichen Einflüssen und einer immer größeren Nutzung der Möglichkeiten, die die Natur uns bietet, verstanden werden.
Das Hartwell-Papier fordert als dritte Säule, die Kohlendioxid-Emissionen dann doch nicht so ganz außer Acht zu lassen. Die Wirkungslosigkeit des Kyoto-Protokolls und der etablierten oder geplanten Emissionshandelssysteme wird klar und eindeutig beschrieben. Eine geringe Karbonsteuer, gering genug, um das Wirtschaftswachstum nicht zu bremsen, wird als Ersatz empfohlen.
Vergessen aber haben die 14 Wissenschaftler an dieser Stelle, daß die Karbonsteuer im Prinzip bereits existiert. In Deutschland beispielsweise werden Energieträger aller Art auf unterschiedliche Weise besteuert, neben der Mehrwertsteuer kann man Mineralöl- und Ökosteuern anführen aber auch die Zwangsabgaben zur Subventionierung von Alternativen wie Wind oder Sonne.
Letztendlich ist die neue Klimapolitik, die das Hartwell-Papier formuliert, schlicht und einfach keine Klimapolitik. Und das ist erstens intellektuell brillant begründet und zweitens auch folgerichtig.
Denn der Sündenfall der Klimaforschung war und ist es, die Herausforderungen mutmaßlich anthropogener Klimaveränderungen als zahmes Problem darzustellen, dem man durch eine einfache, direkte und simple Maßnahme wie der Vermeidung von Kohlendioxid-Emissionen begegnen könne. Im Angesicht der wissenschaftlichen Unwägbarkeiten bezüglich aller anderen Klimatreiber, seien sie anthropogen oder natürlich, konnte dies nur geschehen, weil wertegetriebene mit rationalen Argumenten unzulässig verknüpft wurden. Die Klimafrage war und ist nur für eine bestimmte Klientel die Mutter aller Fragen. Für die Ökologisten, die damit eine Veränderung des Menschen an sich durchsetzen wollten. Zugunsten quasi-theologischer Vorstellungen von einer Mutter Natur, der unabhängige, eigene Rechte zugewiesen wurden. Und wenn es auch nur das Recht auf konstante Temperaturen unabhängig von menschlichen Einflüssen ist. Der Absolutheitsanspruch, jegliche andere Fragestellung allein als Unteraspekt der Klimaproblematik behandeln zu dürfen, sei sie zahm oder boshaft, sei sie hinsichtlich Energie, Mobilität oder gar Fortpflanzung, liegt im Wesen solcher Vermischungen von Wertvorstellungen und Rationalität.
Es gilt aus Sicht der Klimaskeptiker nicht, den Versuch zu unternehmen, das Nichteintreten der Klimakatastrophe zu beweisen. Es gilt, diese Verknüpfung zwischen einer Wertvorstellung und einer rationalen Problembeschreibung zu zerbrechen. Denn eine Politik, die auf  dieser Basis Maßnahmen ergreift, wird erstens scheitern und zweitens bis zu diesem Zeitpunkt erheblichen Schaden anrichten. Beides ist bereits geschehen. Nun sind die Scherben aufzuwischen. Das Hartwell-Papier liefert den Besen dazu.
Links:

Peter Heller, Science Skeptical Blog




Spanische Solarenergieblase geplatzt!

Selbstverständlich kann jede Industrie „steil wachsen“, falls die Regierung genug Steuerzahler-Dollars einwirft. Jetzt, da Spanien in ein schwarzes Haushaltsloch rutscht, kommt heraus, dass die Sonnenenergieförderung nicht mehr aufrechterhalten werden kann. In diesem Frühjahr haben wir gesehen, wie die spanische Sonnenergieblase platzte. Climatewire [Artikel steht nicht frei zur Verfügung] berichtete: 
Vor zwei Jahren erst schwelgten die spanischen Sonnenenergiefirmen in großzügiger Regierungsförderung und wuchsen in fiebrigem Tempo, 18 Milliarden € (damals etwa $28 Mrd.) wurden für Fotovoltaik auf Dächern und Feldern ausgegeben. In Kürze wurde das Land zum Spitzenreiter aller Solarmärkte der Welt.
Spaniens Solarenergieförderung war vier bis sechs Mal höher als für die Windenergie. Die Preise für die Einspeisung von Sonnenenergie waren 12 Mal höher als für Elektrizität aus fossiler Energieerzeugung. Deutschland und Spanien installierten vor zwei Jahren rund 75 Prozent aller Solaranlagen weltweit.
Plötzlich, angesichts einer bevorstehenden tiefen Rezession, einer einbrechenden Baukonjunktur und einem in die Höhe schießenden Haushaltsdefizit, hat die spanische Regierung im vergangenen Jahr den Einkaufspreis für Solarenergie um 29 Prozent gekürzt, und die Obergrenze für neue Solarenergieanlagen auf 500 Megawatt pro Jahr gesetzt. Derzeit werden weitere Kürzungen erwogen, die bis zu 40 Prozent betragen und sogar rückwirkend gelten könnten, wie lokale Zeitungen berichteten.
Deutschland und Frankreich haben ebenfalls ihre lachhaft teuren Sonnenenergieförderungen zurückgefahren. Freilich sind nun einige U.S.–Bundesstaaten und Städte dabei, Gesetze für die gleiche fehlgehende Förderung zu machen, die in Europa derzeit rasch über Bord geworfen wird. 
Wenn aber die Förderung stirbt, sterben damit auch die davon abhängigen viel gepriesenen „grünen Arbeitsplätze“. Laut Climatewire haben sich in Spanien etwa 30.000 grüne Jobs in Luft aufgelöst. Frühere Studien haben herausgefunden, dass jeder neue grüne Arbeitsplatz in Spaniens Erneuerbarem Energiesektor beinahe $750.000 gekostet hat.
Ja, Herr Präsident, bedenken Sie bitte, was in Ländern wie Spanien passiert.
von Dr. Benny Peiser, 07.05.2010auf ACHGUT Spanische Sonnenergieblase geplatzt
Sehen Sie hierzu auch die interessanten Bemerkungen von Chris Horner in Pajamas Media
 Die Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE.