Der Wärmeinseleffekt als maßgeblicher Treiber der gemessenen Temperaturen

Bezugnehmend auf unseren Artikel, sah sich der DWD gezwungen, EIKE eine Gegendarstellung zukommen zu lassen, die wir beantworteten und darin belegen konnten, dass unsere Artikel nichts an Richtigkeit und damit Brisanz verloren hatten. Einer wissenschaftlichen Diskussion stellte sich der DWD indes nicht. In der jüngst erschienenen Arbeiten von Anthony Watts über die Wirkung dieses Effektes in der er  belegen konnte, dass auch in den USA die ausgewiesene Erwärmung doppelt so hoch angegeben wird, als wie in der Realität gemessen und damit nicht nur – wie wir damals zeigten- in Deutschland. Dieser Beitrag wird nun zeigen, dass der der Studie von Watts et al vorschnell entgegen gehaltene Argument, sie hätte den sog. TOBs (Time of Observation Errors) nicht berücksichtig, abwegig ist und am Ergebnis nichts ändern würde, wenn es so wäre.

Trotz der immer bescheideneren Sommer, der immer kälteren Winter, wird uns von Seiten diverser Institute und meteorologischer Behörden erzählt, die Temperaturen würden immer weiter ansteigen. Wir möchten diesen Behörden nicht vorhalten, sie würden falsche Zahlenwerte verbreiten, aber was werden dort für Temperaturen gemessen, die als Vergleich mit früheren Messwerten herangezogen werden? Sind sie geeignet, um Aussagen über eine vermeintliche Erwärmung und vor allem, deren Höhte, treffen zu können? Einer von uns (Leistenschneider) hat eine eigene Methodik entwickelt, mit der der WI aus einer vorhandenen Messreihe herausgerechnet werden kann. Ähnliche Verfahren werden zwar auch von anderen Autoren benutzt. (A. Watts, Tom Karl (1), Frank Lansner etc.).

Abbildung 1, (Quelle hier ) zeigt einen Querschnitt durch Regionen in den USA, die Lansner untersuchte. Er weist zu Recht darauf hin, das die Stationslage in Bezug auf ihre Umgebung (z.B. Küste, Küstennah; Gebirge, Ebene) einen wesentlichen Einfluss auf die gemessene Temperatur hat. Wobei es nicht ausreicht, wenn nur „UHI-freie“ Stationen mit „UHI Behafteten“ im Umkreis zur Homogenisierung verglichen werden. Dadurch entstehen nur neue Fehler.

Die von uns verwendete Methodik vergleicht dazu jedoch auf eine andere Weise eine Referenzstation mit der zu untersuchenden Messreihe. Die Theorie für diese Methodik basiert auf zwei fundamentalen Gesetzen der Physik:

  • • Dem Strahlungsgesetz nach Planck und dem
  • • Abkühlungsgesetz nach Newton

Das Strahlungsgesetz nach Planck gesagt, dass ein Körper umso mehr Energie pro Zeit abstrahlt, umso wärmer er ist. Das Abkühlungsgesetz nach Newton gibt an, dass eine Masse, umso mehr Energie pro Zeiteinheit verliert (kälter wird), je wärmer er ist. Dies heißt in der Praxis nichts anderes, dass mehr Energie notwendig ist, einen 300 Kelvin warmen Körper um 10 Kelvin zu erhöhen, als einen 250 Kelvin warmen Körper um den gleichen Betrag. In einer Erwärmungsphase muss es also zu einer Angleichung zwischen einer wärmeren und einer kälteren Station kommen. Mit seiner Aussage, dass sich arktische Gebiete schneller erwärmen würden als wärmere, sagt das IPCC im Prinzip nichts anderes, wenn auch die dort genannten Erwärmungswerte von 3 Kelvin und mehr, auf einer falschen Datenlage beruhen, da z.B. das GISS im betroffenen arktischen Gebiet gar keine Messstation hat (WUWT und EIKE berichteten ausführlich darüber).

Für ein Betrachtungsland (z.B.: Deutschland) ist die von der Sonne zur Verfügung gestellte Energie und für die Referenzstation gleich, sowie der CO2-Backgroundlevel (für die Anhänger des AGW). Als Referenzstation, ohne nennenswerten*2) WI, haben die Autoren die meteorologische Station auf dem Hohen Peißenberg (HPB) gewählt, die nach eigenen Angaben des DWD als Referenzstation gilt und von der seit dem Ende des 18. Jahrhunderts verlässliche Temperaturdaten vorliegen (Abbildung 2).

Abbildung 2 * zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Darin spiegelt sich der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, der in 2003, als Europa unter einem Hitzesommer3 litt, sein Maximum hatte. Seitdem fällt die solare Aktivität. Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken) dort die stärkste Periode ergibt. Dr. Axel Mörner2 hat in seiner Arbeit “Keine Gefahr eines globalen Meeresspiegelanstiegs“ transparent gezeigt, wie der Hauptsonnenzyklus die arktische Meereisbedeckung bestimmt (Abbildung 3).

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 3, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Weiter zeigt die NASA, dass die Sonne zum ausgehenden 20. Jahrhundert immer aktiver wurde.

Abbildung 4 links (Quelle: hier ) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (Leistenschneider ging in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ in 08/11 ausführlich darauf ein). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Aufgrund seiner natürlichen Schwingung, die dem Hauptsonnenzyklus entspricht, gehen wir davon aus, dass HPB weitgehend WI-frei* ist und damit grundsätzlich als Referenzstation geeignet ist. Zur Berechnung des WI werden beide Datenreihen (Deutschland und HPB) in Relation zueinander gesetzt.

Abbildung 5 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt, dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen. Drei Bereiche sind erkennbar, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln. Nach Planck und Newton muss die Annäherung beider Stationen in einer Erwärmungsphase gleichmäßig verlaufen. D.h., die gemessenen Streuwerte der Temperatur müssten sich statistisch gleichmäßig um die Ausgleichsgerade verteilen (kleine Abbildung, idealisiert dargestellt). Das tun sie aber nicht, wie der tatsächliche Verlauf zeigt. In drei Bereichen verlaufen sie waagerecht, d.h., zusätzliche Energie ist notwendig, um die Angleichung zu verhindern. Diese kann nur vom WI kommen, da die Sonne für beide gleichermaßen strahlt.

In der Relationskurve (Abbildung 5) ist demnach der WI „verborgen“. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-Deutschland-Daten relativ weniger steigen und in der statistischen Verteilung der Temperaturstreuwerte (farbige Bereiche). Die durch den WI höheren Temperaturen, dämpfen den Erwärmungstrend, bzw. erzwingen eine andere Verteilung. Um den WI in den zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wird folgendermaßen vorgegangen:

  • • Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009). Ergibt 6 Mittelwerte.
  • • Differenzbetrachtung der Mittelwerte von Epoche Xn+1 zu Xn. Getrennt für HPB und D (ergibt 4 Differenzmittelwerte, da Epoche 0 – vor 1881 – nicht bekannt ist, bzw. nicht in die Bewertung einfloss, da diese Werte nach dem DWD, für Deutschland zu ungenau sind).
  • • Betrachtung der jeweiligen Epochendifferenzwerte zueinander, d.h. Wert für D2 (2 steht für Epoche 2) wird mit Wert HPB2 verglichen und die Differenz bestimmt.
  • • Mit dieser Differenz wird der jeweilige WI im 2. und 3. Zeitraum berechnet.
  • • WI im 1. Zeitraum wurde mit 0,2°C konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschafts-veränderung, …
  • • WI HPB von 1881 – 2009 mit 0,2°C anhand der Bebauungsveränderungen abgeschätzt.

Dass auch HPB nicht WI-los sein kann, liegt daran, dass die Messstation bis 1940 im dortigen Kloster untergebracht war und anschließend in die meteorologische Station verlegt wurde. Im Kloster war nur ein Raum, nämlich der Gemeinschaftsraum, beheizt, in der jetzigen Station aber alle Gebäude die zum Komplex gehören. Der damalige Leiter hatte gefordert, in der Übergangszeit Parallelmessungen durchzuführen, was jedoch nicht geschah. Die alte Wetterstation wurde dann den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das seinerseits ständig erweitert und beheizt wurde. Heute stehen dort umfangreiche Gebäudekomplexe. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos.

Daraus folgt zwingend: Bis 1940 hatte der HPB keinen WI. Dann hat er einen geringen, wegen zunehmender Bebauung entwickelt. Wie eingangs geschildert, ist die Station nicht (mehr) vollständig WI-frei, wie sie allgemein in der Literatur und vom DWD dargestellt wird. Für die drei Zeiträume ergibt sich für Deutschland ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = +0,2°C

Zeitraum 2: 1953 – 1982 = +0,3°C

Zeitraum 3: 1983 – 2009 = +0,6°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI-Deutschland über alle drei betrachteten Zeiträume von 1881 – 2009 = +1,1°C.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb). Der Fehlertoleranzbereich trägt folgenden Punkten Rechnung:

Der WI-Wert der 1. Epoche musste abgeschätzt werden, da die davor liegende Vergleichsperiode zur Berechnung nicht zur Verfügung steht. Dabei wurde konservativ vorgegangen und der WI mit +0,2°C nach folgenden Kriterien festgelegt:

  • • Große ländliche Gebiete fielen 1945 im Osten weg.
  • • Die um die Jahrhundertwende beginnende Industriealisierung Deutschlands, die besonders in den 1930-Jahren forciert wurde.
  • • Die Umwandlung großer Naturflächen in Agrargebiete, mit der damit verbundenen Entwässerung der Landschaft – Verdunstungswärme, die kühlend wirkt, entfiel.

Sowie, dass HPB durch die Bebauungsmaßnahmen nicht mehr vollständig WI-los ist.

Unsere Untersuchung zeigt, dass mehr als die Hälfte der ausgewiesenen, gemessenen Erwärmung, auf den WI entfällt und von den +1,9°C, die der DWD für den Betrachtungszeitraum4 angibt, nur +0,8°C tatsächliche Erwärmung übrig bleiben. Somit exakt dieselben Werte, die auch Anthony Watts in seiner jüngst erschienenen Arbeit veröffentlichte. Der Vergleich unseres Ergebnisses mit der breitengradabhängigen Erwärmung für den 49-Breitengrad (geographisches Mittel für Deutschland) erhärtet unser Ergebnis.

TOB Time of Observation Error (Bias)

Was hat nun unsere Arbeit als Beleg für die Untersuchung von Anthony Watts zu tun? Sehr viel, da ihm vorgehalten wird, er hätte den TOB (Time of Observation Error) nicht berücksichtigt. Der ist jedoch nur relevant bei Mittelwerten, die aus Min/Max-Werten, wie in den USA gebildet werden, nicht aber bei Mittelwerten aus täglichen Mehrfachmessungen zu festen Zeiten, wie sie von Anfang an in Deutschland zur Anwendung kommen. Bis zum April 2001 wurden in Deutschland nach dem Mannheimer Verfahren die Mittelwerte gebildet. Gemessen wurde um 7:00, 14:00 und 21:00 Uhr, wobei der letzte Wert doppelt gezählt wurde. Seit April 2001 wurde stündlich gemessen (allein diese Umstellung brachte auf Grund der Asymmetrie des Temperaturtagesgangs eine scheinbare Temperaturerhöhung von +0,1°C, wie Leistenschneider anhand der Station Berlin-Dahlem nachweisen konnte) und seit 2009 sogar halbstündlich. Dennoch zeigt unsere Untersuchung, die exakt gleichen Relations wie Anthony Watts – d.h. die gemessenen Temperaturen liegen gut doppelt so hoch, wie die tatsächlichen Vergleichstemperaturen. Der Grund dafür braucht nicht lange gesucht zu werden. Er liegt in der Konzentration der ausgesuchten Messstationen in Städten und auf Flughäfen. So liegen mehr als 52% aller GHCN-Messstationen auf Flughäfen. Was es damit auf sich hat, zeigte bereits vor mehr als 2 Jahren WUWT (Abbildung 6).

 

Abbildung 7 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld. Dass dies kein Einzelfall ist, konnten die Autoren in ihrem Beitrag (hier) belegen, wie z.B. Abbildung 7 zeigt.

 

Abbildung 8, Quelle: (hier) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen von Rom, wie von A. Watts gezeigt.

 

Abbildung 9 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil).

Die Messstation liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden geringen Luftbewegungen (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 16%), bleibt ein Anteil an eingebrachten Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme über das Flughafenareal (Raumvolumen), ergibt sich ein WI von +0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

Eine Überschlagsrechnung ergibt :

Flugplatzfläche = 5 qkm = 5 .106 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1.000 kg/s . 100 s = 105 kg = 105 m3 Luft auf 600 °C.

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

(108 – 105) . 20 + 105 . 600 = 108  . T,  woraus T = 20,6 °C folgt.

Die  Verteilung der heißen Abgasstrahlen ist jedoch nicht homogen, sondern die Messstationen liegen, wie an Rom und Frankfurt gezeigt, in unmittelbarer Richtung der heißen Abgasstrahlen und es ist nicht so, dass diese nur im Moment der Beaufschlagung wirken, sondern noch Stunden nach dem Start, die Temperaturen erhöht halten. Aufklärungssatelliten der USA machen sich diesen Effekt zu Nutze und können noch Stunden, nachdem ein Jetflugzeug auf einer Rollbahn startete/landete, dies anhand der Erwärmung nachweisen.

In erster Linie werden die heißen Abgasstrahlen durch den sog. Wirbelschleppeneffekt über das ganze Flughafenareal verteilt, ganz gleich, wo die Messstation sich befindet.

Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören, wodurch ein Strömungsabriss entstehen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, gelten die folgenden Bestimmungen:

  • • A380 gefolgt von Flugzeug der Gewichtsklasse „schwer“ = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „mittel“ = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „leicht“ = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

 

Abbildung 10 links, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Abbildung rechts zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Die Autoren konnten zeigen, dass die gemessenen Temperaturen am Flughafen Frankfurt um +2,5°C zu hoch waren. Der WI für den Flughafen Frankfurt demnach bei +2,5°C liegt. Für den Flughafen London Heathrow scheint der WI ebenfalls in dieser Größenordnung zu liegen. Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9°C. Laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) lag die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Anzumerken ist noch, dass Flughafenstationen als ländliche Stationen gelten und somit bei einer üblichen WI-Betrachtung gar nicht berücksichtigt werden.

Fazit

Somit festzustellen, dass die Temperaturmessstationen auf Flughäfen für die Aufzeichnung von Temperaturzeitreihen oder sonstiger Vergleichsaussagen gänzlich ungeeignet sind. Anhand der dortigen Daten lässt sich nur herausfinden, dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. Wird der Tatsache Rechnung getragen, dass sich ca. 52% aller GHCN-Temperaturstationen auf Flughäfen befinden, so zeigt dies, dass die ausgewiesene Erwärmung auf dem WI beruht oder, überspitzt formuliert, auf dem steigenden Flugaufkommen.

Die Arbeiten von Anthony Watts, ebenso wie unsere zeigen, dass der Hauptanteil der ausgewiesenen, gemessenen Erwärmung in der Tat auf menschliche Ursachen zurück zu führen sind, jedoch nicht auf Treibhausgase, wie dem CO2, sondern auf dem WI, der somit als Haupttreiber der gemessenen Temperaturen gilt. Zu beiden Seiten des Atlantiks schlägt der WI mit gleichen Werten zu Buche. Hinzu kommt, dass zunehmend die Solarforscher die Klima-Debatte dominieren, weil sie sowohl die langfristigen wie auch die kurzfristige Klimaschwankungen vollständig erklären können, was Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigte. Für „CO2+Co.“ bleibt nichts mehr übrig.

In Anbetracht der Tatsache, dass mit der vermeintlichen Erwärmung immer noch Politik betrieben und ganze Volkswirtschaften einer verfehlten Energie- und Umweltpolitik ausgesetzt sind, ist es an der Zeit, dass sich Behörden wie der DWD einer wissenschaftlichen Diskussion stellen und die Politik endlich den Tatsachen Rechnung trägt, dass es nicht mehr wärmer, sondern kälter wird und Klimawandel keine Ausnahmeerscheinung unserer Tage ist, sondern ein stetiger und natürlicher Vorgang.

*) Eine 100%-WI-freie Station für die letzten 130 Jahre konnten wir in Deutschland nicht finden, da insbesondere, die in Städten oder stadtnahen Gebieten befindlichen Stationen, die einen kontinuierlich langen Messzeitraum abbilden, wesentlich WI-behaftet sind. Auf Grund dessen haben wir unser Ergebnis (Abbildung 6) mit einem Fehlertoleranzbereich versehen, der diesem Punkt, dass HPB nicht zu 100% WI-los ist, Rechnung trägt.

Literaturverzeichnis (falls nicht im Text bereits erwähnt)

1 Karl, T.R., C.N. Williams, Jr., F.T. Quinlan, and T.A. Boden, 1990: United States Historical Climatology Network (HCN) Serial Temperature and Precipitation Data, Environmental Science Division, Publication No. 3404, Carbon Dioxide Information and Analysis Center, Oak Ridge National Laboratory, Oak Ridge, TN, 389 pp.

2 Dr. Niels Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“, http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf  Original: Quaternary Studies, Journal der Portugiesischen Vereinigung für Quartär-Forschung (APEQ), Nr. 5, 2007,

3 Met Office Hadley Centre, ”Climate change and the greenhouse effect” Dezember 2005, Seite 30

4 DWD, Lufttemperatur (Jahresmittelwerte) Deutschland 1891 – 2009

Raimund Leistenschneider – EIKE ; Josef Kowatsch – Hüttlingen




Süddeutsche Zeitung, Klima und real existierender Sozialismus

Übertrieben? Wohl kaum, wie es das jüngste Beipiel „Wandlung eines Zweiflers“ in der Mittwochs-Ausgabe der SZ vom 1. August 2012 belegt. Der Autor ist Prof. Richard Muller von der renommierten US Universität Berkeley, der in diesem Artikel haarsträubenden sachlichen Unsinn von sich gibt. Die SZ schluckt diese leicht erkennbaren Fragwürdigkeiten nicht nur, sondern dient sie – warmherzig ins Deutsche übersetzt – ihren Lesern an. Dass die renommierte New-Yorck Times ebenso verfährt, kann nicht als Entschuldigung gelten, diese Zeitung gehört, was Klimaartikel betrifft, in die gleiche Kategorie wie die SZ. In der SZ schildert R. Muller seine Wandlung von Klimazweifler zum überzeugten Erwärmungsadepten (Saulus – Paulus). Paulus verkündet nun, dass der Klimawandel des 20. Jahrhunderts nur mit menschlichem Einfluss erklärbar sei. Dass R. Muller niemals zuvor als Klimaskeptiker in Erscheinung trat, sei nur am Rande erwähnt.

Aber der Reihe nach! Muller verfasste im Herbst 2011 mit Mitautoren, unter anderem der renommierten US Klimaprofessorin Judith Curry als zweiter Autorin, 4 Studien über die Temperaturentwicklung ab Mitte des 19. Jahrhunderts, die die folgenden Titel trugen:

– „Earth Atmospheric Land Surface Temperature and Station Quality“

– „Berkeley Earth Temperature Averaging Process“

– “Influence of Urban Heating on the global Temperature Land Average Using Rural Sites Identified from MODIS Classifications”

und schließlich

– “Decadal Variations in the Global Atmospheric Land Temperatures”

Diese Studien laufen in der Fachwelt unter dem Kürzel BEST (hier). Anstatt, wie es die wissenschaftliche Etikette fordert, erst grünes Licht der Begutachter der BEST Studie, die von Muller zur Veröffentlichung eingereicht wurde, abzuwarten, ging Muller sofort in die Offensive. Er alarmierte die Presse und trat eine Propaganda-Kampagne für BEST los.

J. Curry distanzierte sich unmittelbar darauf (hier) von diesem absolut unmöglichen Vorgehen R. Mullers, weitere massive Distanzierungen von Muller seitens J. Curry folgten (stellvertretend hier). Es war unübersehbar, dass der „Krach“ zwischen erstem und zweiten Autor, der anfänglich nur notdürftig gekittet wurde, inzwischen wohl nicht mehr zu beseitigen ist. Fakt ist indessen:

BEST wurde wegen schwerer Mängel bis heute von Fachzeitschriften die Veröffentlichung verweigert (hier).

Unter zahlreichen weiteren Mängeln ist stellvertretend für diese Ablehnung die Zurückführung von Klimaänderungen auf Vulkanausbrüche zu nennen, wobei R. Muller salopp das verursachende Ereignis (Vulkanausbruch) zeitlich hinter die Klimabeeinflussung legte. Selbst der SZ in ihrer Klimablindheit hätte dieser Kindergarten-Fehler auffallen müssen (Einzelheiten hier). Die SZ hat somit einen leicht erkennbaren Fehler, der es allein schon verbietet, den Artikel von R. Muller zu veröffentlichen, bewusst oder unbewusst in ihrem Klima-Sendungsbewusstsein nicht wahrgenommen oder wahrnehmen wollen.

Pikant ist in diesem Zusammenhang, dass exakt zur gleichen Zeit wie BEST eine Studie mit ähnlicher Zielsetzung erschien, die von den EIKE-Autoren Prof. H.-J. Lüdecke, Dr. R. Link und Prof. F.-K. Ewert verfasst war. Diese Studie durchlief im Gegensatz zu BEST die Fachbegutachtung erfolgreich und wurde im International Journal of modern Physics veröffentlicht (hier). Ferner wurde sie von Judith Curry freundlicherweise sofort auf ihrem Blog besprochen, wobei sie wie üblich zur allgemeinen Diskussion aufforderte (hier, hier, hier und hier). Die Resonanz war groß, wir haben bei 2000 Kommentaren aufgehört zu zählen. Fehler in der Studie von Lüdecke und Mitautoren wurden von den Bloggern – unter ihnen vielen Fachleuten – nicht aufgefunden. Eine weitere Besprechung erfolgte beim bekannten US Statistiker William Briggs (hier). Auch FOCUS-Online hat die EIKE-Studie zusammen mit BEST einer längeren Besprechung als interessant und berichtenswürdig erachtet (hier). All diese Fakten und Entwicklungen gibt es für die SZ nicht (analog die freie Marktwirtschaft im Gegenatz zum real existierenden Sozialismus im „Neues Deutschland“).

Wie sehen nun die Ergebnisse von Lüdecke et al. aus? Im Grunde ist nichts Weltbewegendes zu berichten, der FOCUS hat dies völlg richtig erkannt. Die Erwärmung im 20. Jahrhundert war gering und völlig ungefährlich ( grob etwa die gleichen Zahlenwerte fand im Übrigen auch BEST). Entscheidend war aber, dass, wie es die in der Studie von Lüdecke et al verwendete, moderne Persistenzmethode ausweist, die Erwärmung überwiegend natürlich war. Über die Natur des „unnatürlichen“ Resteinflusses (Sonne, CO2, UHI usw.) in den letzten 50 Jahren des 20. Jahrhunderts konnte das verwendete Verfahren prinzipiell keine Auskunft geben. Von Klimakatastrophen oder gar einen nachgewiesen anthropogenen Einfluss auf irgendein Klima keine Spur!

Die Erkenntnis der Studie von Lüdecke et al ist indes keineswegs so neu, wie sie erscheinen mag. Schon 1997 bezeugte der wissenschaftliche Beirat der Bundesregierung (WBGU), dass es „sehr schwierig sei, einen menschgemachten Einfluss auf Klimawerte nachzuweisen“ (S.8, hier). Jeder mag diese politisch korrekte Formulierung in den entsprechenden Klartext für sich selber übersetzen. Von 1997 bis heute gibt es keine Fachveröffentlichungen, die das Gegenteil belegen. Die heute „etwas anders“ lautenden Aussagen des WBGU sind nicht neuen wissenschaftlichen Erkenntnissen, sondern der massiven personellen Umbesetzungen in Richtung „Klimaalarmismus“ geschuldet.

Nicht umsonst wird das Problem eines solchen Nachweises, nach dem die Alarmisten bis heute verzeifelt und vergeblich suchen, in der Fachliteratur als „attribution and detection problem“ bezeichnet. Es ist bis heute ungelöst!

Pikanterweise veröffentlichte Prof Hans-J. Schellnhuber vom Potsdamer Institut für Klimafolgenforschung in 2003 eine Studie, in der weltweit etwa 100 Stationstemperaturreihen analysiert wurden – bei BEST waren es ca. 30.00 Reihen, bei Lüdecke et al. ca. 2500 Reihen. In der „discussion“ der Arbeit von Schellnhuber dann die unmissverständliche Aussage: „Wir konnten keine Anzeichen für eine globale Erwärmung der bodennahen Atmosphäre auffinden“ (S. 5 unter (iii), hier). Überflüssig zu erwähnen, dass Schellnhuber in Zeitungsinterviews und seinen populären Klima-Propagada-Schriften ganz andere Aussagen als in seinen Fachveröffentlichungen macht. All dies ist der SZ selbstverständlich unbekannt, aber vielleicht auch nicht? Wir wollen und können es nicht entscheiden. Indes gilt: all dies schert das „Neue Deutschland“, Pardon, die SZ nicht im Geringsten.

Leserbriefe, die Richtigstellungen von Klima-Unsinnsberichten (stellvertretendes Beispiel hier) in der SZ beabsichtigen, werden selbstredend nicht veröffentlicht. Vielmehr gefällt sich die SZ in Schmähartikeln gegen „Abweichler“, vulgo „Klimaskeptiker“. In einem solchen Artikel (hier) wird Prof. H.-J. Lüdecke der Ausspruch „wir brauchen keine Klimaforscher“ in den Mund geschoben, demselben Lüdecke, der die oben erwähnte Fachveröffentlichung als Klimawissenschaftler zusammen mit seinen Mitautoren verfasst hat. Wir sind bewusst gegen diesen Artikel nicht rechtlich vorgegangen, der in seiner Falschaussage (Lüdecke betont, dass es solch einen Unsinn aus seinem Munde nicht gibt) gegen das Pressegesetz verstößt. Es erschien uns besser, an Hand dieser SZ-Schmähschrift immer wieder auf die „Qualität“ der SZ Klimaberichterstattung hinweisen zu dürfen.

Natürlich braucht man kein Hellseher zu sein, um vorherzusagen, dass die SZ auch die Arbeit des weltbekannten US Meteorologen Antony Watts glatt übersehen wird. Diese weist nach, dass insbesondere in den USA ein maßgebender Anteil von Temperaturkurven fast doppelt so hohe Steigerungen aufweist, wie sie wirklich auftraten (hier, hier). Die Arbeit von A. Watt wurde vor wenigen Tagen ebenfalls zur Veröffentlichung eingereicht. Man darf gespannt sein.

Wir haben hierzulande unter einer „freien“ Presse somit das Vergnügen, zumindest auf dem Gebiet der Klimaberichterstattung immer noch DDR-Verhältnisse – und dies leider nicht nur bei der SZ – anzutreffen.

Michael Limburg




Die Energierevolution und die Grünen! Von Walter Russell Mead

Insgesamt könnten diese Neuigkeiten gar nicht besser sein: wertvolle Ressourcen im Wert von Trillionen von Dollar stehen für die Ankurbelung der US-Wirtschaft zur Verfügung, ermöglichen eine Reduzierung des Handelsdefizits und verringern unsere Verwundbarkeit gegenüber einem instabilen Nahen Osten. Hunderttausende gut bezahlter Industriearbeitsplätze werden die Einkommensungleichheiten ausgleichen und erneut eine stabile Mittelklasse bilden. Viele dieser Ressourcen sind genau da, wo sie gebraucht werden: in den hart gebeutelten Staaten des „Rust Belt“.

Auch ein Weltfrieden erscheint möglich: die Großmächte werden nicht mit den Ellenbogen zum Kampf um die Kontrolle über die letzten Tropfen Öl antreten. Gemeine Diktaturen und rückwärtsgewandte Ölstaaten werden die Welt nicht mehr so leicht erpressen können.

Aber es gibt eine Gruppe (abgesehen von den Russen, den Golfstaaten und den Iranern), die in die allgemeine Freude nicht einstimmen können: die Grünen. Für sie war das Spektakel einer drohenden Welt-Energiekrise eine frohe Botschaft. Dadurch ließen sich erhebliche Subventionen für Solar- und Windkraft rechtfertigen (die nebenher cleveren grün-orientierten Investoren erhebliche Vermögenszuwächse garantierten). Die Grünen überboten sich Jahr für Jahr mit Schreckensprognosen über die nahenden Engpässe in der Ölversorgung. Sie hofften, dass sich die Abneigung der Bürger gegenüber dem Nahen Osten und den Kosten unseres Engagements dort in eine breite Unterstützung für kostspielige grüne Energiepläne hierzulande umwandeln ließe: „Energieunabhängigkeit“ war eines ihrer wenigen Argumente, die auf Resonanz bei vielen Durchschnittswählern stießen.

Damals, in der Blütezeit der grünen Arroganz, gab es jede Menge Spott für die „Peak-Oil-Leugner“ und die Knappheitsskeptiker, die dem widersprachen, was die Grünen als völlig gesicherte Malthusianische Wissenschaft propagierten. „Realitätsnahe“ grüne Denker seufzten und rollten ihre Augen über die Illusionen dieser umnachteten Technik-Schwärmer, die da behaupteten, dass unkonventionelle Energiequellen wie Schieferöl und –gas und die Ölsände Kanadas eines Tages nutzbar gemacht werden können.

Umweltschützer stehen eben auf dem Boden der Wissenschaft, nicht wie diese unbedarften, Gaia trotzenden Technophilen mit ihrem infantilen Glauben an die Kraft der menschlichen Kreativität. Grüne, mit ihren von Gaia geförderten gewaltigen intuitiven Kräften wissen, was die Zukunft bringt.

Aber diese glorreichen Zeiten sind jetzt vorbei und die klügeren Umweltschützer fügen sich in das Unvermeidliche. George Monbiot, dessen Wehgeschrei im Guardian wie der Chor im griechischen Drama jede Stufe des steilen Niedergangs der globalen grünen Bewegung begleitete, verlieh dem grünen Kummer über die Aussichten auf ein kommendes Jahrhundert des Wohlstands und Erfolgs Ausdruck: „Wir lagen daneben“, schrieb er am 2. Juli, „was ‚Peak Oil’ anbelangt. Es ist genug davon da, uns alle darin zu braten.“ Die Auswirkungen auf die Politik versteht er auch:

Es gibt genug Öl im Boden, uns alle darin zu braten und es gibt keine auf der Hand liegenden Gründe, die Regierungen und die Industrie veranlassen könnten, es im Boden zu lassen. Zwanzig Jahre der Anstrengung, den Klima-Zusammenbruch durch moralische Überredungskunst zu verhindern, sind mit dem Scheitern des multilateralen Klimaprozesses in Rio de Janeiro letzten Monat gescheitert. Die mächtigste Nation der Welt wird wieder ein Ölstaat und wenn man dem politischen Wandel bei ihrem nördlichen Nachbarn [ein Verweis auf Kanada] glauben darf, werden die Ergebnisse nicht angenehm sein.

Mit anderen Worten: die Vereinigten Staaten mit ihrem neuen Ölreichtum werden noch stärker gegen globale grüne Kohlenstoffpläne kämpfen und die neuen Vorkommen werden das politische System Amerikas noch weiter in Richtung der kapitalistischen Ölunternehmen trimmen.

Der Kapitalismus ist, wie Monbiot gezwungen ist anzuerkennen, kein zerbrechliches System, das leicht zu ersetzen ist. Gestützt auf riesige Vorräte an Öl wird es bleiben. Die Industriegesellschaft ist, soweit er jetzt erkennen kann, nicht zu bremsen. Gaia, die hinterhältige Schlampe hat so viel Öl und Gas produziert, dass ihre getreuesten Diener sie nicht vor den Folgen ihrer eigenen Narrheit schützen können.

Der neue grüne Untergang sieht so aus: überreichlich vorhandenes Öl und Gas wird so viele Treibhausgase freisetzen, dass die Welt verbrutzelt. Die Ausbeutung der Ölsände in Alberta, so warnen führende Umweltschützer, ist ein „Tipping Point“. William McKibben drückte das in einem Interview mit dem Magazin „Wired“ im Herbst 2011 so aus:

Ich glaube, wir sind aufgeschmissen, wenn wir volles Rohr in die Teersände gehen. Das bedeutet nämlich unweigerlich, dass wir volles Rohr auch in alle möglichen anderen unkonventionellen Energien gehen: Tiefseebohrungen, Fracking jeder Felsformation auf dem Erdboden und so weiter.

Aus folgendem Grund sind die Teersände so wichtig: sie sind der Punkt, an dem wir uns entscheiden müssen, ob wir uns, wenn der einfache Stoff alle ist, dem harten Stoff zuwenden. Dem saudi-arabische Schnapsladen gehen die Flaschen aus. Werden wir jetzt nüchtern, oder finden wir einen anderen Schnapsladen mit echt üblem Fusel, in den wir einbrechen können?

Ein Jahr später – trotz des Erfolgs von Umweltschützern wie McKibben, die Obama-Regierung zu einer Blockade der Pipeline für den Transport dieses Öls zu Raffinerien in den USA zu überreden – ist klar (so kristallklar, wie das jedem von Anfang an war, der mit offenen Augen durchs Leben geht), dass die Welt wild entschlossen ist, diesen „üblen Fusel“ zu nutzen.

Für Leute, die ihren Anspruch auf Führerschaft in der Welt auf ihr überlegenes Verständnis der Dynamik komplexer Systeme gründen, zeigt sich einmal mehr, dass die Grünen immer wieder verblüffend naiv und unbeholfen sind, wenn es darum geht, das Verhalten der politischen und wirtschaftlichen Systeme modellhaft nachzubilden und zu formen, die sie eigentlich steuern wollen. Die Grünen haben wirklich ernsthafte Probleme, wenn ihr Verständnis des zukünftigen Klimas auf der Erde auch nur in etwa so wunschgesteuert, wirklichkeitsfremd und gedanklich krude ist, wie es ihre Ansätze bei internationalen Angelegenheiten, demokratischer Politik und bezüglich des Energiemarkts sind. Wie ich bereits schrieb, hat der Kontrast zwischen den Ansprüchen der Grünen hinsichtlich Verstehens des Klimas und der Fähigkeit, den größten und umfassendsten jemals in Angriff genommenen Katalog an politischen Änderungen zu organisieren und ihrer offenbaren Unfähigkeit, im Kleinen (Solyndra) und im Großen (Kyoto, EU-Emisssionshandel, Weltklimavertrag) politische Projekte hier und heute weiterzubringen, mehr mit Klimaskeptizismus zu tun, als die Grünen bisher begriffen haben. Viele Leute lehnen nicht die Wissenschaft ab; sie lehnen den Anspruch der Grünen auf politische Richtlinienkompetenz ab. Dabei haben sie völlig recht, wie der bisherige Verlauf zeigt.

Nichtsdestotrotz ist die Zukunft der Umwelt nicht annähernd so düster, wie die Grünen glauben. Pessimistische Umweltschützer wie McKibben und Monbiot liegen mit ihrer Einschätzung der Ära des Überflusses genau so schief, wie es grüne Energieanalysten in Bezug auf die Ölvorräte auf dem Planeten waren.

Das Problem ist die Erbsünde vieler Umweltschutzgedanken: der Malthusianismus. Wären die Grünen nicht so den malthusianischen Horrorgeschichten verhaftet, würden sie erkennen, dass die neue Ära des Überflusses viel schneller zu einem saubereren Planeten führt, als wenn die neuen Gas- und Ölvorkommen nicht entdeckt worden wären.

Seien wir ehrlich. Es war Studenten der Geschichte schon lange klar und dämmert jetzt auch vielen Umweltschützern, dass diese fröhlich nachgebetete CO2-Vertragsgeschichte ein frommer Wunsch war und nichts dergleichen passieren wird. Eine Menschheit, die es nicht geschafft hat, die Bombe abzuschaffen, trotz der klaren und auf der Hand liegenden Gefahren, die von Nuklearwaffen ausgehen, wird den Verbrennungsmotor und den Generator weder verbieten, noch deren Nutzung ernsthaft einschränken.

Die politischen Anstrengungen der grünen Bewegung, die Treibhausgase zu begrenzen, haben bisher wenig Wirkung gezeigt und es ist sehr unwahrscheinlich, dass sie damit in Zukunft mehr Erfolg haben werden. Die grüne Bewegung war bisher eher eine Umarmung in der Gruppe als eine Übung im Eisenbiegen und das wird sich eher nicht ändern. Biegt sich die Klimakurve, wird das so verlaufen, wie bei der Bevölkerungskurve: als Ergebnis einer Vielzahl einzelner menschlicher Entscheidungen, die auf Basis kurzfristig kalkulierter Interessen gefällt werden, aber nicht als Ergebnis eines großartigen globalen Plans.

Der Schieferöl-Boom hat nicht den Erfolg der Grünen in einen Misserfolg verwandelt. Er hat nur dafür gesorgt, dass sich das Versagen der Grünen nicht in eine deutlich schlimmere Richtung entwickelt. Monbiot versteht das besser als McKibben; es gab nie irgendwelche ernsthaften Zweifel daran, dass wir weiter in den Schnapsladen gehen. Hätten wir nicht Wege gefunden, all dieses Öl und Gas zu nutzen, hätten wir diese Ökonomie des Weniger nicht umarmt. Natürlich bieten steigende Öl- und Gaspreise mehr Raum für Wind- und Solarkraft, aber der eigentliche Gewinner einer Öl- und Gasknappheit ist … die Kohle. Um die Metapher McKibbens zu verwenden: es gibt einen viel schlimmeren Fuselladen in der Straße unterhalb des Schieferöl-Kaufhauses, den wir seit Jahrhunderten frequentieren. Die USA und China haben Unmengen an Kohle und die würden wir eher nutzen, als den ganzen Winter zu Fuß zur Arbeit zu gehen und unsere kalten und dunklen Häuser zu verlassen. Und sollte uns das Öl wirklich ausgehen, gibt es darüber hinaus bereits die Technologie, die flüssigen Kraftstoff aus Kohle macht. Nicht gerade billig und nicht sauber, aber es funktioniert.

Die neue sonnige Zukunft mit Öl und Gas bedeutet, dass wir nicht einem neuen Kohlezeitalter entgegensehen. Dafür sollte jeder Grüne auf unserem Planeten dankbar sein.

Der zweite Grund, warum Grüne froh über das Schiefergas sein sollten ist der, dass Umweltschutz ein Luxusgut ist.  Die Menschen müssen überleben, und dazu ist ihnen jedes Mittel recht. Aber sie wollen nicht nur überleben, sie wollen auch, dass es ihnen gut geht und wenn sie das bewerkstelligen können, werden sie das tun. Eine arme Gesellschaft an der Überlebensgrenze wird ohne lange nachzudenken ihren Industrieabfall in den Fluss schütten. Sie wird Kohle verheizen und im daraus entstehenden Smog ersticken, wenn es nichts anderes zu verheizen gibt.

Politik in Zeiten eines Überlebenskampfes ist gemein und praktisch. Sie muss so sein. Der beste Führer ist der, der allen Firlefanz und Schnickschnack weglassen kann, und Dich den Winter überleben lässt. Während der Schlacht um Leningrad haben Leute unbezahlbare Antiquitäten verbrannt, nur um eine weitere Nacht überleben zu können.

Ein Zeitalter der Energieknappheit und hoher Preise stellt sich für Milliarden Menschen als ein Zeitalter ohne Ernährungssicherheit und wirtschaftlicher Stabilität dar. Diese Milliarden hungriger, verängstigter, zorniger Menschen werden nicht ihre Hände falten und über die unbeschreiblichen Wunder von Gaia und deren mystischem Netz des Lebens meditieren, derweil sie friedlich dahinsterben. Sie werden auch keinen George Monbiot oder Bill McKibben an die Macht wählen. Sie werden jeden Panda im Zoo abschlachten, statt ihre Kinder verhungern sehen, sie werden jeden Wald der Erde abholzen, statt sich zu Tode zu frieren, und je gemeiner und niederträchtiger ihr Leben ist, desto weniger Energie oder Gedanken werden sie an die zugrunde gehende Welt um sie herum verschwenden.

Aber dank des Schieferöls und anderer unkonventioneller Energiequellen ist das nicht die Richtung, in die wir gehen werden. Wir bewegen uns hin zu einer Welt, in der Energie überreichlich vorhanden ist und Horizonte sich öffnen, auch weil das menschliche Verständnis von Wissenschaft und Technologie sich festigt. Eine Welt, in der mehr und mehr menschliche Grundbedürfnisse abgedeckt werden, ist eine Welt, die über andere Ziele nachdenken kann und darüber, wie viel Geld man dafür aufbringt. Wird China reicher, wollen die Chinesen sauberere Luft, sauberes Wasser, reinere Nahrung – und sie sind auch willens und bereit, dafür zu bezahlen. Ein Brasilien, dessen wirtschaftliche Zukunft gesichert ist, kann es sich leisten, seinen Regenwald zu hegen und zu pflegen. Ein Mittelamerika, in denen es den Leuten gut geht, ist eher willens und in der Lage, seine Biodiversität zu schützen. Und eine Welt, in der die Menschen wissen, wo ihre nächste Mahlzeit herkommt, ist eine Welt, in der Gedanken und Überlegungen zur Nachhaltigkeit der Fischerei und zum Schutz der Korallenriffe Platz haben.

Eine Welt, die entspannter bezüglich der Sicherheit seiner Energiequellen sein kann, wird mehr tun können, die Qualität dieser Quellen zu verbessern und die Auswirkungen des Energieverbrauchs auf das Weltganze zu steuern. Eine reiche Welt mit gesicherter Energieversorgung wird mehr Geld für die Entwicklung von Solar- und Windkraft und anderer nachhaltiger Quellen ausgeben, als eine arme, karge.

Wenn Menschen ihre Grundprobleme als gelöst ansehen, werden sie anfangen, nach eleganteren Lösungen zu suchen. Sobald Amerika eine industriell geprägte moderne Wirtschaft hatte, wollten wir die Flüsse und die Luft sauber kriegen. Sobald sich die Leute keine Sorgen machen müssen, wie sie den zum Überleben notwendigen täglichen Kalorienbedarf stillen können, werden sie gesünderes, raffinierter zubereitetes Essen wollen.

Eine Welt mit Schieferöl und –gas im Überfluss ist eine Welt, in der den Schieferöl- und Gasproduzenten mehr Umweltschutzregeln auferlegt werden. Eine prosperierende Welt kann mehr Geld zur Seite legen für die Forschung und Entwicklung neuer Technologien für einen schonenden Umgang mit Energie oder für deren Erschließung in sauberen Umgebungen. Eine prosperierende Welt, die einem Klimawandel gegenüber steht, kann auf eine Art und Weise dessen Folgen abfangen und für die Zukunft berücksichtigen, zu der eine Welt, die von Unsicherheiten in der Energieversorgung geplagt ist und sich in einer durch Mangel bedingten permanenten Wirtschaftskrise befindet, weder willens noch in der Lage ist.

Die Grünen können auch froh sein, dass die neue Energie dort ist, wo sie ist. Für Monbiot und für viele andere, ist Gaias Entscheidung, so viel Öl in den Vereinigten Staaten und in Kanada zu deponieren, ihr größter Fehltritt von allen. Ganz sicher werden die Vereinigten Staaten von Amerika, die ähnlich dem Bibelspruch ihre Jugend wie ein Adler durch eine Riesenspritze frischen Petro-Reichtums wiedergefunden haben, noch weniger als früher bereit sein, diverse grüne Luftschloss-CO2-Verträge zu unterschreiben.

Aber bedenken wir mal, wie alles noch viel schlimmer wäre, wenn sich diese neuen Vorkommen auf dem Gebiet diktatorischer Kleptokratien befänden. Wie anstellig würden sich diverse zentralasiatische Staaten wohl gezeigt haben, die Ausbeutung zu reglementieren und den Schaden zu begrenzen? Wie wäre Nigeria mit diesen riesigen neuen Vorkommen umgegangen, deren Ausbeutung doch den Einsatz deutlich invasiverer Methoden erfordert?

Stattdessen konzentrieren sich die neuen Vorkommen in Gegenden, in denen die Umweltschützer mehr in der Politik zu sagen haben und wo, trotz aller Unzulänglichkeiten und Grenzen, Regierungen weniger korrumpierbar, öffentlich rechenschaftspflichtiger und tatsächlich kompetenter sind, wirksame Energiebestimmungen zu entwickeln und durchzusetzen. Das stellt McKibben und Monbiot nicht zufrieden (alles, was sich in der Wirklichkeit ereignet, stellt keinen dieser Herrn zufrieden), aber es ist doch deutlich besser, als das, was uns hätte erwarten können.

Und wenn es zwei Länder in der Welt gibt, über die sich CO2-fixierte Grüne mehr als über andere Länder Sorgen machen könnten, dann sind das die Vereinigten Staaten und China. Die zwei größten, hungrigsten Volkswirtschaften der Welt verfügen gleichzeitig auch über gewaltige Kohlereserven. Aber nach allem, was wir jetzt wissen, gehören die USA und China zu den größten Nutznießern des neuen Reichtums. Gaia hat das Öl und Gas dort deponiert, wo es unter CO2-Gesichtspunkten am meisten Gutes tut. In einer Welt der Energieknappheit und der Unsicherheit hätten die USA und China stracks den Weg zur Kohle eingeschlagen. Jetzt ist das weniger wahrscheinlich.

Es gibt noch einen Grund, warum die Grünen Gaia für die Schiefervorkommen danken sollten. Wind- und Solarkraft sind jetzt noch nicht ausgereift, aber wenn die neuen Ressourcen zur Neige gehen, wird die Menschheit viele andere Technologien beherrschen, die Energie liefern und sparen. Es ist möglich, dass die Schiefer-Ära nicht nur die Renaissance der Kohle verzögert hat: durch die gewonnene Zeit wird es wahrscheinlich kein weiteres Zeitalter geben, in dem die Kohle der dominierende Industrie-Brennstoff ist. Es ist praktisch sicher, dass der ökologische Fußabdruck der menschlichen Rasse über die gesamte Lebensdauer gerechnet, mit Hilfe der neuen Öl- und Gasquellen kleiner wird als ohne diese.

Weder werden die Energieprobleme der Welt, noch deren Klimaprobleme schnell verschwinden. Das Paradies winkt uns nicht aus kurzer Distanz freundlich zu. Aber die Verfügbarkeit dieser Energiequellen ist per Saldo für Umweltschützer genau so positiv, wie für alle anderen.

Der Gedanke mag ketzerisch sein, aber vielleicht ist Gaia klüger als die Grünen.

The American Interest, 28 July 2012

Übersetzt aus dem Englischen von Herbert Blaha

Zuerst erschienen bei ACHGUT

Mit Dank an den Übersetzer Herrn Blaha

Weiterführende links

http://info.kopp-verlag.de/hintergruende/enthuellungen/redaktion/riesige-energiequelle-schiefergas-die-hits-reissen-nicht-ab.html

#gallery-2 { margin: auto; } #gallery-2 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-2 img { border: 2px solid #cfcfcf; } #gallery-2 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




Bemerkungen über die plötzliche, noch nie da gewesene „Eisschmelze“ in Grönland

Natürlich erinnert das an den Hype um das Abschmelzen der Gletscher im Himalaya bis zum Jahr 2035, nur dass eben die Schmelze in diesem Jahr stattfindet. Der Gipfel war die Behauptung, dass „97% des Grönlandeises schmelzen“.

In Wirklichkeit – das steht selbst beim Herausgeber dieser Meldung, der NASA, wurde aber vom Medienhype unterschlagen – hat es eine Woche lang auf 97% des Grönlandeises leichtes Tauwetter gegeben – das Eis taute oberflächlich für wenige Stunden an. Inzwischen ist dort oben längst alles wieder gefroren. Das Bild rechts zeigt den Temperaturverlauf an der Station Summit am höchsten Punkt Grönlands.

Kein Zweifel kann es an der Tatsache geben, dass es in Grönland, auch auf dem Eisschild, so mild wie seit vielen Jahren nicht mehr war. Aber ist das nicht ein ganz normales Extrem?

Immerhin, die „Süddeutsche Zeitung“ hat berichtet, dass es Eisbohrkernen zufolge alle 150 Jahre zu einem solchen Schmelzereignis kommt. Das steht auch hier.

Irgendwann (vielleicht demnächst?) wird es auf Grönland wieder so kalt sein wie seit vielen Jahren nicht mehr. Ob das dann auch als ein solcher Hype durch den Pressewald rauscht? Und ob die NASA dann überhaupt davon Notiz nimmt?

Man fragt sich natürlich, was das Ganze in dieser Form soll. Ein Schelm, wer Arges dabei denkt.

Die beste, mir bekannte Zusammenfassung des Tauwetters in Grönland (auf Deutsch!) steht hier: http://wkserv.met.fu-berlin.de/Beilagen/2012/Groenlandeis.pdf. Auch die Artikel, die ich ursprünglich aus dem Englischen hierzu übersetzen wollte, kommen da nicht heran.

Chris Frey für EIKE