Extremes Wetter, extreme Behauptungen!

Der Autor, Dennis Ambler, folgert:

Extremes Wetter – Das Spiel der Schuldzuweisungen 

Die Azteken hatten hoch komplizierte und effektive Bewässerungssysteme sowie „astrolonomische“ Observatorien (offensichtlich zusammengesetzt aus den Begriffen Astrologie und Astronomie), mit denen sie versuchten, das Wetter und damit die Füllmenge ihrer Reservoire vorherzusagen. Aber außerordentliche Fröste und Kälte, gefolgt von schweren, ausgedehnten Dürren könnte sie an den Rand des Zusammenbruchs geführt haben. Als das Klima dann wieder freundlicher wurde, dankten sie ihren Göttern mit Menschenopfern.

“Als es wieder Regenmengen gab, die für die Landwirtschaft ausreichend waren, reagierten die Azteken, indem sie massiv die Menschenopfer an ihren Regengott Tlaloc erhöhten. Wahrscheinlich wurden hunderttausende dabei geopfert“.

Während der Kleinen Eiszeit war es Hexenwerk, das für das zerstörerische Klima verantwortlich gemacht wurde:

Fagan’s The Little Ice Age (Basic Books, 2000):

„Hexenwerk” kam ins Spiel, als Leute ihre Nachbarn anklagten, das schlechte Wetter zu erzeugen… 63 Frauen wurden 1563 in der kleinen Stadt Wiesensteig bei lebendigem Leib als Hexen verbrannt, zu einer Zeit, die gekennzeichnet war durch intensive Debatten über die Autorität Gottes über das Wetter“.

„Fast ausnahmslos fiel dieser Verfolgungswahnsinn mit den kältesten und schwierigsten Jahren der Kleinen Eiszeit zusammen, wenn die Leute nach der Vernichtung der Hexen schrien, weil sie diese für ihr Unglück verantwortlich machten“.

Heutzutage schieben wir Wetterunbilden nicht mehr auf Hexenwerk, sondern auf unsere Emissionen von Kohlendioxid. Das nennen wir einen Verschmutzer, der durch Steuergelder kontrolliert werden muss, und jeder, der es wagt, diese Orthodoxie herauszufordern, wird verunglimpft.

Wir ignorieren Tausende von Jahren des Klimageschehens für eine Agenda, die eineinhalb Jahrhunderte lang auf manchmal verzerrten, oft aber umstrittenen Temperaturrekorden seit dem Ende der Kleinen Eiszeit basiert, und wir nennen das „Wissenschaft“.

Haben wir wirklich das Dunkle Zeitalter hinter uns gelassen?

Übersetzt von Chris Frey für EIKE

Ein neues Papier bei SPPI betrachtet die Geschichte von extremen Wetterereignissen.

Das Papier kann hier heruntergeladen werden: http://scienceandpublicpolicy.org/originals/extreme_weather_extreme_claims.html




Die Überschwemmungen in Pakistan 2010: Klimaänderung oder natürliche Variabilität?

Unter den extremen Wettervorgängen im Sommer 2010 erregten die extensiven Überschwemmungen in Pakistan sowie deren gravierenden und ausgedehnten Auswirkungen maximale Aufmerksamkeit sowohl in den Medien als auch unter Wissenschaftlern. Viele Klimawissenschaftler drückten ihre Sorge aus, dass solche Ereignisse im Zuge der Klimaänderung in Zukunft häufiger auftreten, während die WMO (World Meteorological Organization) bekannt gab, dass solche Wetterkatastrophen wie im Juli und August 2010 gut in die von den Klimawissenschaftlern vorhergesagten Szenarien passen. Die furchtbaren Schäden durch die Fluten und die Flucht Tausender Menschen, die durch die weiten überschwemmten Gebiete irrten, wurden von den meisten Zeitungen und Fernsehnachrichten in Kanada [der jetzigen Heimat des Autors, A. d. Übers.] in herzerweichenden Bildern dokumentiert. Nach jüngsten Schätzungen gab es durch die Fluten über 1500 Tote und über 2 Millionen Obdachlose.

Aus persönlicher Sicht weckten die TV – Bilder von Frauen und Kindern im knietiefen Wasser ergreifende Erinnerungen an eine ähnliche Situation, die ich in Pune, meiner früheren Heimatstadt (einer Stadt 200 km südöstlich von Mumbay, der größten indischen Stadt an der Westküste) im Juli 1961 erlebt hatte. In der ersten Woche des Juli 1961 führten ununterbrochene Monsunregenfälle zum Bruch eines Dammes, was eine massive Überschwemmung der Stadt Puna zur Folge hatte, die hunderte von Häusern zerstörte und in der viele Dutzend Menschen ertranken. Viele andere Städte und Regionen waren durch den Sommermonsun 1961 von ähnlichen Überschwemmungen betroffen. Wie sich herausstellte, war der Sommermonsun 1961 in Indien und den umgebenden Gebieten der regenreichste Monsun in einer 150-jährigen, durch Messungen gut abgesicherten Reihe, der zu massiven Überschwemmungen und Sachschäden in vielen Gebieten des Landes führte (India Meteorological Departement 1962). Der Monsun dieses Jahres 2010 war seit der dritten Juliwoche ziemlich heftig, und schwere Regenfälle brachten Überschwemmungen in der Region der Halbinsel von Indien und auch in den nordwestlichen, an Pakistan grenzenden Gebieten. Hat der schwere Monsun 2010 zu den historischen Überschwemmungen in Pakistan geführt? Lassen Sie uns kurz einen Blick auf die Klimatologie des Monsuns werfen.

Überschwemmungen und Dürren des indischen Monsuns

Zunächst muss beachtet werden, dass die Monsunzeit in Pakistan fast gleichlaufend mit dem indischen Monsun ist. Er wird hauptsächlich angetrieben durch sowohl regionale als auch globale Systeme wie die ENSO (El Nino Southern Oscillation), die Ausdehnung der  Schneedecke in Eurasien während des vorangegangenen Winters und der Phase der QBO (Quasi-biennal Oscillation), also der äquatorialen stratosphärischen Windoszillation (siehe auch Khandekar 1996). Die Monsunzeit ist in Pakistan allgemein kürzer als in Indien und dauert im Mittel vom 1. Juli bis zur dritten Woche im September. Im Mittel bringt der Monsun in Pakistan als Ganzes Regenmengen um 500 mm, verglichen mit etwa 850 mm für ganz Indien in der Zeit von Juni bis September. Mit einem exzellenten Datensatz über fast 150 Jahre kann man einige der extremsten Überschwemmungen und Dürren erkennen, wie Abbildung 1 zeigt. Diese Graphik zeigt, wie unregelmäßig Dürren und Überschwemmungen während dieser 150 Jahre verteilt sind. Gleichzeitig scheint es keinen abnehmenden bzw. zunehmenden Trend zu geben. Wie früher schon erwähnt, war der Monsun 1961 der regenreichste Sommermonsun mit ausgedehnten Überschwemmungen, während es im Jahre 1877 zu einer sehr schlimmen Dürre kam mit einem Regendefizit von 40%.

Abbildung 1: Variabilität des indischen Sommermonsunregens von 1844 bis 2000, mit sieben großen Dürren (1868, 1877, 1899, 1918, 1951, 1972 and 1987) und sechs ausgedehnten Überschwemmungen (1892, 1917, 1933, 1961, 1970 and 1975).

 

 

Neben anderen Dürren und Überschwemmungen war auch der Monsunregen im Jahre 1917 außerordentlich heftig mit extensiven Überschwemmungen in vielen Gebieten des Landes, während es 1972 zu einer kapitalen Dürre mit schweren Ernteausfällen kam. Die Dekade der dreißiger Jahre des 20. Jahrhunderts waren generell gekennzeichnet durch einen Regenüberschuss und Überschwemmungen, vor allem die Jahre 1933, 1936 und 1938 (Bhalme & Mooley 1980). Es ist interessant, dass die gleiche Dekade sog. Staubschüsseljahre [dust bowl years] in den Präriegebieten der USA und Kanadas waren. Über eine mögliche Fernwechselwirkung zwischen indischen Flutjahren und Dürre in der kanadischen Prärie wurde schon von Khandekar 2004 spekuliert.

Neben diesen unregelmäßig auftretenden Überschwemmungen und Dürren zeigt Abbildung 1 die jährliche Variabilität des Monsuns viele Jahre hintereinander, in denen auf ein Dürrejahr Jahre mit schweren Überschwemmungen folgten. Beispielsweise waren die Jahre 1941, 1972 und 1987 Dürrejahre, während die jeweils folgenden Jahre 1942, 1988 und 1987 durch Überschwemmungen gekennzeichnet waren. Diese Flut-Dürre-Sequenz scheint einen zweijährigen Rhythmus des indischen Monsuns nahezulegen, angetrieben durch die großräumigen Strömungsverhältnisse zwischen Atmosphäre und Ozeanen, und wurde von Terray (1987) und Anderen analysiert. Der hauptsächliche Mechanismus für dieses Phänomen scheint in der ENSO-Phase und seiner Entwicklung von El Nin?o (warm) zu La Nin?a (kalt) zu liegen. Die Jahre 1941, 1972 und 1987 waren El Nin?o – Jahre, die jeweils folgenden 1942, 1973 und 1988 dann Jahre mit einem La Nin?a.  El Nin?o – Ereignisse unterdrücken konvektive Vorgänge im Golf von Bengalen (Francis & Gadgil 2009), von wo Feuchtigkeit zu den nördlichen Regionen der Gangesebene und von dort weiter nach Nordwestindien entlang der Achse des Monsuntroges transportiert wird. Diese Trogachse etabliert sich bis Juli in einer von Südost nach Nordwest gerichteten Position und reicht vom Golf von Bengalen bis nach Nordwestindien in die an Pakistan angrenzenden Gebiete (siehe Abbildung 2). Ein paar Monsuntiefs über dem Golf von Bengalen unterstützen diesen Transport von Feuchtigkeit nach Nordwestindien und gelegentlich bis nach Pakistan hinein, meist während der Hochsaison des Monsuns, also etwa von Anfang Juli bis Mitte August.

Mögliche Gründe der Überschwemmung in Pakistan und Nordwestindien im Jahre 2010

Das El Nin?o – Ereignis im Jahre 2009, der zu einem der mildesten Winter in Kanada führte, ging im Frühjahr 2010 zu Ende. Im Juni 2010 entwickelte sich im äquatorialen Pazifik eine La Nin?a – Situation (Kaltphase der ENSO) die sich Anfang Juli verstärkte. Folgerichtig zeigte sich die Konvektion über dem Golf von Bengalen deutlich verstärkt, und zahlreiche Monsuntiefs [monsoon depressions] unterstützten die monsunale Strömung in den nordwestlichen indischen Subkontinent. In der dritten Woche des Juli 2010 unterstützte ein persistentes Tiefdruckgebiet über dem Teilstaat Rajasthan in Nordwestindien zusätzlich den Feuchtetransport bis nach Nordwestpakistan, was zu den schweren Regenfällen und Überschwemmungen dort führte. Nach den jüngsten Statistiken (bis zum 25. August 2010) des Indian Meteorological Departement erreichte die jahreszeitliche Regenmenge in den Teilstaaten in Nordwestindien schon jetzt über 125% des Mittelwertes.

 

 

Abbildung 2: Umrisskarte von Indien und Pakistan mit der mittleren Position der monsunalen Trogachse.

 

Es muss betont werden, dass es in der Monsunzeit durchaus lokale Unterschiede gibt dergestalt, dass es lokale und/oder regionale Überschwemmungen in einigen Gebieten des indischen Subkontinents gibt, während gleichzeitig andere Gebiete unter einem Regendefizit leiden. Diese unterschiedliche Verteilung von viel/wenig Regen ist integraler Bestandteil der Monsunzeit, die nur sehr selten zu einer ausgeglichenen Verteilung des Regens in der gesamten Region führt. Während des regenreichsten Monsuns im Jahre 1961 gab es in Zentralindien 30% mehr Regen als im Mittel üblich, während die Gebiete im Nordosten (wo der regenreichste Punkt der Erde Cherrapunjee liegt) ein Regendefizit von 25% verzeichneten.

Abschließende Bemerkungen

Der rasche Übergang der ENSO – Phase von El Nin?o zu La Nin?a zwischen Frühjahr und Sommer 2010 scheint das Schlüsselelement für die Auslösung des gewaltigen Monsuns 2010 über dem indischen Subkontinent zu sein. Die La Nin?a – Phase war verantwortlich für die verstärkte Konvektion über dem Golf von Bengalen, wo sich viele Monsuntiefs bildeten. Diese Depressionen wanderten entlang der monsunalen Trogachse und transportierten sehr viel Feuchtigkeit nach Nordwesten, was zu den exzessiven Überschwemmungen führte. Lokale und regionale Faktoren wie z. B. die Topografie könnten die Auswirkungen der Flut in manchen Gebieten noch verstärkt haben. Eine Untersuchung der Klimatologie des Monsuns, dargestellt in Abbildung 1, legt nahe, dass die Überschwemmungen in Pakistan 2010, obwohl scheinbar beispiellos, noch gut in die natürliche Variabilität des monsunalen Klimas im indischen Subkontinent passen. Ein besseres Verstehen könnte es uns ermöglichen, die Vorhersage der Stärke des Monsuns zu verbessern. Damit können in Zukunft die Auswirkungen von Dürren und Überschwemmungen minimiert werden.

Link: http://icecap.us/images/uploads/MLK2010Pakistanfloods.pdf

Dr. Madhav L. Khandekar is a former Research Scientist from Environment Canada where he worked for about 25 years. Khandekar holds M.Sc degree in Statistics from India and M.S. and Ph.D. degrees in Meteorology from USA. Khandekar has been in the fields of atmosphere/ ocean/climate for over 50 years and has published over 125 papers, reports, book reviews, scientific commentaries etc. He has published over 40 peer-reviewed papers in various international Journals and authored a book on ocean surface wave analysis and modeling, published by Springer-Verlag in 1989. Khandekar is presently on the editorial board of the Journal Natural Hazards (Netherlands) and is a former editor of the journal Climate Research (Germany). He was an expert reviewer for the IPCC (Intergovernmental Panel on Climate Change) Climate Change Documents (AR4) published in 2007. 

Weitere Informationen zum Extremwetter vs Klima finden Sie hier (englisch) 

Übersetzt von Chris Frey für EIKE




Climategate Update 3: Der Skandal der nicht stattgefunden haben darf! Sand in die Augen der Öffentlichkeit gestreut – Der Muir-Russell-Bericht ist Propaganda.

Das These vom menschengemachten CO2-verursachten Temperaturanstieg ist bis heute unbewiesen, trotz der Milliarden Dollar an Forschungsmitteln. Es entfaltete dennoch auf vielen nationalen politischen Entscheidungsebenen, wie auch auf der UNO-Ebene eine einmalige Wirkmächtigkeit. Inzwischen zeigt sich jedoch immer deutlicher, dass nicht alle Industriegesellschaften bereit sind, die in ihrer Höhe noch unabsehbaren wirtschaftlichen und wohlstandsvermindernden Folgen einer unbegründeten CO2-Vermeidungsstrategie zu tragen. Dies vor allem in den USA und bei den aufstrebenden asiatischen Wirtschaftsmächten China und Indien. Die Veröffentlichung der E-Mails und der Daten lieferte für viele skeptischen Beobachter Beweise, dass die weltweit stark geförderte Politik der "Klimarettung" auf kaum begründbaren wissenschaftlichen Fakten beruht, viel mehr aber auf Glaubensgewissheiten.

Die wichtigsten Medien in Kontinental-Europa nahmen, anders als in den USA und Australien, die Sache auf die leichte Schulter: ein weitverbreiteter Tenor in Kommentaren war, die Veröffentlichung sei illegal, die wissenschaftlichen Ergebnisse nicht beeinträchtigt, das Theorem vom menschenverursachten Klimawandel sei nicht gefährdet.

Nichts ist falscher als das: Wer sich intensiv mit den veröffentlichten E-Mails befasst und den Kontext kennt, stellt fest, dass die Wahrheit anders beschaffen ist, als die Durchhalte- und Propaganda-Parolen der Parteigänger und Profiteure der Klimawandel-Politik glauben machen wollen. Eine Komplettdarstellung aller Emails und deren Kontext finden Sie hier

Durch die Veröffentlichung der E-Mails ist der wissenschaftliche Ruf der englischen University of East Anglia mit ihrem international bedeutenden Klimaforschungsinstitut CRU schwer angeschlagen worden. Drei Untersuchungsausschüsse befassten sich mit dem Thema: zuerst der Ausschuss für Wissenschaft und Technologie des britischen Unterhauses, dann zwei von der University of East Anglia eingesetzte Ausschüsse: (1) ein Komitee unter Lord Oxburgh (siehe auch hier) zur Überprüfung der wissenschaftlichen Arbeitsergebnisse der CRU (Scientific Assessment Panel – SAP), (2) ein Gremium unter Sir Muir Russell zur Beurteilung des wissenschaftlichen Verhaltens der CRU Klimatologen (Independent Climate Change Email Review – ICCER). 

Nach kurzer Untersuchungszeit wusste das Oxburgh-Team bereits, dass die wissenschaftliche Arbeit der CRU "tadelsfrei" sei. Bald stellte sich heraus, dass nur einige gezielt ausgesuchte und kaum angreifbare wissenschaftliche Papiere begutachtet worden waren, nicht die brisanten Papiere, die als grundlegend für das Theorem vom menschengemachten Klimawandel angesehen werden können. So wurde die Oxburgh-Untersuchung bald als Farce erkannt.

Anders verhielt es sich mit der Arbeit des Muir-Russell-Gremiums. Das Team arbeitete länger und vorgeblich tiefer schürfend als das Oxburgh-Team. Der Muir-Russell-Bericht lag Anfang Juli 2010 vor. Das Dokument umfasst 160 Seiten, unter Einbezug der Anlagen und der veröffentlichten Eingaben von Betroffenen und Kritikern kommen mehrere Hundert Seiten zusammen.

Sich im Einzelnen damit zu beschäftigen kostet viel Zeit, auch deshalb, weil der Bericht schlecht strukturiert ist. Für die weitaus größte Zahl der Beobachter und Leser scheint die zu Beginn des Berichts stehende Management-Zusammenfassung der Untersuchungsergebnisse ausreichend zu sein. Darin stehen aber nur Urteile, die vorab schon festzustehen schienen.

Der Vorurteils-Charakter zeigt sich bei kritischer Analyse des Berichts und der Arbeit des Teams. Die Anschuldigungen und die damit verbundenen Sachverhalte wurden nur angesprochen, aber nicht wirklich untersucht. Die wichtigsten Skeptiker erhielten kein Gehör, wohl aber die Betroffenen. Dem Team genügten die Einlassungen der Angeschuldigten zu generellen Entlastungen. Eine tief gehende unparteiische Untersuchung war die Muir-Russell-Veranstaltung nicht. Entsprechend liegt das Ergebnis auf der gleichen Linie wie der Bericht von Lord Oxburgh: Das Verhalten der englischen Klimatologen sei insgesamt nicht zu beanstanden – abgesehen von ein paar kleineren tadelnswerten Vorgängen. Eine Farce kann Sir Muir Russells Untersuchung nicht genannt werden, wohl aber eine umfangreiche und geschickt aufgemachte Weißwaschung! Die Urteile sind Behauptungen, nicht Ergebnisse vorurteilsfreier Untersuchungen!

Auch englische Politiker haben inzwischen gemerkt, was es mit den angeblich "unabhängigen" Untersuchungsausschüssen – eingesetzt vom Betroffenen, der University of East Anglia – auf sich hatte: Es waren mit dem Attribut der "Unabhängigkeit" getarnte Selbstreinigungsversuche im Sinne einer Standesjustiz. Die Universität urteilte über sich selbst und ihre Professoren frei nach Grundsatz: "Wright or Wrong? – My Country!"
Der Labour-Abgeordnete und promovierte Chemiker, Graham Stringer, brachte die Kritik an der  Einsetzung dieser Universitätsausschüsse auf den Punkt: "Das Parlament wurde hinters Licht geführt …!"

Helmut Jäger (EIKE) hat sich die Mühe gemacht, den Muir-Russell-Bericht zu analysieren. Die Analyse kann aus als pdf Datei im Anhang herunter geladen werden

Related Files




Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

1. Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

2 . Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

Teil 1

Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

Die Abbildung zeigt anschaulich den Wärmeinseleffekt (WI) über städtischen Gebieten gegenüber Land. Wie noch gezeigt wird, ist der WI in der Fläche (Land) ebenfalls nicht zu vernachlässigen, da vielerorts landschaftliche Veränderungen wie Trockenlegung stattfanden oder landschaftliche Nutzflächen geschaffen wurden.

Im komplexen Wetter- und damit Klimageschehen, gibt es eine Vielzahl von Parametern, die es zu berücksichtigen gilt, sollen die Entscheidungsträger in Politik, Wirtschaft und Gesellschaft ein klares Bild erhalten, welches geeignet ist, die richtigen Entscheidungen dahingehend zu treffen, dass die Weichen für unser Land und unsere Gesellschaft weiter in Richtung Wohlstand und Zukunftssicherung gestellt werden. Eine Ausrichtung anhand eines einzigen Parameters, wie z.B. CO2 ist nicht nur grob fahrlässig, sondern zerstört auch die Perspektiven der nachfolgenden Gesellschaft, und damit das Wohl und die Zukunft unserer Kinder. Dass CO2 im Klimageschehen keine praktische Rolle spielt, hat EIKE schon in zahlreichen wissenschaftlich hinterlegten Artikeln dargelegt. Dass aber auch die vermeintlichen Beweise für eine postulierte anthropogene Erderwärmung, die Datenreihen, nicht das Halten, was der Betrachter erwartet – eine realistische Wiedergabe des Temperaturgeschehens der Gegenwart – wird über Climategate hinaus (EIKE berichtete darüber), der folgende Bericht darlegen.

Ein wichtiger Parameter, der in Temperaturzeitreihen zu berücksichtigen ist und in den Datenreihen diverser Institude, wie Hadley, GISS, aber auch dem DWD nicht berücksichtigt wird, ist der Wärmeinseleffekt (WI). Der WI beschreibt, wie sich die Veränderungen in Landschaft, Verstädterung und Bevölkerungszunahme auf die Temperaturen auswirken und damit vergleichende Temperaturaussagen beeinflussen und der WI, aufgrund seiner höheren Spreizung in der Gegenwart als in der Vergangenheit aus aktuellen Temperaturdaten herausgefiltert werden muss, da ansonsten falsche, zu hohe Temperaturwerte für die Gegenwart wider gegeben werden. Zum WI oder Urban Heat Island Effect (UHI), wie er in englischsprachigen Ländern genannt wird, gib es zahlreiche wissenschaftliche Untersuchungen (http://scholar.google.de/scholar?q=Urban+heat+influences&hl=de&as_sdt=0&as_vis=1&oi=scholart) oder hier (http://www.appinsys.com/GlobalWarming/GW_Part3_UrbanHeat.htm). Diese beschränken sich meist auf den amerikanischen Raum, wo das Thema, nicht nur in der Wissenschaft, breit diskutiert wird. Die Abbildung 1 gibt einen Überblick über die Wärmeinseln weltweit.

 

Abbildung 1 (Quelle: NASA) zeigt die Wärmeinseln weltweit, sowie deren Temperaturabhängigkeit (kleines Photo). “Es ist zu berücksichtigen, dass durch das Wachstum der Städte, der großflächigen Rodung von Wäldern und der Ausdehnung landwirtschaftlicher Produktionsflächen weiträumig Wärmeinseln geschaffen wurden, in deren Nähe die Messstationen heute deutlich höhere Lufttemperaturen registrieren.“ (Quelle: Uni Erlangen).

In den USA werden die Temperaturmessstationen des amtlichen Wetterdienstes einer unabhängigen Prüfung unterzogen, um deren Eignung, auch vor dem Hintergrund eines WI, zu ermitteln. 2009 fand eine abermalige Überprüfung der Temperaturmessstationen statt. Sage und schreibe ca. 61% der Messstationen zeigten ein Fehlerpotential von >2°C! Für eine Temperaturaussage, die von einer Erhöhung von Zehntel Grad Celsius pro Dekade ausgeht (IPCC-Prognosen), erübrigt sich die Aussage, dass solche Messstationen ungeeignet sind. Von insgesamt 1221 Messstationen, die das USHCN betreibt wurden 1003 überprüft. Es fand also keine Stichprobe, sondern mit 82% eine fast komplette Erfassung statt. Die Abbildung 2 gibt eine Übersicht der auditierten Messstationen und wie deren Bewertung ausfiel.

Abbildung 2 zeigt die Klassifizierung der über die USA verteilten Temperaturmessstationen. Die rote Farbe überwiegt eindeutig, Quelle: (http://www.surfacestations.org/).

Realitätsnahe Temperaturwerte geben Stationen wider, die abseits von Gebäuden, el. Anlagen oder sonstigen aktiven und passiven „Reflektoren“ platziert sind. Bei diesen Stationen fällt auf, dass keine nennenswerte Erwärmung über die letzten Jahrzehnte ausgewiesen wird, sondern lediglich ein schwacher Temperaturanstieg, wie er durch die gesteigerte Sonnenaktivität zum ausgehenden 20. Jahrhundert erklärt wird (Abbildung 3).

 

Abbildung 3 links zeigt die Messstation Orlando/Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als heute. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg über die letzten Jahrzehnte ausweist.

Die vermeintlich starke Erwärmung, besteht demnach aus Asphalt, Autos, Auspufföffnungen, Abfallanlagen, etc. Anhand der Abbildung 4 sind die Auswirkungen der Populationsdichte und der damit verbundenen Ausbreitung urbaner Besiedelung auf die Temperatur zu sehen, bzw. wie die Populationsdichte, also Städte ihr eigenes, deutlich wärmeres Temperaturprofil besitzen, welches mit der Ausbreitung und Technologisierung der Städte mit wächst, was nichts anderes bedeutet, als dass die höheren gemessenen Temperaturen zumindest teilweise auf dem WI beruhen, sowohl in den USA, als auch in Deutschland, wie noch gezeigt werden wird.

 

Abbildung 4 zeigt den WI nach Goodridge 1996 für Kalifornien. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht allein durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, indem sie Feuchtigkeit abgeben und damit Verdunstungskühlung erzeugen, sondern auf den zunehmenden Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt.

Vereinfacht gesagt, tritt folgendes ein, während z.B. vor 100 Jahren eine Messstation noch auf weiter, freier Flur angesiedelt war, wurde diese durch die Ausbreitung der Siedlungen eingeholt und liegt nun mitten in dieser Siedlung und deren Abwärme, was auf die Temperaturen nicht ohne Einwirkung bleiben kann. Ferner weiß jeder, dass es sowohl am Tag, als auch nachts, im Sommer wie im Winter, in Städten wärmer ist, als in der Umgebung. Bereits eine lokale Verschiebung der Messstationen zu städtischen Gebieten, würde also eine statistische Auswirkung in der Art bewirken, dass ein falsches Bild der tatsächlichen Temperaturwerte vorliegt, ein zu hohes. Die folgenden Abbildungen zeigen, wie durch das Aufstellen technischer Anlagen oder Gebäuden, der Temperaturgang der Messstation verfälscht wird und daher unbrauchbar für eine Langfristmittelwertaussage ist.

 

Abbildung 5 zeigt eine Temperaturmessstation in Perry, Oklahoma in unmittelbarer Nachbarschaft zur Feuerwehr. Dazu die Infrarotaufnahme, die zeigt, wie die Hauswand auf die Station rückkoppelt.

 

Abbildung 6 zeigt eine Temperaturmessstation in Glenns Ferry, Idaho in unmittelbarer Nähe einer Trafostation. Auch hier entlarvt die IR-Aufnahme, wie stark sich der Trafo erhitzt und auf die Station einwirkt.

 

Abbildung 7 zeigt eine Temperaturmessstation in Lampasas, Texas. Diese wurde in 2000 näher zu einer Radiostation positioniert, wodurch es einen deutlichen Temperatursprung gab (Datenreihe rechts, rote Linie).

Problematisch ist weiter die Tatsache, dass zunehmend Messstationen auf Flughäfen in die Datenfindung einer Mittelwerttemperatur einbezogen werden. Ihr Anteil stieg von wenigen % in den 1930-Jahren auf über 40%. EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/100420_GISS_METAR_DE.pdf). Ein eklatantes Beispiel, über den Wert dieser Messstationen zeigt Ihnen die Abbildung 8. Sie ist jedoch nicht die Ausnahme,  wie wir am Beispiel der Wetterstation auf dem Frankfurter Flughafen zeigen werden.

Abbildung 8 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld.

Es erübrigt sich jeder Kommentar zur Güte dieser Messstation. Auch wenn andere Messstationen auf Flughäfen nicht so eklatant falsch aufgestellt wurden, es bleibt die Tatsache, dass Verkehrsflugzeuge über ihre sehr heißen Abgase aus ihren Triebwerken, ihre nähere Umgebung erwärmen. Je höher das Flugaufkommen und dieses steigt bekanntlich von Jahr zu Jahr (von kleinen Rückgängen in Wirtschaftskrisen abgesehen), desto mehr Flugbewegungen, desto mehr Abwärme und desto stärkerer Einfluss des WI auf die örtlichen Temperaturen und dies alles vor dem Hintergrund, dass sich der Anteil der Flughafen-Messstationen im Datenerfassungsnetzwerk ständig erhöht und derzeit bei 41% liegt.

Dass der WI nicht auf die USA beschränkt ist, braucht nicht gesondert dargelegt zu werden, da physikalische Auswirkungen überall auf der Welt gleich sind. So zeigt denn die Abbildung 9, die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland (Rheingraben). Deutlich ist erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Die Abbildung zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

  

Abbildung 9 zeigt den WI für Städte in Asien, USA, Europa und für Siedlungen im Rheingraben, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003.

In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen (Abbildung 10). Bei Änderungen von geringen Bevölkerungsdichten ist der WI proportional am stärksten, d.h. hier tritt die größte Erwärmung in Relation zur prozentualen Veränderung der Bevölkerungsdichte auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren prozentualen Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Aspekt, warum die gemessenen Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts zunahmen.

  

Abbildung 10 zeigt den WI-Temperaturantrieb in Abhängigkeit der Bevölkerungszunahme. Die Beziehung ist nicht linear, unterhalb von 1.500 Einwohner/km2 ist der WI-Anstieg ganz besonders ausgeprägt.

Wie sieht es nun mit dem WI in unserem Land aus? Nach unserem Kenntnisstand misst der DWD an 531 Stationen Lufttemperatur und- feuchte. Von den 531 Stationen sind die meisten sog. nebenamtliche Stationen, die nicht von DWD-Personal betreut werden.  Der DWD gibt auf seiner Internetseite an, dass das Hauptamtliche Netz aus 182 Wetterwarten und Wetterstationen, 48 davon 24-stündig mit Personal besetzte Wetterwarten, darunter 16 Flugwetterwarten an internationalen Verkehrsflughäfen, 28 davon zeitweise mit Personal besetzte Wetterwarten, 106 davon vollautomatische hauptamtliche Wetterstationen incl. zwei unbemannte Feuerschiffe, zwei Leuchttürme und drei Bojen/Baken besteht (Stand: 10.06.2010). Abbildung 11 zeigt die Übersicht.

 

Abbildung 11 (Quelle: DWD) zeigt Lage und Art des Hauptamtlichen DWD-Messnetzes.

Sind alle Messstationen des DWD so aufgestellt, wie die Messstation in Abbildung 12, so wäre der WI sicherlich nur ein untergeordneter Parameter in Deutschland zur vergleichenden Temperaturaussage, sofern sich am Landschaftsbild nichts änderte. D.h. keine Waldrodung, bzw. Trockenlegung von Wiesen für Ackerland stattfand, da bekannt ist, dass Wald und Feuchtgebiete viel Wasser an ihre Umgebung abgeben und durch die dabei entstehende Verdunstungskühlung (Prinzip einer Klimaanlage) mildernd auf das Temperaturprofil wird. So stieg z.B. durch die weiträumige Trockenlegung des Rheingrabens um Karlsruhe das Temperaturprofil vergleichsweise stark an, was auf diesen Effekt, zumindest teilweise, zurückzuführen ist.

 

Abbildung 12 zeigt Lage und autom. Messstation des DWD in Lügde-Paenbruch.

Es braucht jedoch nicht lange gesucht zu werden, um eine gänzlich ungeeignete Messstation zur Mittelwertangabe der Temperaturen zu finden. Dies ist die im April 2009 (kein Aprilsscherz) in Betrieb genommene Wetterstation in Offenbach, Abbildung 13.

Abbildung 13 zeigt die DWD Wetterstation in Offenbach am Tag ihrer Einweihung. Gut zu sehen, dass sie in Mitten einer Häuserfront liegt, die aus einer dunklen Betäfelung besteht (also sehr wärmeabstrahlend ist – „Schwarzkörper“) und darüber hinaus noch gegenüber einer wärmeverspiegelten Glasfläche liegt. Dazu noch unter einer Betonüberdachung, die die Hitze staut. Diese Messstation taugt weder für eine Temperaturaussage, noch für eine sachgerechte Mittelwertbildung. Weiter ist es schon eigenartig, dass eine solche Messstation, die nur ein stark überhöhtes Temperaturprofil ausweisen kann, gerade im Kopenhagen-Jahr 2009 in Betrieb genommen wurde. Wir erinnern uns noch an die vollmundige Aussage von Prof. Rahmstorf und Kollegen, dass 2009 das zweitwärmste Jahr seit mehr als 130 Jahren gewesen sein soll. Sollten in die Berechnung Ergebnisse wie von dieser Station eingeflossen sein?

Die nächsten Abschnitte werden aufzeigen, dass der WI, den der DWD in seinen Mittelwerten der Temperatur weitgehend nicht berücksichtigt, also unbeachtet lässt, auch in Deutschland keine vernachlässigbare Größe darstellt. In persönlichen Mails (an Herrn Kowatsch), räumt der DWD für Städte wie Frankfurt zwar einen WI-Antrieb von 1°C ein, geht aber davon aus, dass dieser in der Fläche umgerechnet nicht mehr als 0,1°C liegt, was, wie gezeigt wird, eine Falschaussage ist.

Herr Müller-Westermeier vom DWD, Zitat: “Natürlich gibt es einen Wärmeinseleffekt in großen Städten. Er kann dort im Mittel auch etwa 1 Grad ausmachen.  In Anbetracht des auch in Deutschland geringen Anteils dicht bebauter Gebiete an der Gesamtfläche ist das aber weniger als 0,1 Grad. Dieser Effekt ist auch nicht neu und hat sich in den letzten Jahrzehnten kaum verändert, so dass der  Wärmeinseleffekt für irgendwelche Temperaturveränderungen in den letzten Jahren völlig ohne Belang ist.“ Zitat Ende.

Auf den Nenner gebracht, ist der WI die Aufheizung der Umgebung durch den Menschen. Feiner ausgedrückt durch sozio-ökonomische Einflüsse. Wie die Abbildung 9 zeigt, tritt er global auf und verursacht regional erhebliche Verzerrungen im Temperaturprofil und wirkt somit statistisch global als eine deutliche Erwärmung. Er ist keine allgemeine Temperaturerwärmung durch klimatische Veränderungen, sondern eine Zusatzerwärmung der Orte, die durch den Menschen besiedelt wurden. Die Auswirkungen der Zivilisation, wie Landschaftsveränderung und Technologisierung spielen dabei dominante Rollen. Er ist dem natürlichen Klimatrend überlagert und schwächt Kälteperioden ab, bzw. verstärkt Wärmeperioden. In beiden Fällen verfälscht er statistische Vergleiche, insbesondere, wenn vermehrt Stationen in städtischen Gebieten verwendet werden, erheblich. Siehe http://www.eike-klima-energie.eu/news-anzeige/cimategate-update-12-cru-jones-gibt-zu-nur-10-bis-20-der-weltflaeche-zeigten-erwaermung/?tx_ttnews[cat]=1&tx_ttnews[pS]=1262300400&tx_ttnews[pL]=2678399&tx_ttnews[arc]=1&tx_ttnews[pointer]=1 oder hier http://www.eike-klima-energie.eu/news-anzeige/in-erwartung-eines-us-amerikanischen-temperatur-gate/?tx_ttnews[cat]=1&tx_ttnews[pS]=1264978800&tx_ttnews[pL]=2419199&tx_ttnews[arc]=1

In den Städten ist der WI-Wert am größten (der DWD räumt, wie bereits erwähnt, in Städten 1°C ein, Mail an Herrn Kowatsch), auf dem Lande ist der WI kleiner, aber vorhanden. Die Wetterstationen messen diese Zusatzerwärmung zwangsläufig automatisch mit, vor allem, weil sie sich oft in bebauten Gebieten befinden. Da der WI keine sprunghafte, sich plötzlich ändernde Größe darstellt, wie z.B. Wetterereignisse, wird sein Einfluss nicht wahrgenommen und unterschätzt, was jedoch nicht als Entschuldigung für den DWD gesehen werden kann, den WI zu nicht zu berücksichtigen, wie wir noch zeigen werden.

Ein Beispiel vorweg: Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9 Grad, bei der Ostalbwetterwarte in Neresheim im Süden Deutschlands nur 8,1 Grad, obwohl sich diese Station nicht außerhalb von Neresheim, sondern in einer Siedlung und dort an einem Südhang befindet. Ein Unterschied in den Mitteltemperaturen von fast 4°C, der durch die Insellage Großbritanniens und damit milde Winter allein nicht erklärbar ist, aber vor dem Hintergrund des WI in Städten und im speziellen auf Großflughäfen, wie wir noch zeigen werden. Wem die Ostalbwetterwarte zu speziell ist, in 2009 lag die Mitteltemperatur in Deutschland bei 9,2°C, was immer noch einen Unterschied von fast 3°C ausmacht. Worauf dieser große Unterschied wesentlich beruht, werden wir unter “Temperaturmessstationen auf Großflughäfen“ (Kapitel 2) zeigen. Übrigens lag laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Dieser Differenzwert von ca. 2 ½ °C wird uns auch noch später, beim Flughafen Frankfurt Rhein-Main begegnen.

Dass Messdaten nicht WI-bereinigt werden, liegt nicht daran, dass es hierzu keine Verfahren gibt. Es gibt einfache Verfahren zur ungefähren Bestimmung des WI, die jeder selbst vornehmen kann. Jedoch gehört zu Ihrer Anwendung die genaue Kenntnis der Metadaten über der Zeit. Außerdem wurde bis heute kein standardisiertes, überall akzeptiertes und damit breit anwendbares Verfahren dafür entwickelt.

Beispiel (durchgeführt von Herrn Kowatsch):

Gemessen wird die Temperatur auf dem Schulhof nach einem vergleichbaren Verfahren. Die Schule selbst liegt am Ortsrand der Gemeinde Abtsgmünd. Anschließend begibt man sich mindestens 100 m entfernt auf eine Wiese, 10 Messungen ergeben den Durchschnittswert des WI für diesen Punkt, an diesem Tag und bei diesen bestimmten Tageswetterbedingungen. Die Messungen wurden ab Anfang Juni 2010 durchgeführt. Der Schulhof war stets wärmer als die Temperaturen 1m über dem Wiesengras. Stets konnte ein Durchschnitts-Wert für den WI bestimmt werden, der in der Größenordnung von einem Grad lag!

Korrekturverfahren für den WI werden jedoch bei den Wetterstationen selbst meist nicht angewendet. So kann es nicht verwundern, dass die einzelnen Leiter der Wetterstationen den speziellen Wärmeinseleffekt ihrer Station gar nicht kennen. Deshalb werden grundsätzlich die gemessenen Temperaturen ohne Korrekturen nach Offenbach zur Zentrale des Deutschen Wetterdienstes (DWD) weitergegeben und daraus die Mittelwerte für Deutschland errechnet. Und es ist leider nicht so, dass alle Stationen des DWD so aufgestellt sind, dass sie nicht durch WI-Fehler behaftet sind.

Der DWD geht bei der Aufstellung und Betrieb seiner Messstationen von folgenden Aufstelldingungen aus:

·   Die Hütte/Screen stehe unbeschattet auf dem Messfeld

·   Sie stehe in beachtlichem Abstand von Bäumen, Hecken und Gebäuden oder sonstigen Hindernissen (allg. Regel: Hindernisentfernung größer als zweifache Hindernishöhe)

·   Bei DWD-Messnetzen besteht die Forderung, dass die Messfühler sich in 2 m Höhe über dem Boden befinden. International üblich sind aber auch: 1,5 bis 2 m, z.B. bei der  “französischen Hütte“

·   Die Türöffnung der Messhütte weise nach Norden

·   Der Tritt vor der Hütte hat zur Vermeidung von unerwünschten Erschütterungen keinen Kontakt zum Aufbau (Gestell) der Thermometerhütte

·   Es hat keine (unbekannte) Ortsveränderung über die Zeit stattgefunden

·   Im Detail gelten die allgemeinen Aufstellbedingungen und Fehlerklassifizierungen des US Climate Reference Network Rating Guide

Wie sieht nun die Realität aus? Von den von uns überprüften DWD-Wetterstationen, sind für eine statistische Temperaturvergleichsmessung ca. 40% nicht geeignet. Insgesamt wurden 130 Stationen nach folgenden Kriterien überprüft, wobei mehrere hundert Photos ausgewertet wurden:

·         Zu nahe an Gebäuen, also reflektierenden Flächen. Als „Faustformel“ gilt der doppelte Abstand der Messstation zur Gebäudehöhe (siehe oben)

·         Verkehrsaufkommen, oder Parkplätze in unmittelbarer Nähe (Abwärme)

·         Messstation in bevorzugt warmen Gebieten (z.B. Innenstadt)

·         Messstation am Oberrand eines Steilhanges mit Sonnenlage (Aufwärme/Thermik verfälscht Ergebnis)

·         Messstation wird abgeschattet. Befindet sich nicht auf freiem Gelände

Hier fünf Beispiele nicht geeigneter Stationen für eine statistische Zeitreihenbetrachtung.

Welche Faktoren bestimmen den WI? Wärmeabstrahlende technische Systeme wurden bereits gezeigt (Abbildung 5 – 7).

Allgemeine Gründe sind die Zunahme der Bevölkerung, die Zunahme des Wohlstandes und die damit bedingte zunehmende Bebauung und die Zunahme des Energieverbrauchs. Hier im Einzelnen:

1)  Bebauung durch Gebäude und Versiegelung der Landschaft

  

Abbildung 19 zeigt den Tagesgang der Temperatur an einem sommerlichen Strahlungstag in Bodenhöhe für verschiedene Böden, nach Fezer 1975. Es fällt nicht nur auf, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, dass auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen liegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich. Die Gründe hierfür sind vielfältig:

–  Im Sommer speichert der verwendete Feststoff die tagsüber von der Sonne eingestrahlte  Wärme (spezifische Wärmekapazität der Stoffe) und gibt sie nachts ab, die Bebauung erwärmt somit die Umgebung.

–  Wenn es regnet, fließt Regenwasser sofort ab und erzeugt keine Verdunstungskälte.

–  Bäume und Pflanzen, die vor der Versiegelung der Landschaft angesiedelt waren, haben einen erheblichen Teil der Sonnenstrahlung für ihre Fotosynthese verwendet. Nur ein Teil der Sonnenstrahlung erreichte den Boden. Die Sonnenstrahlung wurde abgefangen, und in chemischer Form in den Pflanzen gespeichert. Die Versiegelung der Landschaft hält weltweit an, bedingt durch die Bevölkerungszunahme.

–  Zunahme des Wohlstandes in Teilen der Welt, vor allem auf der Nordhalbkugel.

Je weiter ein Land im Norden liegt, desto größer ist der Energieanteil, der zur Heizung benötigt wird. Deshalb steigt auch der Wärmeinseleffekt der Siedlungen, je weiter man nach Norden kommt. Dies ist sicherlich ein Aspekt, warum die gemessene globale Erwärmung umso größer ist, je weiter man nach Norden kommt. Über weitere Gründe der „Norderwärmung“ hat EIKE bereits berichtet (http://www.eike-klima-energie.eu/klima-anzeige/giss-streicht-temperaturdaten-aus-der-arktis-und-daten-der-wassertemperatur-in-den-suedlichen-ozeanen-um-die-antarktis/?tx_ttnews[pointer]=3)

2) Umwandlung natürlicher Feucht- und Waldgebiete in Nutzflächen.

Auch die freie, unbebaute Landschaft hat gegenüber dem Deutschland vor 100 Jahren eine Erwärmung erfahren, die auf dem WI beruht. Es handelt sich dabei nicht um eine statistische Umlegung des WI aus der Bebauung auf die Gesamtfläche des Landes,  wie der Deutsche Wetterdienst dies per Mail darlegt und eine genannte Schätzung von 0,1°C WI in der Gesamtfläche abgibt, sondern um einen realen, basierend auf Landschaftsumgestaltung, Wärmeinseleffekt.

Besonders wird dies im Rheingraben sichtbar. In den letzten 50 Jahren wurden Flussauen und Feuchtwiesen trockengelegt, wodurch z.B. die Herbstnebeltage verschwanden und der der Sonnenschein dadurch automatisch zunahm. Die Bebauung hat sich zudem in den letzten 50 Jahren verdreifacht. Über den größeren WI nimmt die Zahl der heißen Tage (Sommertage, >25°C) in direkter Abhängigkeit zu. Ein weiteres Gebiet ist die Bodenseeregion, die touristisch erschlossen wurde und ebenfalls landwirtschaftlich großflächig genutzt wird. Nach den geschilderten Prämissen sollte sich in beiden Regionen ein vergleichsweise großer WI in der Fläche zeigen, was auch der Fall ist, wie Abbildung 20 belegt.

  

Abbildung 20 zeigt die Änderung in der Zahl der Sommertage in Baden-Württemberg, Quelle: “Klimawandel in Baden-Württemberg, Fakten – Folgen – Perspektiven“ (2010), Ministerium für Umwelt, Naturschutz und Verkehr, nach den Daten des Instituts für Meteorologie und Klimaforschung, Karlsruhe. Deutlich ist zu sehen, dass exakt in den Regionen, in denen eine große Landschaftsveränderung (großflächige Trockenlegung, Bebauung, etc.) vorgenommen wurde und damit ein hoher WI entstand, die prozentuale Änderung wegen des WI besonders stark ausfällt.

So speichern mehrjährige Pflanzen durch ihr tiefes und ausgedehntes Wurzelwerk bis zu 5-mal mehr Regenwasser (S.d.W. 11/07, “Erde und Umwelt“) als Nutzpflanzen wie Weizen, Mais, etc. Die entsprechenden Flächen (in Deutschland betrifft dies etwa 50% der gesamten Landesfläche) können also im Minimum nur noch 1/5 der üblichen Wassermenge aufnehmen. Es ist nämlich nicht vorrangig die vielerorts angeprangerte Flächenversiegelung durch Bebauung (beträgt ca. 6% der gesamten Landesfläche in Deutschland), die für das vermehrte Abfließen des Regenwassers verantwortlich ist!

Die Auswirkungen, die die Abholzung auf den Wasserhaushalt und damit auf den Feuchtegehalt der Atmosphäre und damit wiederum auf Niederschläge hat, wird an folgendem Beispiel des Instituts für Angewandte Geologie der Uni Erlangen transparent: “Der beträchtliche Wasserumsatz aufgrund der pflanzlichen Transpiration wird durch folgende Werte verdeutlicht: So gibt beispielsweise eine ausgewachsene Sonnenblume pro Tag über 1 Liter Wasser an die Atmosphäre ab. Bei gutem Grundwasseranschluss kann in einem trockenheißen Sommer eine große Birke zwischen 400 und 700 Liter pro Tag verdunsten und eine 100-jährige Buche sogar 9.000 Liter pro Tag. Ein Quadratkilometer Buchenhochwald verdunstet im Sommer jeden Tag etwa 2.000.000 Liter und im gesamten Jahr etwa 360.000.000 Liter. Umgerechnet auf je 100 g Blatt-Trockenmasse benötigt pro Vegetationsperiode eine Tanne 7 Liter Wasser, eine Buche jedoch 74 Liter. Aus den eben genannten Zahlen wird ersichtlich, welch entscheidende Bedeutung die Wälder und hier vor allem die Laubwälder für die Erhaltung eines eingespielten Klimaablaufes besitzen.“ (Quelle: http://www.angewandte-geologie.geol.uni-erlangen.de/klima1.htm).

In den Tropen ist dieser Wert noch höher, so dass durch die Abholzung der Wasserhaushalt aus dem Gleichgewicht gerät und damit auch die Temperaturen verändert werden, was zu regionalen Dürre- und Hitzeperioden führt.

Größere Waldbestände, auch Moore und Sumpfgebiete wirken ausgleichend auf die Temperaturen an der Erdoberfläche, bei einer Verringerung dieser Vegetationsflächen gestaltet sich das Witterungsgeschehen daher extremer.

Der WI der freien Fläche ist demnach eine reale Größe. Er beruht auf Landschaftsumgestaltungen, welche die physikalischen Eigenschaften der Landfläche verändert haben. Die Trockenlegung und Verdichtung der Landschaft von zig-tausenden von km2 in den letzten 100 Jahren in Deutschland, siehe hierzu Spektrum der Wissenschaft, 08/06, S. 80, “Schwerlast auf dem Acker“ als entscheidenden Faktor.

Abbildung 21 (Quelle: Spektrum der Wissenschaft, 08/06, “Schwerlast auf dem Acker“) zeigt die Faktoren der Bodenverdichtung. Wortlaut S.d.W.: Einst erstklassige Ackerböden lassen heute pro Zeiteinheit höchstens noch ein Zehntel bis Hundertstel der Wassermenge versickern, die in einem ursprünglichen, lockeren Waldboden versickern würde. Selbst ein Tausendstel kommt vor.“ Der große Rest fließt ab! Er geht der Wärmeregulierung verloren.

Durch das schnellere Abfließen des Oberflächenwassers wird die Verdunstung in der freien Fläche entscheidend verringert. Feuchtwiesen, Tümpel, Weiher, Moore und nasse Talauen wurden in bäuerliche Leistungswiesen und Ackerland umgewandelt. Eine Trockenwiese heizt sich schneller auf als die zuvor dagewesene Feuchtwiese. Die Austrocknung des Waldes erfolgt von unten, nicht von oben.

Dieser Wärmeinseleffekt der freien Fläche wurde unseres Wissens bislang in der Literatur noch nirgends beschrieben oder berücksichtigt. Er ist jedoch, aus den bereits genannten Gründen, als nicht unerheblich einzustufen. In den letzten hundert Jahren ist die Weltbevölkerung von 1 auf ca. 6,7 Milliarden gestiegen. Die damit verbundene Versiegelung des Bodens behindert den Wärmetransport durch Verdunstung in die Atmosphäre. Das hat natürlich Auswirkung auf das regionale Klima und unter Umständen auch global, wenn man an die Rodung von Regenwäldern denkt.

Regionale Auswirkungen:

–  Durch das entzogene Wasser wurde die Verdunstungskühlung erniedrigt.

–  Die Nebeltage wurden weniger. Aus der feuchten Fläche bildete sich der Frühnebel, im Herbst. Vor allem im November waren die Talauen oft tagelang zu und die Sonnenstrahlung wurde wieder reflektiert. Weniger Sonne erreichte den Erdboden. In den letzten 10 Jahren sind aus meinem Heimatort (Kowatsch) die Nebeltage nahezu ganz verschwunden. Selbst im November lösen sich die Nebel spätestens am Nachmittag meist auf.

Vor diesem Hintergrund ist die Temperaturzeitreihe des DWD für Deutschland zu betrachten, Abbildung 22.

  

Abbildung 22 zeigt den Temperaturgang der Jahresmittelwerte*) in Deutschland von 1999  2009, Datenquelle: DWD. Dazu den 3-Jahres-Trend und den Dekadenmittelwert. Von einer Erwärmung in Deutschland ist nun wahrlich nichts zu sehen. Gleich viele Werte liegen unter, bzw. auf der Mittelwertlinie, wie über ihr. Derzeit fallen die Temperaturen und liegen unterhalb der Dekadenmittellinie, was auch für 2010 so bleiben wird. Nach den Temperaturzeitreihen des DWD ist es in Deutschland seit 10 Jahren um 0,7°C kälter geworden, gegenüber dem Maximalwert in 2000. Gegenüber dem Trend um gut 0,3°C. Anhand der Abbildung 3 (Teil 2, folgt in Kürze), die die Monatsmittelwerte bis August 2010 zum Vergleich 2009 zeigt, wird ersichtlich, dass in 2010 die Temperaturen weiter fallen werden!

*) Wir haben die Absolutwerte und nicht die Schwankungswerte, also die Anomalien dargestellt, weil wir uns an die Darstellung des DWD in seinen Jahresberichten halten möchten (siehe Abbildung 23 und 24), der ebenfalls die Absolutwerte wiedergibt.

Abbildung 22 zeigt weiter, dass ausgerechnet zum IPCC-Jahr 2007, als das IPCC politik- und medienwirksam seinen AR4 präsentierte, sich in Deutschland die Temperaturen von der globalen Temperaturentwicklung abkoppeln, siehe Abbildung 26, Teil 2. Während in 2006 und 2007 global die Temperaturen deutlich fallen, stiegen diese hingegen in Deutschland stark an. Gegenwärtig liegen die Deutschland-Temperaturen wieder auf dem Niveau der IPCC-Vorjahre. Erklären können wir Ihnen diese Diskrepanz zu den globalen Temperaturwerten nicht, da wir nicht wissen, welche Messstationen der DWD für die einzelnen Jahre zur Mittelwertbewertung herangezogen hat und welche Algorithmen er jeweils dabei verwendete.

In 2007 waren die Informationsaussagen des DWD erklärungsbedürftig. So veröffentlichte er in seinem Jahresbericht 2006, welcher im April 2007 (kurz nach dem AR4 oder sollen wir sagen, passend zum AR4) präsentiert wurde, auf dem Titelblatt die folgende Abbildung.

  undefined

Abbildung 23 (Quelle: Jahresbericht 2006, DWD, Deckblatt) zeigt Deutschland, davor eine Temperaturkurve, die zur Gegenwart hin plötzlich sehr stark ansteigt und bei dem Temperaturwert von 12,0°C verharrt. Anmerkung: wie sich die Temperaturen in der Realität entwickelten, zeigt Abbildung 22. Die erklärungsbedürftige Abbildung vom Deckblatt wird im Jahresbericht an keiner Stelle auch nur ansatzweise kommentiert, nicht einmal erwähnt! Beim Betrachter wird indes leicht der Eindruck erweckt, dass die Temperaturen in Deutschland dabei sind, alle Rekorde zu brechen, was, wie die Abbildung 22 belegt, gegenteilig der Fall ist. Im Jahresbericht 2006 findet sich auf Seite 5 dann die korrekte und auch beschriebene Zeitreihe, die allerdings längst nicht so spektakulär aussieht (Abbildung 24).

  

Abbildung 24 zeigt die Jahresmittelwerttemperatur*) in Deutschland von 1900 – 2006, Quelle: Jahresbericht 2006, DWD, Seite 5. 2006 lag die Temperatur im Mittel bei 9,5°C und damit 1,3K über dem klimatologischen Referenzzeitraum 1961 – 1990 von 8,2°C, wobei dieser Durchschnitt in einer Kälteperiode liegt (wir erinnern uns noch an die Aussagen aus Politik und Wissenschaft zur bevorstehenden Eiszeit in den 1970-Jahren) und damit vergleichsweise niedrige Referenzwerte liefert. Das Chart sieht lange nicht so spektakulär aus, wie Abbildung 23 (unkommentiert!) vom Titelblatt. Der Wert von 9,5°C deckt sich mit den Werten, die der DWD uns zur Verfügung stellte.

*) Die Kurve ist hinsichtlich der Absolutwerte wenig aussagefähig, da Deutschland heute andere Grenzen als 1900 hat (in der Fläche noch die Hälfte), Messorte sich änderten, der Wärmeinseleffekt einfließt u.v.m. Vor 1900 wurde darüber hinaus in Süddeutschland nicht nach Celsius, sondern nach Réamur gemessen.

Als kleiner „Nachhilfeunterricht“ für den DWD haben wir die AMO-Zeitreihe (Atlantik Multidekaden Oszillation – gibt die Oberflächentemperatur im Nordatlantik wieder) von 1880 – 2000 hinzugefügt. Werden nun deren Schwankungen mit dem polynomischen Trend verglichen, den der DWD in seiner Abbildung zeigt, wird deutlich, dass dieser im Gleichklang mit der natürlichen AMO, die von der Sonne moderiert wird, ist. Fällt die AMO, so dreht der polynomische Trend und wird negativ. Steigt hingegen die AMO wieder an, dreht der polynomische Trend erneut und wird positiv.

Es kann nun wirklich nicht verwundern, dass in Deutschland die Temperaturen von der Windströmung abhängen, insbesondere von der Westwindströmung vom Atlantik. Abbildung 25 zeigt deutlich, warum die Temperaturen in Deutschland in den 1970-Jahren zu steigen begannen.

  

Abbildung 25, Quelle: Sächsisches Landesamt für Umwelt und Geologie, zeigt die West-Wetterlagen im Sommer- und Winterhalbjahr im Zeitraum von 1881 – 2000. Deutlich ist zu erkennen, dass seit Beginn der 1970-Jahre die West-Wetterlagen im Winter stark zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Zunahme der West-Wetterlagen im Winter und Abnahme der West-Wetterlagen im Sommer bewirken, dass in Deutschland die Temperaturen steigen. Im Winterhalbjahr mildere Winter und im Sommerhalbjahr mehr Sonne, wie Abbildung 26 zeigt.

  

Abbildung 26 zeigt die mittlere Sonnenscheindauer in der alpinen Region, Quelle: (http://mitglied.multimania.de/nature2000/wkr128.htm). Der polynomische Trend stimmt mit dem der Abbildung 24 überein. Die Sonnenscheindauer begann in den 1970-Jahren zuzunehmen, bis zum Beginn des 21. Jahrhunderts, parallel zur Erwärmungsphase. Seitdem fällt die Sonnenscheindauer und es wird wieder kälter. Eigentlich triviale Zusammenhänge, die dem DWD offensichtlich als Erklärung des gegenwärtigen Temperaturniveaus nicht einfallen. Auch hier haben wir zum Vergleich die Zeitreihe der AMO, diesmal in feinerer Auflösung (Quelle: http://www.cdc.noaa.gov/Correlation/amon.us.long.data) angeführt. Es fällt auf, dass jeweils die minimale Sonnenscheindauer (Minwert des dynamischen Trends) exakt mitten in der AMO-Kaltphase liegt und der Maxwert mitten in der AMO-Warmphase! Darüber hinaus wird eine Periodendauer von ca. 69 Jahren ersichtlich. Diese Periodendauer stammt von der Sonne und wurde von dem Astrophysiker Dr. Landscheidt beschrieben. Sie basiert auf Drehimpulsänderungen (Bahndrehimpuls und Eigendrehimpuls) der Sonne, wodurch deren magnetische Aktivität (mit) gesteuert wird. Eine Vertiefung des Themas würde an dieser Stelle zu weit führen.

Nach diesem kleinen Exkurs und „Nachhilfeunterricht“ für den DWD, was unser Wetter und die AMO lenkt, zurück zum Wärmeinseleffekt, der von verschiedenen Faktoren, von denen wir bereits einige aufzählten, abhängt.

3) Anstieg des Energie- und Stromverbrauchs

–  Die Anzahl der elektrischen Verbraucher in- und außerhalb der Gebäude hat sich in den letzten 50 Jahren ständig erhöht.

–  Europa ist heller geworden. Aufgrund des Wohlstandes hat die Anzahl der Beleuchtungsquellen zugenommen, was beispielsweise aus dem Weltall gut erkennbar ist (Abbildung 1). Die Anzahl der Beleuchtungskörper und Straßenbeleuchtungen hat sich dabei in den letzten 40 Jahren vervielfacht. Jeder Beleuchtungskörper gibt Wärme an die Umgebung ab. Für das Ausgangsjahr der Temperaturzeitreihe, 1880 ist die Stromerzeugung mit Null ansetzen, also auch kein WI-Effekt vorhanden. Das gleiche gilt für die anfallende Abwärme im Straßenverkehr.

–  Die Zunahme der Industrialisierung: Jeder Arbeitsprozess verschlingt Energie und erzeugt Wärmeabgabe.

Um Missverständnissen vorzubeugen. Hier geht es nicht darum, die Menschheit auf den Stand des 19. Jahrhunderts zurückzuwerfen, wie dies einige militante Klimaalarmisten mit sich tragen, sondern darum, aufzuzeigen, dass es nicht statthaft ist, unkommentiert Wetterdaten von vor hundert Jahren, mit denen von heute zu vergleichen.

Aus den genannten Gründen ist abzuleiten, dass der WI sich nicht auf Großstädte  beschränkt wie der Deutsche Wetterdienst behauptet, sondern generell bei Messergebnissen zu berücksichtigen ist.

Eine wertvolle Arbeit zur Erfassung des WI in Mitteleuropa und somit auch in Deutschland hat unlängst der renommierte Professor für Meteorologie und Klimatologie, Horst Malberg in der “Berliner Wetterkarte“ (http://www.berliner-wetterkarte.de/) veröffentlicht, “Über scheinbare und tatsächliche Klimaerwärmung seit 1850“. Anhand von Vergleichen am Regressionsparameter, also dem Temperaturanstieg von einer Dekade zur nächsten, von 5 Messstationen (Hochenpeißenberg, Berlin-Dahlem, Prag, Basel und Wien) ermittelte er den WI. Die Station Hochenpeißenberg, auf einer Höhe von 1.000m diente dabei als Referenzstation.

  

Abbildung 27 (Quelle: Prof. Malberg) zeigt den Temperaturanstieg an 5 Temperaturmessstationen in Europa von 1851 – 2000, dem Jahr, als in Deutschland nach Angaben des DWD die höchsten Temperaturen im Betrachtungszeitraum auftraten. Wie gesehen, fallen seitdem die Temperaturen deutlich.

Während die Referenzstation Hohenpeißenberg (Hpbg) einen Anstieg von +0,76°C seit dem Ende der “Kleinen Eiszeit“, der kältesten Periode der letzten 2.000 Jahre, ausweist, liegt der Temperaturanstieg in den Städten zum Teil deutlich höher. In Basel beträgt er +1,58°C. Prof. Malberg: “Diese unterschiedliche Erwärmung innerhalb eines Klimabereichs lässt sich nicht mit den Auswirkungen eines übergeordneten Klimaantriebs erklären. Es ist die lokale Situation, es ist der Wärmeinsel-Effekt der wachsenden Städte, der die natürliche globale/regionale Erwärmung „anthropogen“ verstärkt hat. Damit täuschen die Temperaturreihen eine Erwärmung vor, die z. T. deutlich über der natürlichen Klimaerwärmung seit 1850 liegt.“

Wie wir Ihnen anhand des Teil 2 zeigen werden, liegt der WI noch höher, da zunehmend Temperaturstationen auf Flughäfen in die Datenreihen einfließen.

Fazit:

Der Wärmeinseleffekt (WI) steigt ständig mit der Veränderung der Landschaft und der Gesellschaft. Die Temperaturmessstationen des DWD sind für eine vergleichende Temperaturaussage zum Großteil nur bedingt, bzw. nicht geeignet, da der DWD zum einen, seine eigenen Vorgaben zum Betrieb und Aufstellung von Messhütten nicht einhält und zum anderen, der DWD den vorhandenen Wärmeinseleffekt, der für den derzeit noch höheren Temperaturwert im Vergleich zum Langfristmittel verantwortlich ist, weitgehend unberücksichtigt lässt.

Teil 2 in Kürze

Josef Kowatsch

Raimund Leistenschneider – EIKE




Schwarz-gelbes Energiekonzept bringt 0,007 °C Erwämungsminderung bis 2050; aber ist Roadmap in die Armut des Mittelalters!

Die nur auf Vi­si­o­nen ba­sie­ren­den Ziel­vor­stel­lun­gen des Ener­gie­kon­zep­tes sind wohl­klin­gend. Dort heißt es:

„Das Ener­gie­kon­zept soll Leit­li­ni­en für eine sau­be­re, zu­ver­läs­si­ge und be­zahl­ba­re Ener­gie­ver­sor­gung for­mu­lie­ren und den Weg in das Zeit­al­ter der er­neu­er­ba­ren Ener­gi­en be­schrei­ben. Es ist eine lang­fris­ti­ge Ge­samt­stra­te­gie, die auf Grund­la­ge der Kli­ma­schutz­zie­le im Rah­men des Ziel­tri­as Preis­wür­dig­keit – Ver­sor­gungs­si­cher­heit so­wie Kli­ma- und Um­welt­schutz die er­for­der­li­chen kon­kre­ten Maß­nah­men in al­len in al­len wich­ti­gen Hand­lungs­fel­dern (Strom, Wär­me, Käl­te, Kom­mu­ni­ka­ti­on und Ver­kehr) fest­legt und da­mit al­len Ak­teu­ren Pla­nungs­si­cher­heit für In­ves­ti­ti­o­nen gibt.“

Doch schon bei ganz ober­fläch­li­cher Be­trach­tung er­gibt sich für jeden klar denkenden Menschen: Was hier be­schlos­sen wur­de, ist der si­chere Weg in tie­fe Ar­mut. Es ist eine Road­map di­rekt ins Pa­ra­dies der Öko­träu­mer, näm­lich ins Mit­tel­al­ter.

Es soll also die Ener­gie­zu­kunft des In­dust­rie­stand­or­tes Deutsch­land – so das Lip­pen­be­kennt­nis der Po­li­tik – für die nächs­ten 40 Jah­re si­chern. Um das fest zu ver­an­kern, ver­an­stal­te­te – Zu­fall oder nicht – be­reits einen Tag nach Ver­kün­dung im Ka­bi­nett, die CDU/CSU-Frak­ti­on ih­ren gro­ßen Kli­ma- und Ener­gie­kon­gress, auf dem Bun­des­um­welt­mi­nis­ter Rött­gen die­ses Ener­gie­kon­zept in ge­kürz­ter Form vor­stell­te. Es macht die in­zwi­schen gründ­lich wi­der­leg­te Kli­ma­schutz­prob­le­ma­tik zur Grund­la­ge.

Minister Rött­gen be­haup­te­te dazu vor fachkundigem Pub­li­kum und al­len Erns­tes, die zum Schut­ze des Kli­mas er­for­der­li­chen Maß­nah­men wür­den eine „Ener­gie­wen­de“ zwin­gend er­for­der­lich ma­chen.

Zu die­sem Zweck for­dert er eine CO2-Re­duk­ti­on der deutschen Emissionen ge­gen­über 1990 (1036 Mio t techn. CO2) und bis 2050 um min­des­tens 80 %, – bes­ser, so Rött­gen – 90 bis 95 %. Das be­deu­tet – und das ist auch Rött­gen und sei­nen Kol­le­gen klar – eine Re­duk­ti­on auf nur noch 207 Mio. t oder we­ni­ger (bei –95 % sind es 51,8 Mio t).

Im De­tail heißt das,

  1. kein fos­sil be­feu­er­tes Kraft­werk (ca. 45 % An­teil) mehr,
  2. kaum noch Trans­port über die Stra­ße (ca. 18 %)
  3. so gut wie keine In­dust­rie­-Produktion (ca. 10 %)mehr,
  4. keine Hei­zung in Häu­sern oder Woh­nun­gen mehr

Seine Kollegin Frau Höhn von den Grünen sprach das kürzlich auch ziemlich offen aus. Es sei denn, so hofft der Mi­nis­ter und mit ihm wei­te Tei­le des Par­la­men­tes, dass mit dem gleich­zei­tig ge­för­der­ten mas­siv er­höh­ten Ein­satz „Er­neu­er­ba­rer Ener­gi­en“ auf min­des­tens 80 % des Strom­ver­brau­ches, bei gleich­zei­ti­ger def­ti­ger Ab­sen­kung des ab­so­lu­ten Ver­brauchs (durch noch zu er­fin­den­de Ener­gie­ef­fi­zi­enz), der gröbs­te -selbst und bewusst her­bei­ge­führ­te- Man­gel ge­lin­dert wird. Das einzig Gute im Energiekonzept – die sehr moderate Verlängerung der Laufzeit der Kernkraftwerke- wird auch gleich wieder zu politischer Umverteilung missbraucht. Statt die Zusatzgewinne über deutliche Preissenkungen den Verbrauchern zugute kommen zu lassen, sollen sie fast vollständig „abgeschöpft“ und zur Förderung der „Erneuerbaren“ eingesetzt werde. Dafür  wird extra ein „Sondervermögen“ geschaffen, in das in 10 Jahren 30 Mrd € fließen sollen. Bezahlt von uns, vom Verbraucher.

Zur Verwirklichung der Vision von 80 % Erneuerbaren müs­sen jedoch di­ver­se Tech­no­lo­gi­en neu er­fun­den wer­den, von denen die meisten heu­te nicht mal im An­satz vor­han­den sind. An wenigen Bei­spielen sei das klar ge­macht. 1.Fehlende Groß-Speicher für elektrische Energie, 2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen, 3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Zu 1: Fehlende Groß-Speicher für elektrische Energie, Bedarfssteuerung (vulgo: Planwirtschaft)

Um die stark schwan­ken­den Wind- und So­lar­stro­mein­spei­sun­gen (de­ren Vor­rang­ein­spei­sung dau­er­haft fest­ge­schrie­ben wird) über­haupt ver­wend­bar zu ma­chen, müs­sen ge­wal­ti­ge CO2-freie Spei­cher er­fun­den und ge­baut wer­den. Elektrochemische Bat­te­ri­en kom­men da­für nicht in Fra­ge, wie die Fach­leu­te in den an­schlie­ßen­den Vor­trä­gen ka­te­go­risch er­klär­ten. Eben­so­ we­nig wie Gas­kraf­twer­ke, die zwar we­ni­ger CO2 pro kWh aus­sto­ßen, aber eben im­mer noch mas­sen­haft CO2 er­zeu­gen. Bleiben Pumpspeicherwerke, also das Hochpumpen großer Wassermengen in hoch gelegene Auffangbecken. Bei Be­darf wer­den dann de­ren Ven­ti­le ge­öff­net und die Was­ser­men­gen trei­ben beim He­run­ter­flie­ßen wie­der Turbogeneratoren und er­zeu­gen Strom.

Die Vor­tei­le die­ser Tech­no­lo­gie lie­gen in ih­rer schnel­len Re­gel­bar­keit und dass sie seit Jahr­zehn­ten erprobt und be­kannt sind. Aber die Nach­tei­le sind ge­wal­tig. Denn die Kos­ten sind enorm. Für nur 1000 MW Leis­tung, wie beim Pump­spei­cher­werk Gold­ist­hal/Thü­rin­gen müs­sen 600 Mill € ver­an­schlagt wer­den. Ein sol­ches Kraft­werk lie­fert dann 1000 MW über 8 Stun­den. Das sind 8000 MWh. Dann ist es leer. Die Um­wand­lungs­ver­lus­te sind zu­dem groß, man rech­net mit 20 %. Die To­po­lo­gie, die man dazu braucht, also die erforderliche Landschaftsform, gibt es nur an we­ni­gen Stel­len im Mit­tel- und Hoch­ge­bir­ge. Der Land­schafts­ver­brauch ist ge­wal­tig. Und das ist auch dem Mi­nis­ter gut be­kannt:

So schreibt er in sei­nem Eckpunkte-Kon­zept:

Abb. 1 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

und be­schreibt dann wei­ter die ge­wal­ti­gen An­for­de­run­gen an die Spei­cher, de­ren Lö­sun­gen nir­gends auf der­ Welt in Sicht sind:

Abb. 2 Zukünftige volatile Energieeinspeisungssimulation anch dem Eckpunktepapier des BMU zum Energiekonzept

Nun ha­ben wir ge­lernt, dass das größ­te deut­sche Pumpspei­cher­werk Gold­ist­hal ca. 8000 MWh oder 8 GWh lie­fern kann. Dann ist es leer. Um die ge­for­der­te Strom­men­ge aus Pump­spei­cher­wer­ken zu ge­ne­rie­ren be­nö­tig­te man – un­ter Nut­zung der obi­gen An­ga­ben (50-60 GW Leis­tung über 10 Tage ca. 12.000 GWh) nicht we­ni­ger als 1.500 Pump­spei­cher­wer­ke der Gold­ist­halklas­se. Men­gen­ef­fek­te ab­ge­rech­net, würde das allein etwa 800 – 900 Mrd. € kosten.

Wenn, ja wenn man denn nicht nur das Geld, sondern auch die Land­schaft da­für hät­te. Weil man die aber – für je­den er­sicht­lich – in Deutsch­land nicht hat, will man, so die heh­re Ab­sicht, Ver­hand­lun­gen mit Nor­we­gen(s. Auszug Interview WAMS mit Vahrenholt & Weber am Ende))  auf­neh­men, um es zu be­we­gen, die benötigte Land­schaft, ge­gen gu­tes Geld na­tür­lich, be­reit zu stel­len.

Abb. 3 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Nor­ma­le Phan­ta­sie reicht lei­der in kei­nem Fal­le aus, um da­raus eine verantwortbare po­li­ti­sche Vi­si­on oder gar Kon­zep­t zu ma­chen, dazu muss man wohl Po­li­ti­ker oder Kli­ma­apo­ka­lyp­ti­ker sein.

Bedarfsssteuerung

Da das aber auch nicht rei­chen wird, so schwant es den Po­lit­pla­nern, müs­sen Be­darfs­steu­e­run­gen her. Auf Deutsch, der Ver­brau­cher – also wir – wird ge­zwun­gen wer­den, sei­nen Ver­brauch – Ko­chen, Wa­schen , Be­leuch­ten – dem schwan­ken­den An­ge­bot an­zu­pas­sen. Nach­kriegs­er­fah­re­ne den­ken da so­fort an das böse Wort „Strom­sper­re“. Man wur­de um 3 Uhr mor­gens ge­weckt, um für kur­ze Zeit bei Licht ir­gend­ei­ne sinn­vol­le Tä­tig­keit für ei­ni­ge Stun­den durch­füh­ren zu kön­nen, ehe ei­nen wie­der tie­fe Dun­kel­heit um­gab und man zu­rück ins Bett kroch. Eine direkte Einführung einer Öko-Planwirtschaft ist damit unvermeidlich.

2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen

Weil also Pump­spei­cher­wer­ke – die ein­zig be­kann­te und er­prob­te Tech­no­lo­gie – ausscheiden, er­fin­den die Po­li­ti­ker mal eben so auf die Schnel­le neue Tech­no­lo­gi­en. Eine da­von heißt CCS. Das steht für Car­bon Ca­ptu­re and Sto­ra­ge. Man schei­det da­bei das bei bei der Koh­le- oder Gas­ver­bren­nung ent­ste­hen­de Koh­len­dio­xid ab, ver­flüs­sigt es und leitet es un­ter ho­hem Druck (ca. 100 bis 200 bar oder mehr an der Ein­fülls­tel­le) in un­ter­ir­di­sche Gas­la­ger­stät­ten. Die­ses Ver­fah­ren wird von den Kraft­werks­be­trei­bern als letz­te Ret­tung für ihre sonst vom Kli­ma­ver­bot be­droh­ten fos­sil be­feu­er­ten Kraft­wer­ke an­ge­se­hen. Sie for­schen also flei­ßig an die­ser Tech­no­lo­gie.

Der Vat­ten­fall-Vor­sit­zen­de für den Mi­ni­ng-Be­reich, Hart­muth Zeiß, be­zif­fer­te die an­fal­len­de CO2-Men­ge aus heu­ti­ger Sicht auf ca. 300 Mio t jähr­lich. Bei Umrechnung der Prozentangaben des BMU für die CO2-Emissionen im Jahre 2008 wären es nur für die Kraftwerke ca. 380 Mio t. Nimmt man noch das produzierende Gewerbe dazu (Bei der Produktion  jeder Tonne Stahl werden 2 t CO2 erzeugt) ergeben sich 465 Mio t CO2. Es sind also gewaltige Mengen, um die es da geht. Und das Jahr, für Jahr, für Jahr.

Die Kos­ten für die Ent­sor­gung bezifferte Zeiß auf etwa 35 €/MWh (= 3,5 Ct/kWh). Dies al­lein wür­de die Produktions­kos­ten des Stro­mes in etwa ver­dop­peln.

Ganz ab­ge­se­hen von der Ver­rin­ge­rung des Wir­kungs­gra­des der Kraft­wer­ke um ca. 10-15 Pro­zent­punk­te[1], was von ei­ner massiven Erhöhung der zu ver­feu­ern­den Brenns­toff­men­ge be­glei­tet ist, um die glei­che Strom­menge zu er­zeu­gen. (25 – 50 Prozentpunkte – Von ? = 45 % auf ? =  30 % à 150 % Kohleverbrauch, von ? = 45 %  auf ? = 35 % à   129 % Kohleverbrauch). Dies alles, so lässt es sich jedenfalls aus den Veröffentlichungen der DPG ableiten, erhöht die Stromerzeugungskosten um bis zu 250 %

Auch ab­ge­se­hen vom breit­flä­chi­gen er­bit­ter­ten Wi­der­stand der Men­schen ge­gen eine Ein­la­ge­rung, des als ge­fähr­lich eingeschätzten CO2-Ga­ses un­ter ih­ren Häu­sern. Wenn es denn ir­gend­wann und irgendwo wie­der nach oben kommen sollte. Denn CO2 ist 1,6 x schwe­rer als Luft. Es fließt wie Was­ser in die tiefs­ten Stel­len der Erdoberfläche und sammelt sich bei windschwachen Wetterlagen in Mulden und Tälern. Nie­mand sieht es, nie­mand riecht es, aber je­der at­met es u. U. ein. Und erstickt. Und zwar dann, wenn die Kon­zen­tra­ti­on ca. 5 Vol-% übers­teigt. Die­se Ge­fahr bes­teht so­lan­ge, wie das Gas un­ter­ir­disch ein­ge­schlos­sen ist, also u. U. tau­sen­de von Jah­ren. Damit entsteht ein neu­es – sehr, sehr viel grö­ße­res- End­la­ger­prob­lem. Dies­mal bun­des­weit und für alle Zeiten.

3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Die Hebung der Effizienz aller Prozesse ist ein vom Wettbewerb getriebenes Marktgesetz. Nur wer laufend seine Prozesse verbessert, sie optimiert, veränderten Bedingungen anpasst, etc. wird im Wettbewerb überleben. Das galt und gilt immer und nicht erst seit der Einführung des Energiekonzeptes. So sind sämtliche industriellen Prozesse einer ständigen Verbesserung unterworfen um Energie – und Materialeinsatz – also der Ressourcen – bis dicht an die naturgesetzlichen Grenzen zu führen. Doch auch da gilt, je weiter der Prozess schon optimiert ist, desto teurer wird die Verbesserung um jeden Prozentpunkt der Verbesserung. Ökonomen ist dieses Prinzip als das Pflückproblem der niedrig oder hoch hängenden Kirschen bestens bekannt. Die Effizienzsteigerung ist also immerwährend aber nicht beliebig fortführbar, aus naturgesetzlichen wie Kostengründen.

Abb. 4 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Doch das ist nicht die einzige Kritik, die sich das Energiekonzept gefallen lassen muß, so getan wird, als ob die Effizienzsteigerung beliebig weiter getrieben werden kann. Denn die Verbesserung der Energieeffizienz ist vor allem eine Folge des wissenschaftlich-technischen Fortschritts und des Wettbewerbs, die auch künftig wirken werden, deren Umsetzung in der Praxis aber mit immer höheren Kosten verbunden ist, denn „einfache“ Möglichkeiten des „Energiesparens“ wurden immer mehr bereits erschlossen. Jetzt geht es dagegen um die Entwicklung und Realisierung neuer unbekannter Technologien[2].

So sind die deutschen Stahlwerke noch die effizientesten der Welt, und trotzdem erzeugen sie (nur) 2 t CO2 pro Tonne Stahl. Besser geht einfach nicht. Nein, es ist ein anderes Phänomen, welches nicht berücksichtigt wurde. Je besser die Effizienz wird, desto größer wird die Anwendungspalette, desto billiger der Einsatz, desto mehr von jedem Produkt gibt es. So hatten die Kraftwerke vor 100 Jahren einen Wirkungsgrad von weniger als 10 %, heute von 50 %. Damals gab es nur wenige Kraftwerke, heute sind es Zigtausende weltweit. Das erste Automobil von Carl Benz 1885 hatte 0,8 PS und erreichte 18 km/h. Das Benzin musste alle paar Kilometer aus der Apotheke beschafft werden. Heute haben unsere Karossen einen Verbrauch von 6-8 l/100km, bei ca. 100 PS und einer max. Geschwindigkeit von 150 bis 180 km/h. Es gibt derzeit weltweit um die 500 Mio von ihnen und es werden immer mehr. Das gleiche gilt für fast alle anderen Bereiche, ob es um den Einsatz von Elektromotoren,  Stoffeinsatz für Flugzeuge oder deren Verbrauch und, und, und, geht. (Mehr dazu findet man im grandiosen Buch von Indur Goklany „The Improving State of The World“. Es tritt also das Gegenteil von dem ein, was sich die Planer von der Effizienzoffensive erhoffen. Es wird nicht weniger verbraucht, sondern mehr. Damit ist das „Energiekonzept“ als das entlarvt, was es ist: Eine Mogelpackung, die das ökologische Paradies verspricht, aber in Wirklichkeit das Tor zur Armutshölle weit aufstößt.

Doch da­mit das al­les, was „Energiekonzept“ steht, nicht zu Protest- oder und an­de­ren  Ver­wei­ge­rungs­hal­tun­gen oder gar Auf­stän­den führt, wur­de be­schlos­sen sog. „Kli­ma­schutz­ge­set­ze“ ein­zu­füh­ren. In die­sen sol­len alle Maßnah­men ge­bün­delt und ge­re­gelt wer­den, die zur Durch­set­zung die­ser und an­de­rer weit­rei­chen­der Plä­ne be­nö­tigt wer­den.

All dies und noch vie­les mehr wür­de dann zur Ab­sen­kung der CO2-Er­zeu­gung um die ge­wün­schten 80 bis 95 % füh­ren. Die Minderung des prognostizierten Temperaturantieges bis 2050 würde nach der IPCC-For­mel  maximal 0,007 °C betragen, nach der phy­si­ka­lisch sau­be­re­ren THE The­se nur noch 0,0017 °C *. Ein winziger, nicht messbarer ­Bei­trag und zugleich unwirksamer Beitrag den Deutsch­land da leis­ten würde. Zugleich würde eine gan­ze Volks­wirt­schaft im Her­zen Eu­ro­pas zerstört.

Abb. 5 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Schon Le­nin hat­te er­kannt wie man den Ka­pi­ta­lis­mus be­siegt: Zur Durch­set­zung des So­zi­a­lis­mus in ka­pi­ta­lis­ti­schen Län­dern be­darf es nur, de­ren Ener­gie­ver­sor­gung zu zer­stö­ren. Und auch auf deut­sche Ge­schäf­te­ma­cher wuß­te Le­nin kann man sich  auch ver­las­sen.“Und wenn schließ­lich auch der vor­letz­te Ka­pi­ta­list noch auf­ge­hängt wer­den soll, dann lie­fert und ver­kauft – kei­ne Sor­ge – der letz­te da­für noch den Strick! „

Michael Limburg  unter Mitarbeit von Dr. D. Ufer beide EIKE

Ergänzend zu PSW in Norwegen:

Interview Vahrenholt und Weber in „Die Welt“ vom 24.09.2010:

Weber: Ich hätte nichts dagegen, schon heute entsprechende Kapazitäten in Norwegen oder der Schweiz zu akquirieren.

Vahrenholt: Warum sollten die das machen? Zuerst einmal denken diese Länder naturgemäß an sich selber. Und auch dort ist es keineswegs selbstverständlich, für die deutsche Stromversorgung ein Tal zu fluten.

Weber: Ich bin sicher, wenn wir einen attraktiven Preis anbieten, dann wir man sich schon einig werden.

Vahrenholt: Ich habe früher als Hamburger Umweltsenator mit den Norwegern dazu Verhandlungen geführt, denn diese Idee ist ja nicht neu. Der Neubau von Pumpspeicherwerken zur Sicherung der Versorgung in Deutschland war für die Norweger undenkbar. Nur wenn mal Kapazitäten ungenutzt sein sollten, hätten wir diese nutzen können. Das reicht aber nicht. Doch bleiben wir ruhig im eigenen Lande. RWE baut gerade mit EnBW ein Pumpspeicherkraftwerk im Südschwarzwald. Ich sage Ihnen, da kommt Gegenwind von der gesamten Politik, auch von den Grünen, die ja den Bau eines solchen Speichers eigentlich begrüßen müssten. Wir haben vor zwei Jahren angefangen, und wenn alles gut geht, wird dieses Pumpspeicherkraftwerk 2017 einsatzbereit sein. Zehn Jahre – um nur ein einziges Pumpspeicherkraftwerk zu bauen. Da frage ich mich, woher Sie Ihren Optimismus nehmen und einfach so sagen, das wird schon gut gehen. Nein, es wird nicht gut gehen, wenn wir nicht höllisch aufpassen.

* siehe Berechnungsbeispiele im pdf Anhang: Klassenarbeit für die Obertertia

Ergänzende Links: Dr. Hans-Peter Krause:http://www.freiewelt.net/blog-2371/deutschlands-zentralverwaltungsstaatliches-energiekonzept.html

Fabian Heinzel: http://www.freiewelt.net/blog-2370/das-co2-und-der-soziale-kahlschlag.html


[1] (siehe Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010). Für die Erzeugung einer Kliowattstunde Elektroenergie müsste dann 25 bis 50 Prozent mehr Kohle verbrannt werden – wahrlich kein Beitrag zum rationellen Umgang mit fossilen Energieträgern! Hinzu kommt der ebenfalls nicht zu umgehende Anlagen-Mehraufwand (€/kW), bei dem – ebenfalls nach Angaben der DPG – mit Erhöhungen um 50 bis 130 Prozent zu rechnen ist. Aus beiden ergibt sich eine Erhöhung der Stromerzeugungskosten auf bis zu 250 Prozent!

[2] Im Energiekonzept wird eine Steigerung der „Energieproduktivität“  um durchschnittlich 2,1 % pro Jahr zwischen 2008 und 2050 angestrebt. Bisherige Entwicklung: 1990-2000: 2,18 %/a [darin Eliminierung der energieintensiven und wenig energieeffizienten Industrien Ostdeutschlands], 2000-2008: „nur“ 1,42 %/a. Daraus folgt: 2,1 %/a ist eine sehr ehrgeizige Zielstellung, sie ist wahrscheinlich nur erreichbar in Verbindung mit der erneuten Eliminierung energieintensiver Industrien! – Aus der genannten Zielstellung für die Steigerung der Energieproduktivität von 2,1 %/a zwischen 2008 und 2050 sowie der angestrebten Senkung des Primärenergieverbrauchs um 50 % im gleichen Zeitraum ergibt sich ein dem Energiekonzept zugrund liegendes Wachstumstempo des BIP von 0,4 %/a zwischen 2008 und 2050! Damit wird ein Miniwachstum postuliertZum Vergleich: BIP-Wachstum 1990-2000: 1,84 %/a, 2000-2008: 1,23 %/a! ), aber selbst das ist bei der bewussten exxtremen Drosselung aller energetischer Aktivitäten unter die Rubrik „Wunschdenken“ einzuordnen.

 

Related Files