Risiken der finanziellen Beteiligung an Windkraftanlagen

Wir legen hier einen Auszug des Anschreibens vor, das uns Herr Eckhard Raabe zur Veröffentlichung seiner kleinen Studie über die finanziellen Risiken der Windkraftinvestitionen zugesandt hat:

"Zu unserem Hintergrund: Wir sind ein Kreis von betroffenen Bürgern vorwiegend im Odenwaldkreis/Hessen, der vor allem der Windkraft  und der Photovoltaik als Energiequellen skeptisch gegenübersteht. Unsere Stärke besteht darin, dass in ihm ausgewiesene Fachleute, u.a. Ingenieure, vertreten sind. Bei dem Text über die Beteiligungsmodelle ist mein Beitrag vor allem redaktioneller Natur. Ich bin aber von den Beteiligten autorisiert worden, ihn mit meinem Namen zu zeichnen und im Namen des Arbeitskreises zu verbreiten."

Eike meint ergänzend zur Studie von Herrn Raabe:

1. Fonds und Finanzmodelle aller Art, d.h. Anlagen, auf die ein Investor keinen unmittelbaren Einfluss und Zugriff hat, neigen generell dazu, dass Gewinne in die Taschen der verantwortlichen Inhaber fließen, die Anteilseigner dagegen mit allfälligen Verlusten belastet werden. Das ist eine, jedem Fachmann geläufige Erfahrung.

2. Investitionen in Anlageformen, die nicht nachhaltig sind – auf dem freien Markt hätten erneuerbare Energien ihrer Unwirtschaftlichkeit wegen nicht den Hauch einer Chance, sie überleben nur auf Grund massiver staatlicher Subventionen – laufen große Gefahr, früher oder später zu platzen („Ökoblase“).

Die Redaktion

Related Files




Update: In eigener Sache: Fragen & Antworten zur Problematik globaler Lufttemperaturmessungen.

Update 22.10.11

Aus der soeben veröffentlichten  BEST Studie   (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal: 

Auszüge: 

Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.

Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.

Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei  

Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir-  mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"

Nun zu den Fragen/Kommentaren:

Leser Zuber schreibt:

Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.

Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006])  von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen.  Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.

Update: Leser Hader bemerkt dazu:

An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….

Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
 
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf  Seite 120 (6) [Assmann, 1892]  der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt.  Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.

Und Weischet [Weischet, 1995] S115 – S 109 ff  schreibt zur Temperaturerfassung für diesen Zweck:

„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die  Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“  

Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen-  fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat-  dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist.  Und beeinflusst damit die Energiebilanz erheblich.

Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.

Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.

Das sind also mehrere paar Schuhe!

Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.

Leser Hader schreibt weiter

… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.

Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922;  Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick

sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone.  Hier die Ergebnisse eine Feldversuches von Assmann 1989.

Abbildung 1 

Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.

Update: Leser Hader bemerkte weiter:

Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..

..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.

Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.

Zudem muss  eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber.  Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3]  unmittelbaren Einfluss.  

Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben.  Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.

Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.

Seetemperaturen:

Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr  ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht.  Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen  Trägheit des Wassers,  auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt.  Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.

Die Unsicherheit  der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:

A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.

Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte  von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.

Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Update: Leser Hader bemerkte weiter:

Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.

Antwort: Dazu hatte ich bereits  Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer  globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht.  GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.

Frage Leser Zuber:

Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.)  erhoben?

Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?

Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort-  und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren.  Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!

Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des  US-amerikanischen  Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben  Peterson  et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computed using a different technique. These are high quality rural stations taken directly from the U.S. Historical Climatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creation of the U.S. HCN and their adjusted time series were directly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is the preferred dataset because its stations are well distributed, mostly rural stations that were selected based upon their location and their station history metadata.“ (Hervorhebungen vom Autor)

Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high quality rural stations“, noch können sie „homogeneity adjusted“ sein. Wie stark sich die oben  geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.

Frage Leser Zuber:

Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)

Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung? 

Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5]  z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es  schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“

Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.

Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.

In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal  – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990-  gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.  

Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden.  Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.

Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.

Frage Leser Zuber:

Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?

Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.

Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden;  der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.

Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.  

Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus.  Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche  Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.

Frage Leser Zuber:

Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).

Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!

Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe  der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905  bis ± 0,08 °C  bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.

Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur  nach unten gewesen[8].

Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe,  dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen. 

Frage Zuber:

Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?

Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den  Arbeiten von Pat Frank [9], [10].

Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich.  Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.

Michael Limburg EIKE 21.10.11


[1] http://data.giss.nasa.gov/gistemp/abs_temp.html

[2] http://www.eike-klima-energie.eu/news-anzeige/von-korrelationen-trends-und-anomalien/

[3] http://www.eike-klima-energie.eu/news-anzeige/wie-falsch-sind-die-ipcc-temperaturberechnungen-gleicht-die-bildung-von-differenzen-anomalien-systematische-fehler-aus/

[4] http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html

[5] http://data.giss.nasa.gov/gistemp/abs_temp.html

[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]

[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815

[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.

[9] http://www.eike-klima-energie.eu/news-anzeige/teil-ii-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

[10] http://www.eike-klima-energie.eu/news-cache/teil-i-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

Related Files




Wasserkraft für Deutsche Bahn? Offener Brief an Vorstandschef Grube!

Auf der Website der Bahn finden wir erläuternd von Dr. Rüdiger Grube: „Klimaschutz ist uns ein sehr wichtiges Anliegen, denn die Bahn steht wie kein anderes Verkehrsmittel für umweltfreundliche Mobilität. Wir freuen uns, dass wir gemeinsam mit RWE unseren Bahnstrom noch ‚grüner’ machen und die CO2-Emissionen so weiter senken können. Damit kommen wir unserer Vision, die Bahnstromversorgung bis 2050 komplett auf regenerative Energien umzustellen, ein ganzes Stück näher.“

Dazu der offene Brief  von Prof. Dr.-Ing. Helmut Alt vom 19.9.11

An den Vorsitzenden des Vorstandes

Herrn Dr. Grube

Deutsche Bahn 

Stephensonstr. 1

60326 Frankfurt am Main 

Bahncard 50 Nr. 7081 4101 2185 2998 HX 969 bis 22.11.11.

Sehr geehrter Herr Dr. Grube, 

mit großem Verständnis habe ich die Notwendigkeit einer Preiserhöhung durch Wegfall der kos­tengünstigen bahneigenen Kernkraftwerks-Stromerzeugungsanteile zur Kenntnis genommen.

Kein Verständnis kann ich allerdings als bisheriger Dauer-Bahnfahrkunde dafür aufbringen, dass Sie sich so wenig bzw. überhaupt nicht zur Verteidigung der kostengünstigsten und in unserem Land sehr sicheren Stromerzeugungsart „Kernenergiestrom“ eingesetzt haben.

Entsetzt war ich, als Sie mit Stolz verkündeten, nun einen langfristigen Strombezugsvertrag mit RWE über Wasserkraftwerksstrom exklusiv für den Bahnbetrieb abgeschlossen zu haben und auf dessen Basis sogar wahrheitswidrig irgendwelche CO2 – Ersparnisse fiktiv errechnen und die nicht sachkundigen Bahnkunden so vorsätzlich in die Irre führen. RWE hat klug gehandelt und einen Teil seiner Wasserkraftstromerzeugung wertsteigernd an den Kunden: „Deutsche Bahn“ gebracht.

Tatsache ist, dass RWE noch nie auch nur einen einzigen verfügbaren Kubikmeter Wasser in ei­nem der zahlreichen Wasserkraftwerke der RWE AG an der Turbine vorbei hat laufen lassen und diesen nicht zur Stromerzeugung genutzt hätte. Nun gehört nur noch Ihnen dieser größere Anteil guter Wasserkraftwerksstrom und alle anderen RWE Kunden erhalten entsprechend mehr Kohle oder Kernenergiestrom.

Zum Dank dürfen diese dann, sofern sie nicht mit dem Auto, sondern mit der Bahn fahren, dem­nächst etwas höhere Preise für ihr Bahnticket bezahlen.  Welch einen Schwindel haben nun auch Sie sich, Herr Dr. Grube, zu Eigen gemacht?

Ich kann Ihnen versichern, dass ich bereits meine morgige Fahrt von Aachen zum KIT in Karlsruhe zu einer Konferenz über Energiefragen wieder mit dem Auto – anstatt wie bisher üblich mit der Bahn – tätigen werde. Bei weiter steigenden Bahnpreisen werden viele mir folgen.

Leider ohne Hoffnung, dass unsere derzeitigen Wirtschaftsführer und Politiker dieser Generation aus dem singulären deutschen Zeitgeist, nachdem einerseits „Energie zum Luxusgut erklärt wurde“ und anderseits die friedliche Nutzung der Kernenergie verteufelt wurde, wieder zur wahrheitsbasierten aufklärenden Verantwortlichkeit zurück finden, verbleibe ich,

mit freundlichem Gruß,

Prof. Dr. Ing. Helmut Alt

PS. Das Zurückfinden aus diesem Irrweg wird unseren Kindern zufallen, wahrscheinlich hat Herr Prof. Dr.C.C. von Weizsäcker die Situation treffend erkannt, als er mir kürzlich zu unserer derzeitigen Energiethema­tik u.a. folgendes schrieb:

 „.…Deutschland wird deindustrialisiert und die Chinesen lachen sich ins Fäustchen. Bei einem hinreichend weit ge­gangenen Verarmungsstand kommt dann vielleicht eine Wende in der Meinung“. 

Im Sinne der Nachhaltigkeit zu beachten ist auch der englische Politiker David Lloyd George:

"Jede Generation hat ihren Tagesmarsch auf der Straße des Fortschritts zu vollenden. Eine Generation, die auf dem schon gewonnenen Grund wieder rückwärts schreitet, verdoppelt den Marsch für ihre Kinder".

Dies sollten wir unseren Kindern wohl ersparen

Related Files




DWD beklagt erhebliche Störungen des Wetterradars durch Windräder!




Langzeit-Temperaturreihen, Stalagmiten und Baumringe widersprechen einer maßgebenden anthropogenen Erwärmung

Die von uns als pdf beigefügte Version des Artikels, inzwischen auch in ArXiv veröffentlicht, ist gegenüber der E & E Originalversion geringfügig erweitert und um neuere Literatur ergänzt, denn zwischen dem Einreichen der Arbeit und der Veröffentlichung durch E & E lag etwa ein halbes Jahr. Der Aufsatz ist, wie praktisch alle naturwissenschaftlichen Fachaufsätze, in Englisch. Wir geben hier nur eine kurze deutsche Zusammenfassung an. Englisch ist heute bekanntlich die „lingua franca“ der Wissenschaft, es gibt so gut wie keine wissenschaftlichen Fachaufsätze mit weiterer Verbreitung mehr in individuellen Landessprachen. Da die fachlichen Inhalte des Aufsatzes vorwiegend Physiker ansprechen, denen ohnehin Fachenglisch geläufig ist, verzichten wir auf eine Übersetzung ins Deutsche und bitten weiter interessierte Leser den Aufsatz im Original heranzuziehen. 

Übersicht und Inhaltszusammenfassung

Politik und Medien, gestützt durch das IPCC, betonen eine ungewöhnliche, rezente Temperatursteigerung der Erde, die maßgeblich durch anthropogenes CO2 verursacht sein soll. Zur Abhilfe weiterer Temperatursteigerungen, es wird sogar ein nur politisch als relevant anzusehendes Ziel von max. 2 °C angegeben, werden volkswirtschaftlich einschneidende CO2-Reduktionen propagiert (Energiewende). Treffen die Verlautbarungen vom gefährlichen Temperaturanstieg aber überhaupt zu? Können uns ferner Vergangenheitstemperaturen etwas über den gegenwärtigen Trend aussagen?

Bis höchstens 250 Jahre zurück gibt es nur fünf verlässliche lokale Monatsreihen der Nordhemisphäre, d.s. Hohenpeissenberg, Prag, München, Wien und Paris. Noch weiter in die Vergangenheit zurück stehen rekonstruierte Temperaturen zur Verfügung, vorwiegend aus Stalagmiten und Baumringen, meist als „Proxies“ bezeichnet. Die fünf Langzeit-Thermometerreihen zeigen im 19. Jahrhundert einen etwa gleich starken Temperaturabfall wie den sehr viel bekannteren Anstieg im 20. Jahrhundert. Nimmt man anthropogenes CO2 als Ursache des Anstiegs im 20. Jahrhundert an, entsteht ein Ursachenproblem für das 19. Jahrhundert. Tatsächlich sind die Ursachen beider Jahrhundert-Fluktuationen bis heute ungeklärt.

Die Arbeit unternimmt die Trendanalyse der fünf Langzeit-Thermometerreihen und ferner einer hochqualitativen Stalagmiten- sowie Baumring-Temperaturkurve. Ein Trend wird in üblicher Weise an Hand linearer Regression definiert. Die Größe ∆ [°C] (in dieser Arbeit, von einer Ausnahme abgesehen, stets über den Zeitraum von 100 Jahren) ist dabei der Temperatur-Anstieg bzw. -Abfall der Regressionsgeraden. Die relative Temperatur­änderung ∆/s, mit s als der Standardabweichung um die Regressionsgerade herum, ermöglicht schließlich den sinnvollen Vergleich unterschiedlicher Reihen und die Trendanalyse.

Der Vergleich der Thermometer- mit den rekonstruierten Reihen zeigt, dass letztere über rund 2000 Jahre lang oft weit stärkere ∆/s Maxima- bzw. Minima als die Thermometerreihen aufweisen. Die relativen 100-Jahres-Trends des 19. und 20. Jahrhunderts sind daher im langzeitlichen Vergleich völlig normal. Dieses Teilergebnis widerspricht bereits der Behauptung, die Erwärmung im 20. Jahrhundert sei ungewöhnlich.

Die allen Temperaturreihen innewohnende Autokorrelation (Persistenz) bewirkt, dass größere ∆/s Werte mit entsprechend höherer Wahrscheinlichkeit auf ganz natürliche Weise auftreten können. Damit sind sie aber nicht mehr von einem externen Trend zu unterscheiden, wie er z.B. durch UHI oder anthropogenes CO2 verursacht sein könnte. Mit der Detrended Fluctuation Analysis (DFA), mit Monte-Carlo-Simulation und mit Hilfe synthetischer Reihen ist es jüngst gelungen, aus dem ∆/s und dem sog. HURST-Exponenten einer Temperaturreihe quantitativ anzugeben, wie natürlich (zufällig) der gemessene ∆/s Wert der Reihe ist. Liegt die Wahrscheinlichkeit für Zufälligkeit unter einer definierten Vertrauensschwelle, wird ein externer Trend angenommen. Damit liegt erstmals ein quantifizierbares Unterscheidungskriterium zwischen „Zufall“ und „Trend“ vor. Es ist zu betonen, dass über Ursache und Art des evtl. vorhandenen Trends das Verfahren, das auch in der vorliegenden Arbeit verwendet wird, nichts aussagt.

Die Analyse zeigt, dass alle 5 Thermometerreihen einen externen Trend beinhalten. Im Gegensatz dazu enthalten die beiden Proxy-Reihen keinen Trend und sind zudem wesentlich stärker autokorreliert. Damit liegt ein Widerspruch zwischen den Thermometer- und den Proxy-Daten vor, der nicht ohne weiteres zu beseitigen ist. Die viel stärkere Autokorrelation der Stalagmiten- und Baumring-Reihen, die hier bis zu 600 Jahren Dauer nachgewiesen wurde, kann nicht durch Artefakte bei der Gewinnung dieser Temperaturdaten erklärt werden.

In der Arbeit wurde erstmals die Hypothese aufgestellt, dass die vorbeschriebene Diskrepanz durch einen niederfrequenten Klimaeinfluss der Sonne verursacht wird (sich änderndes Sonnenmagnetfeld). Die DFA-Analyse von Monatsreihen bis etwa 230 Jahren Länge kann grundsätzlich nur Autokorrelation bis höchstens 50 Jahre nachweisen. Ein langsamer Sonneneinfluss mit Änderungen, die sich erst über mehrere Jahrzehnte bemerkbar machen, wird daher automatisch von der DFA als „linearer Trend“ aus der Reihe entfernt. Dies ändert sich grundlegend mit der DFA-Analyse der 2000 Jahre langen rekonstruierten Temperatur-Reihen (Jahresmittelwerte im Gegensatz zu Monatswerten), in denen kein Trend aufgefunden wird. Die Analyse führt hier zu wesentlich höheren Wahrscheinlichkeiten starker ∆/s Fluktuationen, die in den beiden Proxies tatsächlich beobachtet werden. Mit anderen Worten: Der Sonneneinfluss ist in den Monats-Thermometerdaten ein (relativ langsamer) linearer externer Trend, der von der DFA bei der Analyse automatisch entfernt wird. Die Sonnenfluktuationen in den rekonstruierten Jahres-Daten sind dagegen jetzt Fluktuationen mit 12 mal so hoher Frequenz und werden daher von der DFA nicht mehr als langsamer Trend erkannt. Sie gehören zum Gesamt-Ensemble aller naturgegebenen Einflüsse, die die stärkere Autokorrelation (höheren HURST-Exponent) der rekonstruierten Reihen ausmachen. 

Um die Hypothese vom Sonneneinfluss zu überprüfen, wurde eine ca. 1500 Jahre lange synthetische Temperatur-Monatsreihe erzeugt, die die Autokorrelationseigenschaft der Thermometerreihen aufweist und dann mit der Sonnenfleckenreihe überlagert wurde. Die DFA-Analyse der synthetischen Reihe stützt die hier vorgestellte Hypothese. Sie zeigt ein Cross-Over der Autokorrelation bei etwa 60 Jahren und enthält damit sowohl das Autokorrelationsmerkmal der Thermometerreihen als auch der beiden rekonstruierten Reihen. Es darf daher vermutet werden, dass 100-Jahres-Temperaturanstiege oder -Abfälle vorwiegend auf den Einfluss des sich ändernden Sonnemagnetfelds zurückgehen und kaum mit anthropogenen Einflüssen zusammenhängen.

Das Ergebnis der Arbeit wird von jüngsten Veröffentlichungen gestützt, die keine Trendverstärkung zwischen der ersten und zweiten Hälfte des 20. Jahrhunderts auffinden. So heißt es beispielsweise in der Conclusion der Publikation „S. Lennartz, and A. Bunde, Trend evaluation in records with long-term memory: Application to global warming, Geophys. Res. Lett., Vol. 36, L16706 (2009)”:

Our result yields only weak support for the thesis that the trend in the last 50 years changed its character compared with the first 50 years, since only 1/3 of the records show a remarkable change.

Oder anders gesagt: Stimmt die Hypothese von einer maßgebenden Temperaturwirkung des anthropogenen CO2 (ein kleiner, im wes. unmaßgeblicher Erwärmungseffekt wird von niemandem bestritten), müsste der Erwärmungstrend in der zweiten Hälfte des 20. Jahrhunderts wesentlich stärker ausfallen als in der ersten Hälfte, denn da stiegen die CO2 Emissionen besonders stark an. Dies wurde von Lennartz/Bunde nicht aufgefunden.

In ihrer jüngsten Veröffentlichung „S. Lennartz, and A. Bunde, Distribution of natural trends in long-term correlated records: A scaling approach, Phys. Rev. E 84, 021129 (2011)” bestätigen die Autoren auf S. 7

We consider it as a surprise that the measured temperature increase in the records considered still does not show a significant trend on the 500-month scale

Michael Limburg EIKE

Related Files