„Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme“

Die Entwicklung des Globalklimas ist seit vielen Jahren ein Thema, das Wissenschaft, Öffentlichkeit und vor allem die Politik stark beschäftigt. Es wurde durch die Vermutung zum Thema, dass der Mensch durch die ungebremste Einspeisung von sog. Treibhausgasen, namentlich CO2, zu einer deutlichen Erhöhung der Globaltemperatur beiträgt. Dies sei für die Natur, aber auch die menschliche Entwicklung, schädlich. Dabei wird in aller Regel, wenn vom Globalklima gesprochen wird, dieses auf die Entwicklung der mittleren Globaltemperatur T reduziert. Im Gefolge der mit viel Aufwand errechneten Temperaturerhöhung des letzten Jahrhunderts, von im Durchschnitt ca. 0,7 ± 0,1 °C , wird die Befürchtung geäußert, dass diese Erwärmung Einfluss auf das Ansteigen des globalen Meeresspiegels nähme. Entsprechend werden Untersuchungen angestellt und veröffentlicht, welche die Entwicklung des Anstiegs eines globalem mittleren Meeresspiegels zum Inhalt haben. Darin wird festgestellt, dass dieser (über das ganze Jahrhundert) vermutlich mit einer Rate von ca. 1,8 ± 0,4 mm/Jahr gestiegen sei. Diese Rate, so wird geschätzt, hätte sich besonders im letzten Jahrzehnt des drastisch beschleunigt, d.h. um den Faktor 4, erhöht. Die Arbeit zeigt nun auf, dass es auf Grund der Art der vorhandenen Daten, deren Menge, Messmethoden und Mittel, sowohl bei der Temperatur, als auch beim Meeresspiegel nicht möglich ist die angegebene Genauigkeit darzustellen. Daraus folgt, dass alle darauf aufbauenden Schlussfolgerungen und Zuordnungen, von als wichtig erachteten Ursachen, im Bereich der Unsicherheiten liegen und damit ebenfalls nur sehr grobe Schätzungen sein können. Sie sind deshalb eher Vermutungen zu nennen und daher mit größter Vorsicht zu betrachten.

Summary

The development of global climate has been a topic of great discussion in science, the public, and foremost in politics for a number of years. It has been suspected that man has contributed significantly to an increase in global temperature by emitting so-called greenhouse gases, namely CO2. This is claimed to be harmful for nature and for human development. Here, as a rule, when global climate is discussed, everything gets reduced to the development of the mean global temperature. As a consequence of the temperature increase of approx. 0.7°± 0.1°C over the last century, which was calculated with great effort1, fear is now being expressed that this warming is having an impact on global sea level increase. Accordingly, studies are being carried out and published concerning the impacts a global mean sea level increase could have. It has been determined to have risen (over an entire century) at a rate of approximately 1.8 ± 0.4 mm/year. This rate, it is estimated, has accelerated dramatically especially during the last decade – by a factor of 4. This work shows that based on the type of available data, their quantity, and methods used, as is the case with temperature, it is not possible to give the sea level with an accuracy that is claimed. Thus the result is that all conclusions and correlations based on this data, which are from causes considered to be important, lie within the range of uncertainties and thus can only be regarded as very rough estimates. For this reason they can be only considered as conjecture and thus must be taken with great caution.

Einen Überblick über die Entstehungsgeschichte dieser Arbeiten finden Sie hier

Related Files




Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

ZUSAMMENFASSUNG

Bestehende Einschätzungen der Unsicherheit und ihrer mathematischen Modelle für die Bestimmung von Fehlern, die zur Abschätzung der globalen Durchschnittstemperatur-Anomalien verwendet wurden, werden hier untersucht. Dabei wurden methodische Fehler im Bewertungsmodell von Brohan et al 06 [1] festgestellt, die sie zur Beschreibung als nicht umfassend und präzise genug erkennen lässt. Für eine andere Art von Fehlern wurde dies bereits von Frank [2], [3], im Folgenden als F 10 und F 11, gezeigt. Zusätzlich zu den Feststellungen beider Arbeiten von Frank 10,11, wurde hier ein sehr häufiger, aber neuer systematischer Fehler isoliert und als „Algorithmus-Fehler“ definiert und benannt. Dieser Fehler wurde bisher durch die verwendete Methode der Anomalienbildung als selbst korrigierend angesehen oder es wurde vermutet, dass er von einigen unbekannten und ungenannten Homogenisierungsprozessen korrigiert wird. Aber das war bisher nicht der Fall. Er fügt daher der momentanen Mitteltemperatur eine zusätzliche systematische  Unsicherheit oder zusätzliche Fehlerspanne von  mindestens

+ 0,3 ° C und – 0,23 ° C

für jede globale mittleren Anomalie Berechnung hinzu.
Dieses Ergebnis wird erzielt, wenn man nur die am häufigsten verwendeten Algorithmen zur Berechnung der Tagesmitteltemperatur  mit  dem „wahren“-Algorithmus durch Mittelwertbildung täglich kontinuierlich durchgeführter Messungen miteinander vergleicht. Bedingt durch die Tatsache, dass die reale Verteilung aller verwendeten Algorithmen (nach Griffith [4] > 100 verschiedene) über Zeit und Fläche nicht bekannt ist, weder für die Land-basierten Temperaturdaten noch für die SST (Meeresoberflächentemperaturen), wird der Minimalwert dieses Fehler hier als typisch ausgewählt. In der Realität ist aber der dadurch erzeugte Fehler vermutlich noch um einiges größer.
EINFÜHRUNG

Allgemeine Bemerkungen

Zum Zwecke der Klarheit ist der erste Teil diese Aufsatzes dem allgemeinen Verhalten der Anomalien-Berechnung in Bezug auf die Fehlerfortpflanzung gewidmet. Es wird gezeigt, dass die weithin angenommen Fehlerreduktions-Fähigkeiten eines Anomalie-Modells nur für einen einzigen Sonderfall gelten, aber generell kann sie die endgültigen systematischen Fehler nicht reduzieren – vor allem in Zeitreihen – sondern sie wird sie in fast allen anderen Fällen sogar noch erhöhen. Weiterhin werden hier eine Vielzahl von weiteren potentiellen, wie realen systematischen Fehler genannt, von denen nur sehr wenige bisher identifiziert, dann quantifiziert und somit korrigiert werden konnten, und auch das bisher nur teilweise. Auch dies wird hier gezeigt.
Mit diesem Wissen muss die Mindest-Unsicherheit für jeden jährlichen globalen Mitteltemperaturwert nicht nur auf die hier beschriebenen, (bei 2 sigma = 95% Vertrauensbereich) zwischen ± 1,084 ° C bis ± 2,084 ° C, sondern auf eine Spanne die mindestens 3 bis 5 mal größer ist, angehoben werden.
Somit ist die durchschnittliche globale Temperaturanomalie für die letzten 150 Jahre in einem sehr großen Unsicherheitsband aufgelöst, das viel breiter ist, als die gesamte vermutete Veränderung des 20. Jahrhunderts. Deshalb ist jeder Versuch, dass deren Variation möglichen „Forcings“ zuzuordnen sei, nur wissenschaftliche Spekulation. Der einzige, aber sehr wichtige, Ausnahme könnte der Einfluss einer starken zyklischen Forcings sein, das um ein gegebenes Mittel schwingt. Seine Schwingungssignale können viel leichter im Unsicherheits-Band erkannt und damit unterschieden werden und zwar auf Grund ihrer zuvor beschriebenen repetitiven Natur…
…….
FAZIT
Es wurde gezeigt, dass die begrenzte Unsicherheits-Beurteilung des B 06 papers und seiner Vorgänger nicht die reale Situation in Bezug auf die Unsicherheiten der historischen Temperatur beschreibt: Um dies zu zeigen, wurde ein einziger, aber weit verbreiteter Fehler, mit dem Namen „Algorithmus-Fehler“ untersucht. Er allein addiert mindestens ± 0,23 ° C (1 σ!) zum systematischen Fehler wie er von F 11 entwickelt wurde, hinzu.  Aber es wurde auch gezeigt, dass der Gesamt-Fehler in der Realität wahrscheinlich noch viel größer sein muss.
Außerdem wurde gezeigt, dass er nur einer von einer Vielzahl von anderen systematischen Fehlern ist, die auf den vorangegangenen Seiten genannt worden sind. Die wurden aber bisher nie sorgfältig untersucht und daher auch noch nicht korrigiert.
Aus diesem Grund muss jeder Versuch versagen, eine genaue Zeitreihe einer globalen Temperaturanomalie zu entwickeln, weil diese immer von einem viel breiteren Band der Unsicherheitsband begleitet wird.
Außerdem ist der genaue Wert der Anomalie selbst irgendwo in diesem breiten Unsicherheitsband versteckt, was bedeutet, dass auch die resultierende Hüllkurve unsymmetrisch zur versteckten Anomalie Zeitreihe ist.
Somit ist es unmöglich,  dieser eine mögliche Ursache für ihre Veränderung zuzuordnen. Jeder Versuch, eine wahrscheinliche Ursache für die Änderung der globalen Temperaturzeitreihe zu definieren, bleibt daher reine Spekulation.
Die einzige, aber sehr  wichtige Ausnahme kann der Einfluss eines starken Forcings sein, das um einen bestimmten Mittelwert schwingt. Sein Schwingungssignal lässt sich viel leichter vom zuvor beschrieben Unsicherheits-Band unterscheiden, allein aufgrund seiner sich wiederholenden Natur. Dies liegt daran, dass alle zuvor genannten Fehlerquellen, entweder sprunghaft auftreten und dann stabil über der Zeit (beispielsweise die Änderung der Rechen-Algorithmus der verwendet wird) bleiben, oder aber einen schleichenden Fehler bewirken, mit zu- oder oder abnehmender Fehlergröße, (wie die Veränderung der Eigenschaften einer Wetterhütte im Laufe der Zeit zum Beispiel durch Alterung der Farbe), aber selbst keine Schwingungseigenschaften zu zeigen.
Aus Sicht der obigen Ergebnisse kann man für die Zwecke der Klimaforschung fragen, welchen wissenschaftlichen Wert eine Mittelwerts-Anomalie für die ganze Welt haben kann, wie sie zum Beispiel in B 06 entwickelt wurde, wenn man die großen Schwankungen der Mittelwerte der Erd-Temperaturen in Abhängigkeit von ihrer Lage auf dem Globus (siehe S.2; von +30 ° bis -35 ° C) und von Saison zu Saison betrachtet.
Das bedeutet nicht, dass es keine Erwärmung gab, denn sie konnte in einigen Perioden des letzten Jahrhunderts beobachtet werden, weil andere Proxies weltweit zeigen, dass es eine moderate Erwärmung gab, aber es bedeutet, dass diese Konstruktion einer Temperatur-Zeitreihe es nicht erlaubt, die Ergebnisse, für die sie gedacht ist, zu liefern.

Related Files




Windenergieeinspeisung im April: Ein teures Trauerspiel.

Insgesamt sind bis heute  Windkraftanlagen mit einer Gesamtnennleistung von 32 GW oder 32.000 MW installiert. Diese Windleistung würde der Leistung von ca. 30 „Atomkraftwerken“ entsprechen, wie es uns die Grünen aller Parteien immer wieder einreden wollen. Dass das nicht stimmt, wissen immer noch die wenigsten, die PISA Studien kommen wohl um Jahrzehnte zu spät. Denn nach dieser Betrachtungsweise könnte ein einzelner, stinknormaler Blitz, wenn man ihn den nutzen wollte und so wie er täglich vorkommt, sämtliche deutsche Kraftwerke ersetzen. Die Leistung dazu hätte er, die Energiemenge zum Glück nicht. Und um die geht es. Und sie muss auch noch auch noch zur richtigen Zeit abgerufen werden können.. Deswegen erlauben wir uns eine kurze Darstellung der Realität der Windenergie in Deutschland.
Denn die raue Wirklichkeit sieht anders aus. Die nebenstehende Abbildung 1 [3] zeigt die Einspeisung sämtlicher deutsche Windkraftanlagen aus ihren „Windparks“ für den April (die noch fehlenden 5 Tage verändern das Bild nicht). In der Spitze, am 18.4.13, wurden kurzzeitig 17 GW erzeugt.
Der gesamte Netto-Elektro-Energieverbrauch in Deutschland betrug in den 25 Apriltagen ca. 33 TWh. Das heißt, pro Tag musste im Mittel und Stunde für Stunde Kraftwerksleistung  von 55 GW abgerufen werden können. Mit Spitzen um 60 GW. Damit hätten die installierten WKA´s also allein 60 % des Bedarfes decken können. Konnten sie aber nicht. Denn das ist eine schönfärberische Milchmädchenrechnung. Weil, wie allseits bekannt, wackelt die eingespeiste Energie mit dem Wind und deshalb betrug die Spitzenleistung am 18.4.13 nur 17 GW, aber auch nur für ca. 2 h und fiel dann schnell wieder auf 8 GW gegen 24:00 Uhr ab. Damit lieferten an diesem Tag alle WKA´s zusammen, gerade mal  28.8 % der notwendigen Leistung und auch nur 53 % ihrer Nennleistung. Und das war noch der beste Tag.  An allen anderen Tagen war es noch deutlich schlechter.  Und an 5 oder 20 % der Tage, kam die Leistung nicht über 4 GW hinaus, mit Minima knapp über Null. An diesen windschwachen Tagen betrug die  Spitzenleistung also nur knapp 12 % der installierten Leistung und auch nur 7,3 % der erforderlichen Leistung.

Abbildung 2: Gesamt-Windeinspeisung für den 25.4.13
Abb. 2 zeigt die ganze Misere noch einmal überdeutlich. Um die Mittagszeit, wenn der Stromverbauch ein Maximum erreicht, fiel die Einspeisung durch Wind auf läppische 184 MW ab. Das sind gerade mal 0,3 % der dann benötigten Leistung. Und mitten in der Nacht, des Morgens und Abends, erreichte sie ihr niedriges Maximum von nur 4,8 GW. Strom, den keiner gebrauchen kann, und der vielleicht mit Aufgeld ans Ausland "verkauft" werden musste.
Ausgleichen müssen diese teure Wackelei konventionelle Kohle- Kern- und zunehmend wichtiger – Gaskraftwerke. Das modernste, vor gut einem Jahr erst in Betrieb genommen, ist das GUD Kraftwerk in Irrsching. Es hat einen Wirkungsgrad von knapp 60 % und liefert volle Leistung, wenn es denn soll, so gut wie jede Stunde im Jahr. Bei jährlich 4000 Betriebsstunden wäre es profitabel gewesen. Es durfte aber -wg. der Vorrangeinspeisung der NIE (Neue Instabile Energien)- nur 1600 Stunden im Jahr liefern. Dadurch wurde es unrentabel. Und müsste stillgelegt werden. Doch die Politk hat auch dafür eine Lösung. Ausgerechnet der FDP Minister Zeil weiß wie. In der Augsburger Allgemeinen lesen wir:

Die Betreiber haben angekündigt, das Kraftwerk mindestens zwei Jahre stillzulegen. Rund 100 Millionen Euro seien nötig, um das Kraftwerk am Laufen zu halten, sagte Teyssen...

…Bayerns Wirtschaftsminister Martin Zeil hat vor wenigen Tagen erklärt, dass Irsching V am Netz bleiben müsse. Ansonsten wäre die Systemstabilität und damit die Versorgungssicherheit entscheidend gefährdet. Der Netzbetreiber könne aus diesen Gründen auch den Erhalt der Betriebsbereitschaft eines Kraftwerkes anordnen, erinnerte der Minister. Weiter sagte Zeil, die Staatsregierung plane eigentlich den Bau von vier neuen Gaskraftwerken, finde aber keinen Investor. Irsching V kann beinahe so viel Strom produzieren wie ein kleines Kernkraftwerk….
Bayerns Vorzeigekraftwerk droht Aus

weiter lesen auf Augsburger-Allgemeine:
So also sieht die schöne neue Energiewende-Welt aus.  Aldous Huxley hätte seine helle Freude daran, wegen des schnellen Eintreffens seiner Prophezeiungen, wenn auch auf anderem Gebiet.
Michael Limburg EIKE, mit Dank an Rolf Schuster für die Erstellung der Grafiken
[1] http://www.eike-klima-energie.eu/climategate-anzeige/ein-weihnachtsmaerchen-minister-altmaier-die-energiewende-und-die-geisterfahrer/
[2] Länder lehnen Altmaiers Strompreisbremse ab http://www.zeit.de/wirtschaft/2013-03/energiegipfel-strompreisbremse-dissens
[3] Quelle EEX Leipzig, zusammengestellt von EIKE Leser Ralf Schuster 




Aus Erwärmung wird Abkühlung und wieder Erwärmung- Temperaturdaten von Mallorca: Original vs. NASA-GISS

Dies lässt sich jetzt feststellen, denn der Vergleich mit den Originaldaten der Station Palma de Mallorca ist inzwischen möglich. Palma de Mallorca wurde ausgewählt, weil der Unterschied zwischen den von NASA-GISS im März 2010 und im März 2012 publizierten Daten bzw. deren Temperaturganglinien größer nicht sein kann – eine Abkühlung war in eine Erwärmung umgewandelt worden. Nach der ersten Kontaktaufnahme mit der Agencia Estatal de Meteorología und einigem Schriftverkehr wurden die Daten zugesandt, die 1879 beginnen. Das erste und vierte Datenblatt sind auszugsweise in Abb. 1 dargestellt.
Abb. 1: Originaldaten der Station Palma de Mallorca, Auszug aus den Blättern 1 und 4

Die Mittelwerte ergeben die in Abb. 2a, oben, dargestellte AEMet-Ganglinie; die insgesamt eine leichte Erwärmung anzeigt ( 0,0083°C/a), wobei Abkühlungs- und Erwärmungsphasen miteinander abwechseln, wie das die Ganglinien der meisten Stationen für das 20. Jahrhundert anzeigen. Im Unterschied dazu zeigt die GISS-Ganglinie von März 2010 insgesamt eine Ab­kühlung  an, nämlich -0,0076°C/a (Abb. 2a, unten). Dieser Unterschied beweist, dass es sich schon bei den 2010-Daten nicht mehr um die Originalaufzeichnungen handelt.
Abb. 2a:  Temperaturganglinie Palma de Mallorca, basierend auf den Originalda­ten der Station (oben), und den modifizierten NASA-GISS-Daten vom März 2010
 
 Während die Daten vom März 2010 eine Abkühlung anzeigen, wurde mit den Daten vom März 2012 eine Trendumkehr begonnen, denn die zusätzlich in Abb. 2b und Abb. 2c darge­stellten Ganglinien, deren Datensätze NASA-GISS zwischen März 2010 und Dezember 2012 veröffentlicht hat, geben nun eine Erwärmung an, und zwar im unterschiedlichen Ausmaß, denn sie beträgt

  • im März 2012:       0,0074°C/a
  • im August 2012:    0,0051°C/a,
  • im Dezember:        0,0102°C/a

Da die Änderungen vom August und vom Dezember eher zufällig entdeckt wurden, ist nicht auszuschließen, dass zwischenzeitlich noch andere Stadien publiziert worden sind, die nur nicht erfasst wurden.
In Anbetracht der im eingangs genannten Bericht analysierten Beispiele von 120 Stati­onen, deren Daten alle und mehrfach verändert  worden sind,  ist wohl anzunehmen, dass es sich bei der Station Palma de Mallorca nicht um einen Einzelfall handelt. Es ist eher wahrscheinlich, dass dieses Beispiel eine gängige Praxis widerspiegelt.
Es ist aufschlussreich, dass NASA-GISS in den letzten Monaten weder Ganglinien noch Da­tensätze anzeigt, und dass von 25 der 120 analysierten Stationen zwar die Ganglinien gezeigt werden, aber nicht mehr die Datensätze der Monats- und Jahresmittelwerte.
Abb. 2b:  dto., Ganglinien der Daten vom März 2012 und vom August 2012
 
Abb. 2c:  dto.: Ganglinie der Daten vom Dezember 2012
 
 Die NASA-GISS-Temperaturdaten wurden nicht nur zwischen März 2010 und März 2012 sondern auch im Laufe des Jahres 2012 verändert, und auch in 2013 wird dies fortge­setzt, wie das in Abb. 3 dargestellte Beispiel der Station Alice Springs zeigt: im März 2013 wurde schon wieder eine völlig andere Ganglinie angegeben als im Au­gust/September 2012. 
Abb. 3: NASA-GISS-Ganglinien für Alice Springs, angeboten im August/September 2012 (links)  und März 2013 (rechts)
 
Im eingangs genannten Bericht wurden für die mit der Datenänderung erreichte stärkere Er­wärmung noch nicht die Mittelwerte und die Häufigkeitsverteilung behan­delt. Sie sind hier in Abb. 4 dargestellt, die Häufigkeitsverteilung in Form ihrer Summenli­nien.  Sie zeigen, dass mit den Veränderungen der Daten in ca. 90% der analysierten 120 Stationen nahezu eine Ver­dopplung der vorgetäuschten Erwärmung erreicht wurde.
Abb. 4:   Mittelwerte der Erwärmungen und Häufigkeitsverteilung  der Jahresänderungsraten

Folgerungen

Das Beispiel Palma de Mallorca lässt vermuten, dass auch die 2010-Daten anderer Stationen bereits vorher verändert worden sind. Nur die Vergleiche mit den Originaldaten möglichst vieler Stationen würden eine Abschätzung erlauben, in welchem Maße dies geschehen sein könnte.  Ein solcher Vergleich ist jedoch mangels Verfügbarkeit der Originaldaten praktisch nicht möglich. Die 2010-Daten sind folglich als Ba­sis für weitergehende quantitative Aus­wertungen nicht geeignet, denn zuverlässige Ergebnisse dürfen nicht erwartet werden.  Nun hat die Analyse der 120 Stationen gezeigt, dass die modifizierten Daten eine größere Erwär­mung vortäuschen. Dementsprechend ist zu vermuten, dass dies auch schon die Veränderun­gen vor 2010 bewirken sollten und erreicht haben. Das Ausmaß lässt sich mit dem vorhande­nen Kenntnisstand allerdings nicht quantifizieren.
Friedrich-Karl Ewert EIKE




EIKE ist umgezogen