Klima-Realismus in Berlin! Die 3. Internationale Klima- und Energiekonferenz erfolgreich beendet.

Prof. Vincent Courtillot, der Chef des Institut de Physique du Globe in Paris, erklärte in seinem einleitenden Übersichtsvortrag, warum der von UN-Bürokraten und dem „Weltklimarat“ IPCC angestrebte „Konsens“ auf einen Holzweg führt. Courtillot erinnerte an das Schicksal der vor dem Ersten Weltkrieg aufgestellten Kontinentaldrift-Theorie des deutschen Meteorologen Alfred Wegener. Hätte ein Gremium wie der IPCC darüber befunden, wäre die inzwischen unter der Bezeichnung „Plattentektonik“ allenthalben akzeptierte Theorie für die Erklärung von Erdbeben und Gebirgs-Auffaltungen bis in die 60er oder gar die 70er Jahre des vergangenen Jahrhunderts beinahe einstimmig verworfen worden. Ein einzelner unbeirrter Wissenschaftler kann also gegenüber einer erdrückenden Mehrheit konventionell denkender Kollegen recht behalten. Wissenschaftliche Kontroversen können deshalb nie als endgültig beigelegt erklärt werden.

Das gilt umso mehr für Disziplinen, die sich mit so einem komplexen Gegenstand wie der Entwicklung der klimatischen Bedingungen des Planeten Erde beschäftigen. Der israelische Astrophysiker Prof. Nir Shaviv wies darauf hin, dass die vom IPCC favorisierten Computermodelle die kühlende Wirkung der Wolken vernachlässigen. Stattdessen rechneten die „Klimaretter“ ausschließlich mit einer positiven Rückkopplung von CO2 und Wasserdampf in der Atmosphäre und gelangten dabei zu einer unrealistisch hohen „Klimasensivität“ von CO2. Wegen der kühlenden Wirkung der Wolken sei das Netto-Feedback aber wahrscheinlich Null. Die Veränderung der Wolkenbedeckung allein könne während der so genannten Madden-Julian-Oszillation Schwankungen der Sonneneinstrahlung von 8 Watt je Quadratmeter bewirken, während der von den IPCC-Autoren angenommene „Treibhauseffekt“ allenfalls Schwankungen in der Größenordnung von einem Watt je Quadratmeter Erdoberfläche erklären könne, schätzte Courtillot. Entscheidend für die Entwicklung des Wettergeschehens und der Temperatur sei aber nicht die Globalstrahlung, sondern die UV-Strahlung. Die Erwärmung habe sich in Westeuropa nicht, wie der ansteigende CO2-Gehalt der Luft, allmählich vollzogen. Vielmehr zeigten alle Mess-Stationen zwischen 1986 und 1989 einen sprunghaften Anstieg. In Nordamerika folgt die Temperaturentwicklung einem ganz anderen Muster.

Damit bestätigte er, was dem deutschen Physiker Dr. Horst Borchert (Mainz) nach jahrzehntelangen Messungen aufgefallen ist. Borchert sieht einen Zusammenhang mit dem starken Rückgang der Schwefeldioxid-Belastung der Luft infolge der Umsetzung der deutschen Großfeuerungsanlagen-Verordnung und mit dem starken Sonnenwind (gemessen als Protonen-Höhenstrahlung) während des überaus aktiven 22. Sonnenfleckenzyklus. Da der aktuelle 24. Solarzyklus besonders schwach ausfällt, erwartet Borchert, dass der verstorbene Amateur-Astronom Dr. Theodor Landscheidt mit seiner Prognose einer schmerzhaften Abkühlung der Erde in den kommenden Jahrzehnten recht behält.

Wir sollten aber sowohl auf eine Abkühlung als auch auf eine weitere Erwärmung der Erde vorbereitet sein und in Bezug auf CO2 den Mut haben, nichts zu tun, meint der australische Geophysiker Prof. Bob Carter. Es bleibe den Menschen nichts anderes übrig, als sich an Klimaveränderungen anzupassen. Manchmal erfolgten diese in der Geschichte (wie zum Beispiel im jüngeren Trias) auch ohne menschliches Zutun allerdings so abrupt, dass nur die Flucht als Ausweg bleibe.

Carters Kollege der Geologe Prof. Ian Plimer, ein international renommierter Fachmann für Vulkanismus, beschäftigte sich mit der vom IPCC und einschlägigen Massenmedien hochgespielten Gefahr einer Versauerung der Meere durch den Eintrag von CO2. Der mit Abstand bedeutendste Eintrag von Kohlensäure in den Ozean stamme nicht von den Menschen, sondern von unterseeischen Vulkanen, stellte Plimer klar. Mit den Basalt-Eruptionen gelange aber auch gleichzeitig viel Kalk in die Meere, der die Säure neutralisiert. CO2 aus diesen Vulkanen trage die gleiche Isotopenhandschrift wie CO2 aus der Verbrennung von Kohle, Öl und Gas. Es würden aber mindestens zehnfach höhere Mengen emittiert. Genaueres wüsste aber bisher niemand, da diese Vulkane unterseeisch und dort in großer Zahl (Millionen!) tätig wären. Es könnte auch viel mehr sein. Deshalb sei die Behauptung, der Anstieg der CO2-Konzentration in der Atmosphäre gehe in der Hauptsache auf die Industrialisierung zurück, mit großer Vorsicht zu genießen.

Ohnehin sei der Kreislauf des Kohlenstoffs vom globalen Wasserkreislauf abhängig. Und dieser werde von der Sonne angetrieben, betonte der in Ottawa und ehemals in Bochum lehrende Geologe Prof. Jan Veizer. Die Computermodelle des IPCC stellten die Welt schlicht auf den Kopf, da sie dem CO2 die Rolle des Hauptantriebs der Klimaentwicklung zuschreiben. Dem konnte der in Leipzig lehrende Geoinformatiker Prof. Werner Kirstein nur beipflichten. Die in den IPCC-Modellen angenommene Beschleunigung des Meeresspiegel-Anstiegs entbehre jeglicher Datengrundlage. Kirstein zitierte den Oberdeichrichter der Deichacht Krummhörn,  Giesbert Wiltfang, der kürzlich verlauten ließ, der Meeresspiegel steige zurzeit überhaupt nicht. Auch das prognostizierte weitere Abschmelzen des Arktis-Eises sei nicht eingetroffen, betonte Prof. Kirstein. Die Eisdecke hat sich in den letzten Jahren wieder ausgedehnt. Das auf 3.000 Mess-Bojen fußende neue ARGO-Netz weist übrigens aus, dass sich der Ozean in der gleichen Zeit leicht abgekühlt hat.

EIKE-Mitglied Prof. em. Horst-Joachim Lüdecke konnte an Hand des Skalengesetzes von Hurst demonstrieren, dass die Temperaturentwicklung seit dem 19. Jahrhundert nicht zufällig fluktuierte, sondern einem Trend folgt, der auf Schwankungen der Sonnenaktivität als Antrieb hinweist. Prof. em. Friedrich-Karl Ewert (Paderborn) konnte an Hand einer Analyse der Rohdaten über 800 ausgewählter Mess-Stationen überdies zeigen, dass es auf der Welt überhaupt keinen einheitlichen Temperaturtrend zur Erwärmung gibt. Im Gegenteil, wenn etwas einheitlich sei, dann, dass 74 % der Stationen keinen Trend, bzw. sogar einen negativen Trend zeigten. Er bestätigte damit die Aussagen von Courtillot und Borchert. Phil Jones und andere dem IPCC zuarbeitende Forscher konnten nur deshalb eine Temperaturzunahme ausmachen, weil sie die Daten von Mess-Stationen, die eine Abkühlung zeigten, nicht berücksichtigten. EIKE-Pressesprecher Diplom-Meteorologe Klaus-Eckart Puls wies darauf hin, dass auch die vom IPCC an die Wand gemalte Zunahme schwerer Stürme nicht eingetreten ist. Im Gegenteil: Der Windkraft-Index ist in den letzten 15 Jahren um 20 Prozent gesunken. Das erklärt so manche Pleite in der Windkraft-Branche.

Warum diese in Mainstream-Medien dennoch als „Job-Motor“ gerühmt wird, untersuchte der bekannte Fernseh-Journalist Günter Ederer. Er stellte dar, wie es einer gut organisierten und eng mit der Politik verflochtenen grünen Lobby gelungen ist, die egoistische Durchsetzung völlig unwirtschaftlicher Formen der Energieerzeugung als „nachhaltige Entwicklung“ zu verkaufen. Prof. Dieter Ameling, der ehemalige Präsident der Wirtschaftsvereinigung Stahl, berichtete, der vom Bundesumweltministerium eingesetzte Rat von Sachverständigen für Umweltfragen habe schon in seinem Gutachten von 2001 die Meinung vertreten, „energieintensive Altindustrien“ hätten in Deutschland keinen Platz mehr. Doch diese „Altindustrien“ wie Bergbau, Stahl, Papier, Chemie, und Keramik besorgten in Deutschland 20 Prozent der Bruttowertschöpfung. In der aktuellen Finanzkrise zeige es sich, wie gut die Deutschen daran getan haben, ihr Land als weltweit bedeutenden Industriestandort zu erhalten. Werde der Ausbau der unwirtschaftlichen „erneuerbaren“ Energien jedoch fortgesetzt, müssten energieintensive Industrien abwandern. Im kommenden Jahr werde die Stromeinspeisevergütung nach dem Erneuerbare Energien Gesetz (EEG) bereits 32 Prozent des Industriestrompreisers ausmachen. Er könne deshalb seinen ehemaligen Arbeitgeber Thyssen-Krupp gut verstehen, wenn er jetzt massiv in Brasilien investiert und deutsche Standorte mittelfristig zur Disposition stellt.

Edgar L. Gärtner, EIKE  

Lesen Sie hier einige Berichte und Kommentare zur Konferenz:

Science Sceptical Peter Heller,  TAZ, Heise Online, Klimaretter, ZDF Frontal 21, Diffamierend wie üblich ZDF Frontal 21 und WDR 2 (ganz nach unten scrollen) s. auch Anlage.

Die folgenden Vorträge können als .ppt  Datei hier aufgerufen werden:

undefinedAmeling, undefinedCarter , undefinedLimburg, undefinedPuls, undefinedEwert, undefinedLüdecke  undefinedCourtillot, undefinedHaas, undefinedHaas Manuskript, undefinedPeters,  undefinedKirstein undefinedEderer,  undefinedPlimer , undefinedVeizer undefinedBorchert weitere werden folgen




Jetzt bewiesen? Es gibt einen klaren Zusammenhang zwischen kosmischer Strahlung und direkter Änderung der Bewölkung in mittleren Breiten!

Eine neue Studie, die jüngst in [der Zeitschrift]Atmospheric Chemistry and Physics veröffentlicht wurde, scheint zu beweisen, dass diese Beziehung nachgewiesen wurde.

Vereinfachte Darstellung der Beziehung zwischen GCR und Wolkenbildung auf der Erde. Bild: Jo Nova

Abbildung 2 unten zeigt eine Beziehung. Man kombiniere beim Betrachten vertical die obere und die untere Kurve.

Abb. 2. (A) Kurzfristige Änderungen der GCR (Die Markierungen deuten die Signifikanz an) und (B) anomale Änderungen der Bewölkung (Signifikanz hier markiert durch die durchgezogenen Linien), zusammengefasst über die ganze Periode. Die GCR-Daten wurden mit multiplen Neutronendetektoren gewonnen, die Variationen wurden im Vergleich zu Änderungen während eines Schwabe-Zyklus‘ vereinheitlicht. Die Änderung der Bewölkung wurde über die Troposphäre (30 – 1000 hPa) gemittelt aus Daten [des Satellitensensors] ISCCP D1 im infraroten Bereich.

Die Autoren schreiben in der  Übersicht:

Dr. Roy Spencer hat darauf hingewiesen, dass schon geringe Änderungen der Bewölkung ausreichen, das beobachtete “Signal der globalen Erwärmung” zu verursachen. Er schreibt in The Great Global Warming Blunder [etwa: "Die grandiose Fehlleistung mit der globalen Erwärmung"]:

Die offensichtlichste Art und Weise, mit der eine Erwärmung auf natürliche Weise stattfindet, sind kleine, natürliche Fluktuationen in Strömungsmustern von Atmosphäre und Ozeanen, die zu einer Abnahme der globalen Bewölkung von etwa 1 bis 2% führen. Wolken beschatten die Erde, und wenn sich die Bewölkungsmenge aus irgendwelchen Gründen ändert, bekommt man globale Erwärmung – oder globale Abkühlung.

Nun, es sieht so aus, als ob Laken, Kniveton und Frogley genau einen solchen kleinen Effekt gefunden haben. Hier folgen die Zusammenfassung und einige ausgewählte Passagen aus dieser Studie:

Atmos. Chem. Phys., 10, 10941-10948, 2010

doi:10.5194/acp-10-10941-2010

B. A. Laken , D. R. Kniveton, and M. R. Frogley

Die Auswirkungen der galaktischen kosmischen Strahlung GCR auf die Erde sind höchst unsicher. Hier wurde eine empirische Annäherung vorgenommen, die  auf einer signifikanten Änderung der Bewölkung basiert. Damit wurde eine statistisch robuste Beziehung zwischen kurzfristigen Änderungen der GCR und der raschen Bewölkungsabnahme in mittleren Breiten (60° bis 30° N/S) von Tag zu Tag gefunden. Dieses Signal wird verifiziert durch Analysen der Lufttemperatur in Bodennähe (Surface Level Air Temperatures SLAT). Ein Allgemeines Zirkulationsmodell (GCM) wird benutzt, um den ursächlichen Zusammenhang zwischen den beobachteten Änderungen der Bewölkung und den gemessenen SLAT – Anomalien zu testen. Die Ergebnisse deuten darauf hin, dass die außergewöhnlichen Änderungen der Bewölkung die Änderungen der SLAT-Werte verursacht haben. Dies bedeutet, wenn es eine kausale Beziehung zwischen einer signifikanten Abnahme der GCR (~0,79 GU, wobei GU eine Änderung um 1% in einem 11-Jahres-Zyklus‘ innerhalb von vier Tagen bezeichnet) und abnehmender Bewölkung gibt (~1,9 CU, wobei hier CU eine Änderung der Bewölkungsmenge um 1% innerhalb von vier Tagen bezeichnet), kann man eine Zunahme der SLAT-Werte (~0,05 KU, wobei KU eine Temperaturänderung um 1 K innerhalb von vier Tagen bedeutet) erwarten. Der Einfluss der GCR ist eindeutig von Änderungen der Solarstrahlung und dem interplanetarischen Magnetfeld zu unterscheiden. Allerdings stellte sich heraus, dass die Ergebnisse des Experimentes mit dem GCM durch die Grenzen des Modells bei der Simulation der tatsächlich beobachteten Bewölkung limitiert werden. Aus diesen Ergebnissen schließen wir, dass die Beziehung zwischen GCR und Klima durch kurzfristige Änderungen der GCR und interne atmosphärische wegbereitende Bedingungen bestimmt wird.

In Bezug auf die obige Abbildung fand ich diese Passage sehr interessant:

Die in Abbildung 2 zusammengefassten Beispiele zeigen eine positive Korrelation zwischen statistisch signifikanten Änderungen der Bewölkung und Variationen der kurzfristigen GCR: Eine Zunahme der GCR etwa 5 Tage vor dem Zeitpunkt der Abbildung korrelieren signifikant mit einer Zunahme der Bewölkung in mittleren Breiten. Nach dieser Zeit nimmt die GCR signifikant ab (um 1,2 GU), am meisten um den Zeitpunkt des Komposits in der Abbildung; diese Änderungen korrelieren mit einer verbreiteten, statistisch signifikanten Abnahme der Bewölkung (3,5 CU, 1,9 CU im globalen Mittel) in mittleren Breiten.

…und diese:

Der starke und statistisch robuste Zusammenhang zwischen einer raschen Abnahme der Bewölkung und kurzfristigen Änderungen der GCR, der hier zutage tritt, unterscheidet sich klar von den Effekten der Solarstrahlung und IMF-Variationen. [IMF = Interplanetary Magnetic Field] Die beobachteten anomalen Änderungen zeigen eine starke breitenkreisbezogene Symmetrie rund um den Äquator; und dieser Vorgang allein ist ein starker Hinweis eines externen Antriebs, weil es keinen bekannten Mechanismus gibt, der im Zeitrahmen dieser Analyse eine solche markante Klimavariabilität erklären könnte. Wichtig ist auch der Hinweis, dass diese ungewöhnlichen Änderungen über Gebieten stattfanden, bei denen die Wolkenbeobachtungen durch Satelliten sehr zuverlässig sind. In früheren Studien über ungewöhnliche Änderungen der Bewölkung in hohen Breiten war die Beobachtung schwieriger und daher unsicherer (Laken und Kniveton 2010, Todd und Kniveton 2001).

Obwohl die Wolkenbeobachtung in mittleren Breiten eindeutiger ist als in hohen Breiten, haben Sun und Bradley (2002) eine ausgeprägte statistische Signifikanz zwischen der GCR und dem Datensatz des Satellitensensors ISCCP über dem atlantischen Ozean identifiziert, der ansatzweise auch bei METEOSAT erkennbar war. Es scheint, dass diese Verzerrung keinen Einfluss auf die Ergebnisse hat, die in dieser Studie präsentiert werden. Abbildung 6 [im Original der Studie] zeigt die Größenordnung der mit Infrarotbeobachtungen gewonnenen Änderungen der Bewölkung über dem Atlantik, dem Pazifik und Landgebieten der mittleren Breiten während der hier betrachteten Zeitspanne, und eine vergleichbare Änderung kann in allen Gebieten beobachtet werden, was zeigt, dass kein signifikanter Bias vorhanden ist.

Diese Studie hat gezeigt, dass ein kleiner, aber statistisch signifikanter Einfluss der GCR auf die Atmosphäre über mittleren Breiten existiert. Dieser Effekt zeigt sich sowohl in den ISCCP-Daten als auch in der NCEP/NCAR-Analyse während mindestens der letzten 20 Jahre. Dies legt nahe, dass kleine Änderungen der solaren Aktivität mit Änderungen in der Erdatmosphäre zusammenhängen könnten, und zwar durch eine Beziehung zwischen dem GCR und der Bewölkung. Dieser Zusammenhang könnte kleine Änderungen der Sonnenaktivität verstärken. Außerdem kann diese Beziehung zwischen GCR und Bewölkung mit anderen wahrscheinlichen Beziehungen zwischen solaren und irdischen Vorgängen zusammenwirken, wenn man an Änderungen des solaren UV-Lichtes (Haigh 1996) und der Solarstrahlung (Meehl et al. 2009) denkt. Diese Antriebskräfte des Klimas könnten eine signifikante Auswirkung auf das Klima vor dem Aufkommen der anthropogenen Erwärmung gehabt haben, was die paläoklimatischen Änderungen im Zusammenhang mit den verschiedenen solaren Zyklen erklären könnte (Bond et al. 2001; Neff et al. 2001; Mauas et al. 2008).

Weitere detailliertere Forschung ist für das noch bessere Verständnis der Beziehung zwischen der GCR und der Erdatmosphäre erforderlich. Vor allem die Verwendung sowohl von Bodenbeobachtungen als auch von Satellitenmessungen über hoch aufgelöste ausgedehntere Zeiträume ist wichtig. Zusätzlich müssen potentiell wichtige weitere mikrophysikalische Phänomene in Betracht gezogen werden, wie z. B. Aerosole, Größe der Wolkentröpfchen und atmosphärische Elektrizität. Durch solches Monitoring, zusammen sowohl mit Computersimulationen (z. B. Zhou und Tinsley 2010) als auch mit experimentellen Versuchen (z. B.  Duplissy et al. 2010) hoffen wir die hier beschriebenen Effekte noch besser zu verstehen.

– – –

Es sieht so aus, als hätten sie das Signal gefunden. Dies ist ein überzeugendes Ergebnis, weil man jetzt weiß, wo und wie man schauen muss. Hier ist mehr zu erwarten.

Die ganze Studie sieht man hier: Final Revised Paper (PDF, 2.2 MB)

Mit Dank an The Hockey Schtick

Link: http://wattsupwiththat.com/2010/11/25/something-to-be-thankful-for-at-last-cosmic-rays-linked-to-rapid-mid-latitude-cloud-changes/

Übersetzt von Chris Frey für EIKE




Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen

Realer Temperaturverlauf für Deutschland

Nicht nur Großflughäfen und Städte haben einen Wärmeinseleffekt, der die Temperaturdaten in die Höhe treibt und damit verfälscht. Der WI steht für Einflüsse des Menschen auf seine Umgebung, die nicht temperaturneutral sind, da sie entweder direkt Wärme ausbringen oder indirekt das Wärmeverhalten der Landschaft und damit dessen Wärmespeicherung und/oder Abstrahlung ändert, einwirken. Hierzu zählen beispielsweise Flächenversiegelung/-umwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt,…

Für die tägliche Temperaturerfassung eines Ortes ist der WI nicht von Bedeutung. Denn die ortsgebundene Temperaturmessung soll ja dazu dienen, den Temperaturwert vor Ort aktuell zu bestimmen. Der WI ist aber von immenser Bedeutung, werden Vergleiche zu anderen Messstationen oder gar Vergleiche zu früheren Epochen, in denen es z.B. keine Jets gab oder das Landschaftsbild ein ganz anderes war, erstellt. Werden hier keine WI-Korrekturen vorgenommen, werden die berühmten Äpfel mit Birnen verglichen und genau dies ist in der/den Datenreihen des DWD, die die Deutschlandtemperaturen von 1881 – 2009 zeigen, der Fall.

Auf Anfrage konnte uns der DWD keine Aussage über den WI seiner Messstationen machen. Er teilte lediglich mit, dass dieser in der Fläche in Deutschland nicht über 0,1°C läge und damit unbedeutend sei. Nun, wir wollten dies genauer wissen und untersuchten, wie der WI-Anteil aus den DWD-Deutschlandwerten herauszurechnen ist. Hierzu ist es notwendig, eine Referenzstation zu finden, die eine lange Temperaturaufzeichnung vorweisen kann, weitab von Zivilisationseinflüssen liegt und die sich über die Jahre überschaubar änderte (es gibt keine Messstation, die sich über 100 Jahre nicht ändert). Eine solche Referenzstation, die auch der DWD als Referenzstation benennt, ist die Station Hohenpeißenberg (HPB).

Abbildung 1 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Diese stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Folgende Abbildung zeigt beispielsweise seinen Einfluss auf die arktische Eisbedeckung.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 2, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Es gilt nun, die Deutschlandtemperaturwerte mit der Referenzstation HPB in Relation zu setzen. Dabei ist anzumerken, dass beide Datenreihen vom DWD stammen und somit offiziellen Charakter besitzen. Die Relation der Daten ergibt folgende Reihe.

Abbildung 3 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt (die Zahlen 1 – 126 dienen zum Vergleich mit der Excel-Liste der Anlage), dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen (warum? – weiter im Text). Es lassen sich drei Bereiche erkennen, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln.

In der obigen Relationskurve ist der WI „verborgen“ und nicht in der Referenzkurve (die als Referenz nur einen kleinen WI hat – 0 kann er nicht sein, weil, wie gesagt, keine Station über 100 Jahre unverändert bleibt), sondern in der Deutschlandkurve des DWD. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-D-Daten relativ weniger steigen. Die durch den WI höheren Temperaturen dämpfen dort den Erwärmungstrend, weil sie ihn quasi bereits vorweg genommen haben.

Um den WI in den drei in Abbildung 3 zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wurde folgendermaßen vorgegangen:

·         Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009)

·         Ermittlung der jeweiligen %-Änderung des Folgezeitraums zum Vorgängerzeitraum

·         Unterschied ermittelt HPB zu D

·         WI im 2. und 3. Zeitraum berechnet

·         WI im 1. Zeitraum wurde mit 0,2°C sehr konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschaftsveränderung, …

·         WI HPB von 1881 – 2009 mit 0,3°C bestimmt.

Dass auch HPB nicht WI-los sein kann, wurde bereits geschildert. Der Grund für die 0,3°C ist wie folgt: Etwa 1940 ist die Klimastation auf dem HPB umgezogen. Der Leiter hat damals gefordert, Parallelmessungen durchzuführen, was aber nicht geschah. Die alte Wetterstation wurde den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das ständig erweitert und beheizt wurde. Heute stehen dort Gebäudekomplexe. Im Kloster zuvor wurde nur ein Aufwärmraum beheizt. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos. Daraus folgt: Bis 1940 hatte der HPB keinen WI. Dann hat er einen entwickelt, mit zunehmender Bebauung. Der Berg ist also nicht WI-frei, wie er allgemein in der Literatur und vom DWD dargestellt wird.

Für die drei Zeiträume ergibt sich ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = 0,2°C

Zeitraum 2: 1953 – 1982 = 0,3°C

Zeitraum 3: 1983 – 2009 = 0,7°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI über alle drei betrachteten Zeiträume von 1881 – 2009 = 1,2°C

Die Berechnung ist in der Excel-Liste mit den Quelldaten im Anhang zu sehen. Mit den von uns ermittelten dynamischen WI-Werten ergibt sich die für Deutschland korrekte Vergleichskurve der Temperaturdaten von 1881 – 2009 (Abbildung 4).

Abbildung 4 zeigt den Temperaturverlauf für Deutschland nach Daten des DWD (rosa), ohne Berücksichtigung der sich veränderten Rahmenbedingungen für Deutschland von 1881 – 2009. Die blaue Kurve zeigt die von uns ermittelte reale, WI-bereinigte Temperaturvergleichsreihe für Deutschland im selben Zeitraum. Der grüne Trendverlauf zeigt den dynamischen WI, der für die drei Zeiträume ermittelt wurde.

Die realen Vergleichswerte (blaue Kurve) zeigen keine nennenswerte Temperaturerhöhung für Deutschland im Betrachtungszeitraum. Die Maximaltemperatur wurde in den 1930-Jahren erreicht, was i.ü. mit den Temperaturdaten in den USA übereinstimmt. Dort lagen die höchsten Temperaturen ebenfalls in den 1930-Jahren (Abbildung 5).

Die Berechnung ergab, dass der WI dynamisch ansteigt, was auch einleuchtend ist, da der WI bekanntlich auf Flächenversiegelung, Flächenumwandlung, Energieverbrauch, Verkehr, Industrialisierung, mehr Komfort im Haushalt, eben human-influences basiert und diese werden und wurden von Jahr zu Jahr größer, und folglich der WI ebenfalls größer.

Abbildung 5 zeigt den Temperaturverlauf in den USA nach Daten der amerikanischen Wetterbehörde NOAA (National Oceanic and Atmospheric Administration). Die höchsten Temperaturen lagen auch dort Mitte der 1930-Jahre.

In unserem Vergleich der Abbildung 4 beginnt die Datenreihe ab 1881, weil ab diesem Jahr beim DWD durchgängige und verlässliche Temperaturdaten für Deutschland vorliegen, die uns der DWD übermittelte. Der DWD selbst lässt seine Datenreihe indes erst ab 1891 beginnen (Abbildung 6). Darum in Abbildung 7 der direkte Vergleich zu den DWD-Daten von 1891 – 2009.

Abbildung 6 (Quelle DWD) zeigt die mittlere Jahrestemperatur in Deutschland von 1891 – 2009. Für den Betrachter ergibt sich der Eindruck, dass Ende des 20. Jahrhunderts und zu Beginn des 21. Jahrhunderts die Temperaturen außerordentlich hoch ausfallen und auch in den „Kältejahren“ 2008 und 2009 die Temperaturen immer noch über dem Durchschnitt liegen und damit zu warm wären. Unsere Berechnung der realen Vergleichstemperaturen ergab, dass seit 10 Jahren die mittleren Temperaturen in Deutschland unter dem Trend(gestrichelte Trendkurve) liegen und damit zu kalt sind.

Abbildung 7 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und EIKE von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, haben wir, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich). Auch bei der Datenreihe ab 1891, wieder der Quervergleich mit dem Temperaturniveau der USA aus Abbildung 5. Die EIKE-Deutschlandtemperaturkurve zeigt exakt das gleiche Bild: Die höchsten Temperaturen im Betrachtungszeitraum lagen Mitte der 1930-Jahre. Um 1950 lagen die Temperaturen ebenfalls über denen der letzten 30 Jahre und das Temperaturniveau von heute ähnelt dem zu Beginn des 20. Jahrhunderts. Allerdings sind solche Meldungen natürlich nicht geeignet, die Theorie einer menschen-gemachten Erwärmung, die auf sog. Treibhausgasen basiert, zu unterstützen oder gar zu beweisen. Zur Temperaturentwicklung, siehe auch den aktuellen Bericht von Antony Watts  vom 26.11.2010 (http://wattsupwiththat.com/2010/11/26/examination-of-cru-data-suggests-no-statistically-significant-warming/).

Die Basisüberlegung zum Berechnen des WI liegt darin (siehe oben), dass bei Erwärmung sich die Daten zur Referenzstation mehr und mehr angleichen, folglich muss auch der Umkehrschluss gelten, dass sich bei Abkühlung, die Temperaturen relativ mehr und mehr wieder voneinander entfernen. Da wir in Deutschland seit mehreren Jahren eine Abkühlung zu verzeichnen haben, kann dies überprüft werden. Dabei wurde nach zwei Kriterien vorgegangen:

1.   Beginn der Erwärmungsphase, anhand der diversen national (siehe DWD-Kurve in Abbildung 6) und internationalen Temperaturreihen, ab 1980. Dies ist somit das erste Betrachtungsjahr zur Überprüfung der Aussage, dass sich auf Grund des WI in einer Erwärmungsphase die Werte zur Referenzstation angleichen und damit das Verhältnis abnimmt.

2.   Ende der sonnenbasierten Erwärmungsphase in 2003. Hier hatte der Hauptsonnenzyklus sein (im Mittel) 208-jähriges Maximum und die NASA-Satellitenwerte der gemessenen und somit realen Sonnenaktivität, hatten um diesen Zeitraum ihr Maximum, wie die folgende Abbildung belegt:

Abbildung 8 zeigt die rekonstruierte Sonnenaktivitätskurve (blau, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und die von NASA-Satelliten direkt gemessene Sonnenaktivitätskurve (rot, ACRIM = Active Cavity Radiometer Irradiance Monitor), Quelle: (http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html). Deutlich zeigen die direkten Satellitenmessungen, dass die solare Aktivität ab 1980, als global die Temperaturen (moderat) zu steigen beginnen, deutlich anzieht und unmittelbar nach der Jahrtausendwende, mit dem de Vries/Suess-Hauptsonnenzyklus ihr Maximum erreichen und anschließend, wieder parallel zu den Temperaturen, deutlich fallen.

Unter Anwendung beider Punkte ergeben sich fünf 6-Jahresblöcke. Die Überprüfung ergibt folgende Tabelle:

Dazu der Verlauf:

Abbildung 9 zeigt ganz deutlich, dass bis 2003, also in der gesamten sonnenbasierten Erwärmungsphase, das Verhältnis Deutschlandtemperatur zur Referenzstation (D/HPB) fällt und seit Beginn der Abkühlungsphase wieder ansteigt. Die Trendkurve bestätigt in eindrucksvoller Weise, den seit Beginn des 21. Jahrhunderts beobachteten Temperaturrückgang. Die Kurve steigt dabei viel schneller (doppelt so schnell), als sie vorher abfiel, d.h. nichts anderes, als dass wir derzeit einen schnellen Temperaturrückgang erleben, der durch den WI der Städte und Landschaftsveränderung gemindert wird und sich daher in den diversen Temperaturkurven des DWD nicht wiederfindet, aber von uns allen bereits erlebt  wird – der letzte kalte und lange Winter und das insgesamt sehr kalte Jahr 2010. Die Kurve passt auch zu den Aussagen der NASA, russischer Forscherteams (http://de.rian.ru/science/20100423/126040500.html) und des SSRC (Space and Science Research Center)>zur erwartenden Sonnenaktivität und der daraus resultierenden Kälteepoche, die uns bevorsteht.

Fazit – Die Erwärmung ist vorbei

Mit einem dynamischen WI von derzeit +1,2°C liegen die heutigen Temperaturen auf dem Niveau zu Beginn der Messaufzeichnungen in den 80-Jahren des 19. Jahrhunderts, also auf einem Niveau, welches kurz nach den letzten Kälteepoche, die in der Wissenschaft als die “Kleine Eiszeit“ bekannt ist und bis ca. 1850 andauerte, erreicht wurde. Dies deckt sich übrigens mit der Aussage des Leiters der Wetterstation Ostalbwetterwarte:

„Zusammenfassend kann man sagen: Das vergangene Frühjahr war ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren“.>

Quelle: “Das Wetterglas“ Nr. 49 (http://www.wetterglas.de/Wetterglas/wg_49.PDF), und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren!

Es ist daher dringend geboten, dass der DWD seine Temperaturdaten der Realität anpasst und Politik, Medien und insbesondere der Bevölkerung das wahre Temperaturniveau mitteilt. Und zwar das, was wohl jeder bereits wahrgenommen hat, dass es kälter geworden und die Zeit der Warmperiode vorbei ist und wir für die nächsten Jahrzehnte, wegen dem beobachteten starken Rückgang in der Sonnenaktivität (Abbildung 8) deutlich fallende Temperaturen bekommen.

Für die Politik ist es an der Zeit, das Gespenst der anthropogenen CO2-basierten Klimaerwärmung dorthin zu verfrachten, wo es hingehört, auf den Müllhaufen falscher (vermeintlich) wissenschaftlicher Theorien – da abgekoppelt von jeglicher beobachteter Realität und sich wieder den Themen zuwendet, die für unser Land und für unsere Gesellschaft essenziell sind. Bildung und Wissen sind hiervon nur zwei Begriffe. Eine Klimakönigin braucht unser Land nicht. Die Zeiten der Monarchie sind schon lange vorbei, wie die globale Erwärmung.

 

Der schleichende WI beim DWD, Zusammenfassung unserer beiden ersten Beiträge

Als Anhang für den eiligen Betrachter, eine kurze Zusammenfassung unserer ersten Beiträge, aus denen ersichtlich wird, warum der DWD in seinen Messreihen und damit Messstationen einen gemittelten WI von derzeit 1,2°C hat, der seine ganze Messreihe verfälscht.

Nach Angeben des DWD vom 10.06.2010 besteht sein Hauptamtliches Netz aus 182 Wetterwarten und an 531 Stationen werden nach unseren Informationen Lufttemperatur und- feuchte gemessen. Wir hatten 130 Messstationen des DWD an dessen eigenen Vorgaben für die Aufstellung und Betrieb solcher Stationen gespiegelt und dabei festgestellt, dass allein nach diesen Kriterien ca. 40% ungeeignet sind. Anbei einige Beispiele:

 

 

Eingangs hatten wir erwähnt, dass vermehrt Flughafenstationen in die Datenreihen einfließen. So lag allein 2009 der Anteil der „Flughafenmessstationen“ im globalen Temperaturnetzwerk des GHCN (Global History Climate Network), welches die globalen Temperaturreihen generiert, bei 41%! Somit sind deren Daten über globale Temperaturtrends ungeeignet. Bei näherer Betrachtung ist es logisch, dass Temperaturmessstationen auf Flughäfen, mit ihren vielen heißen Triebwerksabgasen für Messwerterfassungen im Zehntel-°C-Bereich ungeeignet sind. Kein Hausbesitzer käme auf die Idee, die Temperatur eines Wohnraumes unmittelbar an den Heizkörpern abzugreifen! Der DWD aber tut dies bei seinen Flughafenmessstationen.

WI auf Großflughäfen

Zur Qualifizierung und Quantifizierung ist zu beachten, wo sich die Temperaturmessstation auf dem Flughafengelände befindet, wie groß der Flugbetrieb, also die Flugbewegungen sind und welche Luftturbolenzen durch den Flugbetrieb auftreten. Die Höhe des Flugbetriebes bestimmt das Maß für den Wärmeeintrag der rund 600°C heißen Strahltriebwerksabgase in die Umgebungsluft. Die Luftturbolenzen zeigen, wie sich diese heißen Luftschichten verteilen und wie groß ihr Einzugsgebiet ist und der Aufstellort bestimmt, inwieweit die Messstation von diesen Turbolenzen oder sogar direkt von den heißen Abgasstrahlen der Jets beaufschlagt wird, wodurch sich in allen Fällen, der Messwert erhöht, also verfälscht.

Zur Bewertung der Luftturbolenz werden die in der Luftfahrt gefürchteten Wirbelschleppen herangezogen. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten.

 

 

Wo liegt die DWD-Temperaturmessstation auf dem Flughafen Frankfurt?

 

Auch auf Berlin-Tegel oder London-Heathrow ergibt sich prinzipiell das gleiche Bild.

Abbildung 18 links zeigt die Temperaturmessstation auf Berlin-Tegel (roter Pfeil). Gut erkennbar, dass die Station unter 100m vom Rollfeld entfernt liegt und ca. 270m von der Start- und Landebahn. Abbildung rechts zeigt die Temperaturmessstation auf London Heathrow (roter Pfeil). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 in Heathrow bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien). Ein Unterschied von gut 2,5°C, was dem WI-Wert von Frankfurt Rhein-Main sehr nahe kommt.

Darüber hinaus hat der DWD zum 01. April 2001 (kein Aprilscherz) die Datenerfassungsmethode grundlegend geändert. Bis zu dem Datum wurde am Tag dreimal gemessen  (um 7,30 Uhr, 14,30 Uhr und 21,30 Uhr – letzter Wert wurde doppelt gewertet, weil man sich den vierten Wert in der Nacht sparen wollte) und seither stündlich. Wegen der starken Asymmetrie des Temperaturtagesganges können beide Verfahren grundsätzlich keine gleichen Ergebnisse liefern. Durch das neue Verfahren werden die Mitteltemperaturen um mindestens 0,1°C autom. angehoben, obwohl sich an den gemessenen Temperaturen überhaupt nichts ändert.

Die Datenreihe zeigt die Temperaturabweichung (nach oben) der DWD-Station in Berlin-Dahlem nach der alten und nach der neuen Methode.

Nicht nur, dass der DWD offensichtlich mit Taschenspielertricks die Temperaturen künstlich in die Höhe treibt, seine eigenen Vorgaben für die Aufstellung und den Betrieb von Wetterstationen missachtet und nicht einmal den WI seiner eigenen Stationen kennt, scheint er nicht einmal wahrzunehmen, was er eigentlich misst und was er womit vergleicht.

Links zu den WI-Artikeln Teil 1 und Teil 2

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/?tx_ttnews[pointer]=2

und

http://www.eike-klima-energie.eu/klima-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/?tx_ttnews[pointer]=1

 

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

Anlage

In der Dateianlage finden Sie die Excel-Liste der Jahreswerte und der WI-Berechnung

Related Files




Cancuner Klimakonferenz: Japan verlängert Kyoto-Protokoll nicht

Das Kyoto-Protokoll wurde 1997 von den Ländern mit den meisten Emissionen angenommen. Sie haben sich verpflichtet, ihre Emissionen um durchschnittlich 5 % bis 2012 abzusenken, bezogen auf die 1990er Mengen.

Der US-Kongress hat das Protokoll aber nicht ratifiziert und bleibt außen vor.

Jun Arima, Beamter aus dem japanischen Wirtschafts- und Industrieministerium, machte die kurze Ankündigung in einer öffentlichen Sitzung. Das war die entschiedenste Stellungnahme, die je gegen das Protokoll von einem Land gemacht wurde, das zu den Ländern mit den höchsten Emissionen von Treibhausgasen gehört.

Er sagte: "Japan wird seine Minderungsziele aus dem Kyoto-Protokoll unter gar keinen Umständen oder Bedingungen fortschreiben."
Die anderen Delegationen wurden davon völlig überrascht.

"Wenn Japan mit solch einer Ankündigung bereits zu Anfang der Gespräche herauskommt, dann bedeutet das schon etwas", sagte ein britischer Offizieller. "Die Direktheit der Ankündigung hat alle überrascht."
Wenn das eine neue formelle Position ist und keine Verhandlungstaktik, könnte es die Abreise des einen oder anderen Entwicklungslandes provozieren und den Zusammenbruch der Gespräche bedeuten. Am Mittwoch Abend haben sich die Diplomaten mit Dringlichkeit um eine Klärung bemüht.

Die japanische Stellungnahme hat die G77 alarmiert; das ist die Gruppe der Entwicklungsländer, die das Kyoto-Protokoll für die einzige weltweit gültige Klimawandel-Vereinbarung hält.

Japan gab keine Begründung für seine kurze Ankündigung am zweiten Tag der Gespräche. Diplomaten aber sagten am Mittwoch Abend, dass sie eine Verhärtung der Position bedeutete. "Japan hat schon zuvor verkündet, dass es ein einziges gesetzliches Instrument wünsche und dass es daher nicht angemessen wäre, das Protokoll fortzuschreiben", sagte ein Offizieller, der nicht namentlich genannt werden will.

Japan hat am Mittwoch seine Position nicht klarstellen wollen. In der Vergangenheit aber hat es verlautbart, dass es eine neue gesetzlich verpflichtende Vereinbarung nicht ablehnen wollte, dass es aber eine Benachteiligung befürchte, wenn es sich zu Verminderungen verpflichte, während andere Länder wie Indien oder China vertraglich nicht zu derartigen Verminderungen verpflichtet wären.

"Das ist ein ganz schlimmer Anfang für die Verhandlungen. Die Gefahr besteht, dass andere Länder Japans Beispiel folgen werden und keine bindenden Verpflichtungen zur Emissionsverminderungen eingehen werden", sagte Poul Erik Laurisden, Sprecher der Hilfsorganisation CARE INTERNATIONAL.

übernommen von Watts up with that vom Guardian 1. Dezember 2010

Übersetzt von Helmut Jäger

Weiterführende links : http://ktwop.wordpress.com/2010/12/02/some-good-news-from-cancun-japan-refuses-to-extend-kyoto-protocol/




Dr. Ray Bradleys erstaunliches Photo! Wie man Kurven manipuliert!

Hier findet man die Website von Dr. Raymond S. Bradley, der wie folgt beschrieben wird:

Herausragender Universitätsprofessor im Fachbereich Geowissenschaften und Direktor des Climate System Research Center (http://www.paleoclimate.org).

Leser können sich vielleicht auch an Dr. Bradley erinnern, war er doch Ko-Autor von Dr. Michael Mann in der berühmten MBH98-Studie, in der der umstrittene „Hockeyschläger“ erzeugt wurde.

Dr. Bradley wurde auch vor Kurzem bekannt durch seine Plagiatsvorwürfe (accusations of plagiarism) hinsichtlich des Wegman-Berichtes an den Kongress von Dr. Edward Wegman von der George Mason Universität, in dem die statistischen Methoden der Studie MBH98 kritisiert wurden.

Rechts sehen Sie Dr. Bradleys Photo von seiner UMass-Website:

Bemerken Sie darin etwas Interessantes? Hier sind einige Hinweise:

 

 

Seine Graphik des CO2-Verlaufs mit dem Titel “Treibhausgasaufzeichnungen aus dem Eisbohrkern von Wostok“ zeigt einen Wert von etwa 360 ppm für das CO2 am „Zeitpunkt 0“ der Gegenwart. Das Photo muss alt sein, da der gegenwärtige Wert in der Atmosphäre gemessen auf dem Mauna Loa etwa bei 390 ppm liegt.

Gut, es ist also ein altes Photo, aber wo liegt das Problem?

Diejenigen, denen die CO2-Daten aus dem Eisbohrkern von Wostok nicht bekannt sind, können die offiziellen Daten auf den FTP-Servern der NOAA hier finden:

CDIAC (Carbon Dioxide Information and Analysis Center)
ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

NCDC (National Climatic Data Center)
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

NASA Goddard bietet ebenfalls Zugang zu den offiziellen Wostok-Daten: http://gcmd.nasa.gov/records/GCMD_CDIAC_CO2_VOSTOK_ICECORE.html

…und sie zeigen diesen hilfreichen Graphen mit der umgekehrten Zeitachse der Graphik von Dr. Bradley. Der heutige Tag findet sich also links:

Das ist merkwürdig, die CO2-Daten von Wostok zum gegenwärtigen Zeitpunkt werden mit 280 ppm angegeben, also deutlich niedriger als die 360 ppm in Dr. Bradleys Graphik. Seltsam, aber jene Website der NASA zum Eiskern aus Wostok zeigt das jüngste Update bei:

Also muss das ganz neu sein, oder?

Also lassen Sie uns ein paar andere Quellen studieren, mit Werten, die vielleicht näher an den Werten von Dr. Bradley liegen. Sicherlich gibt es irgendwo einige Updates zu den Wostok-Daten, die ich übersehen habe.

Wie sieht es bei Wikipedia aus, wo alles immer auf den neuesten Stand gebracht wird? Selbst wenn William Connelly da nicht mehr seine Finger im Spiel hat, wurden die Daten im vergangenen Jahr oder so aktualisiert? Hier sieht man den Graphen aus Wikipedia:

Der Verlauf des CO2 (grün), der Temperatur (blau) und der Staubkonzentration (rot), abgeleitet aus dem Wostok-Eisbohrkern, wie er bei Petit et al. 1999 gezeigt wird. Höhere Werte der Staubkonzentration werden trockenen, kalten Perioden zugeordnet.

Quelle: http://en.wikipedia.org/wiki/File:Vostok_Petit_data.svg

Das ist komisch, die CO2-Daten zeigen hier etwas über 280 ppm CO2 in dem Eiskern. Aber sie beziehen sich auf jener Site auf Petit et al. 1999. Hmmm, ich machte mich daran, diese Studie zu suchen, und tatsächlich fand ich sie als PDF hier: http://www.daycreek.com/dc/images/1999.pdf und habe das Papier hier abgelegt  Vostok_nature_1999, um zu verhindern, die Website mit Downloads zu überladen. Der Titel dieser Studie von 1999 lautet [der Zeitschrift] Nature zufolge:

Klimatische und atmosphärische Geschichte der letzten 420 000 Jahre aus dem Wostok-Eisbohrkern, Antarktis
J. R. Petit*, J. Jouzel†, D. Raynaud*, N. I. Barkov‡, J.-M. Barnola*, I. Basile*,M. Bender§, J. Chappellaz*,M. Davisk, G. Delaygue†, M. Delmotte*, V. M. Kotlyakov¶, M. Legrand*, V. Y. Lipenkov‡, C. Lorius*, L. Pe´ pin*, C. Ritz*, E. Saltzmank & M. Stievenard†

Oh, o.k., dies erklärt, dass der Anteil des CO2 im Jahre 1999 bei 360 ppm gelegen haben muss und dass der Wert von Dr. Bradley daher stammt. Man betrachte nun die Daten vom Mauna Loa aus dem Jahre 1999 hier: ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt.

Die Werte für 1999 lauten folgendermaßen:

1999   3    1999.208      369.46      369.46      367.90     26

1999   4    1999.292      370.77      370.77      368.19     30

1999   5    1999.375      370.66      370.66      367.84     29

1999   6    1999.458      370.10      370.10      367.87     30

1999   7    1999.542      369.10      369.10      368.42     30

1999   8    1999.625      366.70      366.70      368.21     30

1999   9    1999.708      364.61      364.61      367.95     29

1999  10    1999.792      365.17      365.17      368.41     31

1999  11    1999.875      366.51      366.51      368.58     29

1999  12    1999.958      367.85      367.85      368.58     29

Also erklärt das alles? Der Anteil des CO2 in der Atmosphäre lag 1999 um 360 ppm, so wie es in dem alten Photo von Dr. Bradley zu erkennen ist. Also müsste die Studie von Petit et al. den gleichen Wert zeigen, oder? Hier folgt die Graphik:

Oh, ist das seltsam! Sie zeigt nur etwa 280 ppm CO2 zum “gegenwärtigen” Zeitpunkt 1999, dem Zeitpunkt also, zu dem die Graphik veröffentlicht wurde.

Nun ja, die archivierten NOAA-Daten auf ihrem FTP-Server müssen aktualisiert sein und etwa 360 ppm irgendwo in dem Datensatz zeigen, oder? Also suchte ich auch danach, um sicher zu sein. Die jüngsten Daten findet man hier: ftp://cdiac.ornl.gov/pub/trends/co2/vostok.icecore.co2

Hmmm, die jüngsten Daten stammen von vor 2342 Jahren und zeigen 284,7 ppm. Das kann aber nicht stimmen, weil der renommierte Dr. Bradley Daten um 360 ppm zeigt. Außerdem sind die Namen der Ko-Autoren des Beitrages über die Analyse der Daten aus dem Wostok-Eisbohrkern von 1999 in Nature aufgeführt. Sicher gibt es doch dazu ein Update, oder?

Vielleicht ist es ein anderer Datensatz von NOAA, den er benutzt hat? Zu finden hier: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/vostok/co2nat.txt

Nun, das passt zu den CDIAC-Daten, aber es zeigt sich immer noch kein Wert um 360 ppm CO2 in den jüngsten Daten.

 

Nun ja, wie kann das sein?

Die Antwort scheint zu sein, dass es keine neuen Daten aus dem Wostok-Eisbohrkern gibt. Er hat geendet, und in den offiziellen Datenspeichern gibt es keine neuen Daten. Der letzte Wert des CO2-Anteils aus dem Eiskern zeigt 284,7 ppm.

Wie kommt dann Dr. Bradley zu einem Wert um 360 ppm? Ganz einfach, ich denke, er benutzt den gleichen Trick, den er und seine Ko-Autoren bei der Erstellung des berüchtigten MBH98-Papiers entwickelt hatten und mit dem sie die Hockeyschlägerkurve aus Instrumentenablesungen und paläoklimatischen Daten zusammen setzten:

Die Graphik oben stammt aus Fred Pearce’s Feb 2010 article in the Guardian und zeigt die mit Instrumenten ermittelten Daten, wie sie den Daten des Eisbohrkerns einfach angefügt wurden.

Und hier sieht man eine spätere Version aus dem Jahre 2003 mit der gleichen Aufspaltung zwischen Instrumenten- und Paläodaten (Abbildung 1 aus Mann et al., EOS forum 2003):

Quelle: http://www.ncdc.noaa.gov/paleo/pubs/mann2003b/mann2003b.html

Es ist also ziemlich offensichtlich, dass Dr. Bradley (oder wer auch immer diese Graphik entwarf) einfach die Daten aus dem Eisbohrkern am Ende entfernt und durch Instrumentendaten ersetzt hat. Oder, wie es Joe Romm ausdrückt, er hat das Ganze „aufgepeppt“.

Das einzige Problem, dass sich jedoch ergibt, wenn er die Graphik unter dem Titel: Treibhausgaskonzentrationen aus dem Wostok-Eisbohrkern wie unten gezeigt präsentiert…:

 

…ist, dass sie meiner Ansich nach falsch ist! Dies gilt auch für die rote Linie des Methans, aber das steht auf einem anderen Blatt.

Das Problem: Wenn man Bodendaten der Temperatur aus der Antarktis nimmt und sie mit den Bodendaten der Temperatur von Hawaii verbindet und dieses Konstrukt dann als die gesamte historische Aufzeichnung aus Antarktika präsentiert, würden unsere Freunde einen echten „Knüller“ landen.

Oder, wenn man die Wirtschaftsdaten einer schlecht gehenden Firma „A” mit den viel besseren Daten einer Firma „B“ verbindet und daraus einen Gesamtverlauf der Firma „A“ konstruiert und diesen den Aktionären vorlegt, würde die Securities and Exchange Commission (SEC) einen echten Knüller haben, wenn sie das herausfinden, oder nicht? Manch einer wandert für so etwas ins Gefängnis.

Aber was wollen Sie, das ist Klimawissenschaft!

Ein riesiges Dankeschön an den Leser Brian M. der mich per e-mail auf diesen Vorgang hingewiesen hatte.

Zusatz: Ich sollte erwähnen, dass ich keinen Beweis habe, ob diese Graphik irgendwo in irgendeiner wissenschaftlichen Veröffentlichung oder Präsentation von Dr. Bradley gezeigt wurde. Ich weise lediglich darauf hin, dass dieses Photo, das gestellt erscheint, nicht zu den aktuellen Daten aus Wostok passt. Man sollte nichts über diesen Vorgang hinaus extrapolieren, bis die nächsten Beweise präsentiert werden.

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE