Phoenix-Runde Teil II: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck!

Zum besseren Vergleich der Argumente finden Sie hier nochmals das Video (mit freundlicher Genehmigung von PHOENIX)

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

4. Der Glaube an statistisch gesicherte historische Wetteraufzeichnungen.

Moderator  Kähler sprach es aus: (Wir haben) …seit Ende des 19. Jh. statistisch gesicherte Wetteraufzeichnungen.(4:52). Bott ging sogar noch einen Schritt weiter und sprach von Proxydaten, die noch frühere Aussagen zur (Welt)-Temperatur zulassen würden.

Wie ist der Sachstand?

Basis jeder Naturwissenschaft ist die Messung, dann folgt die Klassifizierung, dann die Zuordnung, dann die Hypothese – die wird dann zur Theorie, wenn genügende Beweise vorliegen -, dann die Vorhersage, gemäß dieser Theorie. Wir sind in Phase 1, der Messung der Temperatur in der Luft. Seit über 300 Jahren wird in Europa die Lufttemperatur gemessen. Anfangs aus Neugier, kurze Zeit später schon aus dem wissenschaftlichen Erkenntnisdrang heraus, zu finden, wie sich denn das Wetter entwickelt, das alle Lebensumstände von Mensch und Tier von Anbeginn der Zeit an stark beeinflusst. Oder auch, um zu ermitteln, ob sich hinter den gemessenen Zeitreihen Gesetzmäßigkeiten verbergen, die es u.U. erlauben würden, Wettervorhersagen zu machen. Schönwiese [Schönwiese, 2000] datiert die Thermometererfindung auf 1611 und schreibt sie – bewusst vage – Galileo zu. Zur damaligen Erfassung schreibt er: Die ersten regelmäßigen Messungen [1] und Aufzeichnungen der Lufttemperatur erfolgten in Florenz und Pisa von 1653 bis 1670 durch die Academia del Cimiento. Deren Messungen waren für ihre Zeit schon sehr fortgeschritten…. Im 18. Jahrhundert und weitestgehend auch im 19. Jh. waren die Thermometer sehr ungenau, ihre Aufstellbedingungen unheitlich (wie auch heute) und die Messergebnisse mit hohen Unsicherheiten behaftet. Für meteorologische Zwecke bedingt brauchbar, für klimatologische Zwecke unbrauchbar. Mit der Einführung des Assmanschen Aspirationsthermometers 1892 war wenigstens ein hinreichend genaues Messinstrument geschaffen, das unter gleichen Umständen Vergleichbares lieferte. Es wurde daraufhin weltweit eingesetzt, allerdings erst an wenigen Stellen.

Abbildung 6 nach Peterson et. al [Peterson, 1997]: Die Zeitreihe zeigt die Zahl von Mess-Stationen, deren Daten nach verschiedenen Mittelwertalgorithmen zur Temperaturbestimmung in die GHCN Datenbank einbezogen wurden (schwarze Line) und, darin enthalten, solchen (gestrichelte Linie) Stationen mit Max/Min Ablesung.

Die Abbildung 6 zeigt die Anzahl der Stationen, die vom IPCC (hier aus  Peterson et. al  1997) in seine Durchschnittsberechnung der Welttemperatur einbezogen wurden. Allein schon aus der absoluten Zahl der Stationen ist  zu erkennen, dass eine weltweite Abdeckung nicht gegeben sein kann. Noch nicht einmal der Landmasse allein, die nur 29 % der Eroberfläche ausmacht. 40 % der Landmasse befinden sich auf der Nordhalbkugel, nur 20 % auf der Südhalbkugel. Diese ist also messtechnisch, von wenigen Orten abgesehen, ziemlich unbekannt.

Allein damit ist noch nichts über die Qualität der Messungen gesagt. Die war trotz des Assmann-Thermometers mäßig bis sehr mäßig. Am Besten charakterisiert diese Qualität  der Meteorologe und CRU Programmierer Ian (Harry) Harris. Sie sind in der Datei „HARRY_READ_Me.txt.“ der Cimategate Emails enthalten. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009 [2].

Harry ist der Spitzname, mit dem der Klimatologe Ian Harris seine Arbeit zeichnete. Ian Harris, ein Gläubiger der Erwärmungshypothese und Anhänger der Grünen, wurde in der CRU als Programmierer eingesetzt, der die vielen Datensätze aus den weltweiten Messstationen zur statistischen Auswertung und Zusammenfassung aufbereiten sollte. Da es sich um Millionen, zum guten Teil nur verstümmelt vorliegende Daten handelt, ist das nur per Computer und geduldigem Zusammentragen von allerlei Zusatzdaten möglich. Hierzu gehört dazu eine gehörige Portion Spürsinn und wie wir sehen werden, auch „Kreativität“:

„Aber was sind dies alles für monatliche Dateien? Ich weiß nichts, alles undokumentiert, wohin ich auch schau, da sind Dateien, keine Infos darüber, was sie sind, anders als ihre Namen. Und das ist sinnlos …“ (Seite 17)

– „Es ist Pfusch über Pfusch über Pfusch.“ (18)

– „Oh, Gott, wenn ich dieses Projekt erneut starten und tatsächlich über diesen  Fall mit der geerbten Müll-Programm-Suite streiten könnte.“ (37)

– „Bin ich der erste Mensch, der den Versuch macht, die CRU-Datenbanken in Ordnung zu bekommen?!“ (47)

– „Soweit ich sehen kann, macht dies die (Wetter-) Stations Zählung völlig sinnlos.“ (57

– „Cobar AIRPORT AWS (Daten aus einer australischen Wetterstation) können nicht im Jahr 1962 begonnen haben, sie sind erst seit 1993 in Betrieb!“ (71)

– „Was zur Hölle soll hier passieren? Oh yeah – es gibt kein „angenommenes ich kann es machen“. Also tat ich es: -)“ (98)

– „Du kannst dir nicht vorstellen, was mich dies kostete – tatsächlich dem Operator zu erlauben, auf falsche WMO (World Meteorological Organization)-Codes zu verweisen. Aber was soll man sonst  in solchen Situationen machen? Gerade im Umgang mit einer „Master“-Datenbank zweifelhafter Herkunft … “ (98)

– „Also, mit einem leicht zynischen Achselzucken habe ich noch die atomare Option – jedem möglichen WMO Treffer zuzuordnen, und den Rest einfach auf neue Stationen zu verteilen… mit anderen Worten, was man bei der CRU sonst auch tut. Dies erlaubt es, schlechten Datenbanken unerkannt zu bleiben und guten Datenbanken zu schlecht zu werden … “ (98-9)

– „Ach F — das. Es ist Sonntag Abend, ich habe das ganze Wochenende gearbeitet, und gerade als ich dachte, es fertig zu haben, treffe ich noch auf ein weiteres Problem, auf dem der hoffnungslos  Zustand unserer Datenbanken basiert.“ (241).

– „Das ganze Projekt ist so ein Durcheinander …“ (266)

Und auf Sachen wie diese wollen die Politiker unsere Wirtschaft die Luft sprengen und  unseren Lebensstandard abzusenken, um „das Klima“ zu reparieren?

Sind die verrückt?

Soweit die Kommentare des leicht überfordert wirkenden Harry. Selbstverständlich sind das noch keine Beweise dafür, dass die gemeldeten Temperaturdaten alle unbrauchbar waren. Das sind sie wahrscheinlich nicht. Auf jeden Fall sind diese Seufzer und Flüche aber ein klarer Hinweis darauf, dass die vermeintlich gesicherten, weltweit oft nur spärlich verfügbaren Temperaturdaten, mit sehr viel größeren Unsicherheiten (sprich Fehlermargen) behaftet sind, als es uns die nur scheingenaue  Temperaturkurve des IPCC (erstellt aus eben diesen Daten, wie oben beprochen) glauben machen will. Wer nähere Auskünfte dazu haben will, wende sich an den Autor dieser Zeilen.

5. Ist die Mehrzahl der Klimaforscher wirklich von der anthropogenen Erwärmung überzeugt?

Dieser Überzeugung waren alle Teilnehmer der Runde – mit Ausnahme des Autors:

Fischer: (Limburg vertritt) Splittermeinung (9:37) (sie ist) nicht repräsentativ, von div. Gremien überprüft 1000-ende Wissenschaftler seien überzeugt. Bott: (11:38) man spricht von 97%, die hinter dem IPCC Bericht stehen.

Dagegen Limburg: Widerspruch (10:22) In WGI sind nur ca. 40 bis 60 Autoren der harte Kern. Als Beleg wurde Prof. Mike Hulme zitiert: 1000 Wissenschafter votierten jüngst wieder dagegen (11:19)

Schauen wir uns die Fakten der Reihe nach an.

1. Mehrheit der Wissenschaftler dafür?

Behauptet wird: „Die überwältigende Mehrheit der Wissenschaftler seien dieser Ansicht, es herrsche gar Konsens“. Vorab darf nüchtern festgestellt werden, dass Konsens in der Politik – besonders in einer Demokratie – eine gute Sache sein kann, die politische Handlungen legitimiert. In der Wissenschaft mag Konsens ein nützlicher Nebeneffekt sein, kann aber keinesfalls als Ersatz für fehlende Beweise dienen. Ja, Konsens ist oft sogar äußerst gefährlich und verhindert wirksam die Erkenntnis der wahren Zusammenhänge. Das ist wohl auch der Hauptgrund warum – voran der Demagoge Al Gore und seine Apologeten -, aber auch fast alle Politiker das Wort Konsens in Sachen Klima so lieben. Oft wurde schon Konsens behauptet. Erinnern wir uns doch nur: Die Erde sei eine Scheibe, die Sonne bewege sich um die Erde, an die Phlogiston-Theorie (Flammen bestünden aus einem besonderen Stoff, dem Phlogiston), an die Äthertheorie, an die Zurückweisung der Kontinentalverschiebungstheorie, an die Zurückweisung der Relativitätstheorie, an die Zurückweisung der Theorie über Bakterien als Ursache von Magengeschwüren und, und, und..-

Die Liste der Konsensthesen, die sich als falsch erwiesen haben, ist schier endlos. Konsens ist kein Ersatz für wissenschaftliche überprüfbare Beweise: Von Albert Einstein ist folgender Ausspruch überliefert, als er mit der Behauptung konfrontiert wurde, dass 200 arische Wissenschaftler seine Relativitätstheorie widerlegt hätten. Seine kurze Antwort darauf: Wenn sie recht hätten, genügte einer!

Tatsache ist aber außerdem, dass sich nicht einmal die Mehrheit der Wissenschaftler (Klimaforscher im engen Sinne gibt es nicht) aus klimarelevanten Disziplinen der AGW-Katastrophenhypothese des IPCC anschließen. Mehr noch, sehr, sehr viel sind dagegen. Eike hat über das brisante Thema „Konsens“ bereits ausführlich berichtet. Konsens gibt es im hier besprochenen Zusammenhang nicht!

Dies bestätigt auch Prof. Mike Hulme, Meteorologe und Direktor des Gründungs Direktor des Tyndall Centers in England, zudem an der Universität von East Anglia beschäftigt, außerdem Leitautor des IPCC. Er hat dazu kürzlich folgendes gesagt (veröffentlicht in der National Post ) und zusätzlich in einem Aufsatz – zusammen mit seinem Studenten Martin Mahony – für die Fachzeitschrift „Progress in Physical Geography“ geschrieben:

„Das UN-Intergovernmental Panel on Climate Change führte die Presse und Öffentlichkeit mit der Behauptung in die Irre, dass Tausende von Wissenschaftlern seine Ansprüche auf die vom Menschen verursachte globale Erwärmung unterstützen. Die tatsächliche Zahl der Wissenschaftler, die diese Behauptung unterstützen, seien nur ein paar Dutzend Experten“

„Behauptungen, wie 2500 der weltweit führenden Wissenschaftler seien im Konsens darüber, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima haben, sind unaufrichtig. Das macht das IPCC anfällig für Kritik von außen.“

Woher kommt die Zahl 97 % ?

Die Zahl geht wohl auf einen vor kurzem veröffentlichten Beitrag von Frau Cordula Meyer im ehemaligen Nachrichtenmagazin der Spiegel zurück (http://www.spiegel.de/spiegel/0,1518,721168,00.html9 , die darin wörtlich schrieb:

„Nach einer US-Studie gehen 97 Prozent aller Klimatologen weltweit davon aus, dass sich die Erde durch von Menschen produzierte Treibhausgase erwärmt.“

Sie hatte sie wahrscheinlich von Stefan Rahmstorf. Der hatte die Zahl 97 % im März 09 im Artikel (Klimaforscher-Konsens 97%) auf wissenlog.de in die Welt gesetzt.

Rekapitulieren wir doch einmal, wie Stefan Rahmstorf zu diesen 97 Prozent kommt: Er beruft sich dabei auf eine EOS-Umfrage – EOS Volume 90, Number 3, 20 January 2009 – nach der 10.257 Wissenschaftlern angeschrieben wurden. Sie sollten die Fragen beantworten:

1.     Verglichen mit dem Pegel vor 1800, glauben Sie dass die globale Mitteltemperatur eher gestiegen, gefallen oder relativ gleich geblieben ist?

2.     Glauben Sie, dass der menschliche Anteil eine signifikanten Anteil an der Änderung der globalen Mitteltemperatur hat?

Insgesamt beantworteten 3146 Personen diese allgemein gehaltenen Fragen, das sind 30,7 %.

96 % der Antwortenden stammten aus den USA und Kanada, der Rest verteilt sich auf 21 Nationen. Ungefähr 5 % der Antwortenden wurden von den Verfassernder Umfrage als Klimaforscher eingestuft.

90 % der Antwortenden  glauben, dass die Mitteltemperatur gestiegen ist, (wie wir auch) und 82 % bejahten die Frage 2.

Eine Gruppe von 79 Personen (oder 0.77%, der Befragten, bzw. 2,5 % der Antwortenden) stuften sich selbst als Spezialisten auf dem Gebiet des Klimawandels ein, weil sich 50 % oder mehr ihrer (peer- reviewed) Veröffentlichungen in irgendeiner Weise mit dem Thema Klimawandel befassten. Von diesen bejahten die Frage 2 76 Personen, das sind 97,4 %. 

Da also kommen die 97 % her!

Aber 7.111 angeschriebenen Forscher haben keine Antwort gegeben !!!

(Mit Dank an Leser: Ralph Bombosch).

Wie aus den Fragen überhaupt eine 97 % ige Zustimmung zum „überwiegend“ anthopogen verursachten Klimawandel gemacht werden kann bedarf schon einer gehörigen Dehnung der Aussage der Studie. Weltweit war die Zustimmung auch nicht, wenn 96 % der Antwortenden aus nur 2 Ländern stammten. Und erst recht stimmt die Aussage nicht von 97 % aller Klimaforscher weltweit, wenn tatsächlich nur 76 der 3146 Personen – das sind 2,4 % – aller Antwortenden- sich selbst als Spezialisten auf dem Gebiet des Klimawandels einstuften.

Ist aber die Mehrheit der Wissenschaftler dagegen?

Diese Frage ist sehr schwer zu beantworten, da keiner weiß, wie viele Wissenschaftler sich heute in der Querschnittsdisziplin Klimaforschung betätigen. Man kann aber die Zahl derer angeben, die sich früher oder heute gegen diese These ausgeprochen haben. Das haben wir in diesem Beitrag „SPIEGEL vs. EIKE: Häme und Verleumdungen anstatt „Schreiben was ist“ (hier) ausführlich getan.  Danach sind es zigtausende. Jüngst haben sich wieder tausend geäußert wie man hier nachlesen kann. More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims – Challenge UN IPCC & Gore.

6. Treibt CO2 die Temperatur oder ist es umgekehrt? Was taugen Klimamodelle? Teil I

Bei allen anderen Teilnehmern der Runde herrschte unbedingte Einigkeit darüber, dass eine vom Menschen verursachte Erhöhung der CO2-Konzentration in der Atmosphäre höchst klimaschädlich sei und deshalb dringend seine starke Reduzierung geboten sei. Hier manifestierte sich der immer wieder zu hörende Irrtum über die Wirkung des CO2. Nach der gängigen Treibhausthese ist CO2 vielleicht das (nach dem Wasserdampf) stärkste Treibhausgas, aber hierauf kommt es nicht an. Es kommt darauf an, welche globale Temperatursteigerung möglicherweise erfolgen würde – so die These stimmt-, wenn sich seine Konzentration in der Erdatmosphäre erhöht. Und diese potentielle Temperatursteigerung wäre praktisch verschwindend gering, denn die Infrarotabsorption von CO2 ist bereits gesättigt. Vergleicht man seine potentiell erwärmende Wirkung populär mit einer sehr gut isolierenden Pudelmütze, so wärmen zwei Pudelmützen übereinander auch nicht wesentlich besser als eine. Viele klimafachnahen Naturwissenschaftler – Gegner und Befürworter der AGW-Hypothese gleichermaßen – nennen grob 1 °C globale Erwärmung bei CO2-Verdoppelung (man bezeichnet diese Größe als „Klimasensitivität des CO2“). Sie wäre daher völlig unbedenklich und keiner Rede oder gar weiteren Auseinandersetzung wert, denn sie wäre vernachlässigbar. Man könnte dann mit Fug und Recht auch von einem „Nulleffekt“ sprechen. Die Menschheit müsste schon alle fossilen Reserven verbrennen, um CO2-Verdoppelung zu erreichen, wozu es nicht kommen wird. Die vom IPCC und seinen Anhängern beschworenen, viel größeren Erwärmungswerte basieren auf fiktiven Rückkoppelungen in noch fiktiveren Modellen, die inzwischen durch Messungen weitgehend widerlegt sind. EIKE hat über das Thema des potentiellen Treibhauseffekts und die mögliche Wirkung des CO2 bereits ausführlich berichtet.

Bevor wir uns also den Modellen zuwenden, welche einen vermuteten Katastrophalzusammenhang als Tatsache unterstellen und ihre Gleichungssysteme darauf aufbauen, wollen wir uns erst einmal die Vergangenheit anschauen, ob sich dort in den Beoabachtungsdaten eine Abhängigkeit zwischen CO2-Konzentrationen und Temperaturen erkennen lässt.

Tatsache ist, dass aus den Beobachtungen der jüngsten, der jüngeren und der ganz langen Zeit zwischen Temperatur und CO2 keinerlei Ursache-Wirkungsbeziehung festgestellt werden kann. Eine Ausnahme bilden die Temperaturproxies aus den Eisbohrkernen, dort aber läuft die CO2 Konzentration  der Temperatur im Schnitt 800 Jahre nach. Dahinter steht ein wohlbekannter Prozess, nämlich, dass kaltes Wasser mehr CO2  lösen kann als warmes Wasser und das Weltmeer etwa die Zeit von grob 800 Jahren benötigt, um sich vollständig umzuwälzen.

Abbildung 7: Verlauf von Proxydaten der Temperatur und der CO2 Konzentrationen aus Eisbohrkernmessungen für letzten 400.000 Jahre. Darin eingezeichnet die höher aufgelöste Graphik der letzen 8000 bis 22.000 Jahre. Deutlich ist die Nach-Eilung der CO2 Konzentration im Vergleich zu den Temperaturen zu erkennen.

Da mit den temperaturabhängigen Lösungseigenschaften des CO2 in Wasser die Proxy-Befunde bestens erklärt sind, müssen alle Versuche neuer Hypothesen als Verstoß gegen das Ockham-Prinzip angesehen werden. Es besagt, dass zur Erklärung eines physikalischen Phänomens, falls  schon vorhandene, bekannte Gesetzmäßigkeiten völlig ausreichen, keine neuen Hypothesen aufgestellt werden dürfen (Entia non sunt multiplicanda präter necessitatem).

Abbildung 7 zeigt einen solchen Fall für die letzten 400.000 Jahre. Proxydaten aus Eisbohrkernen lassen die sehr grobe Bestimmung der am Bohrloch früher herrschenden Temperatur- und CO2 Konzentrationen zu. Sie reichen heute bis ca. 800.000 Jahre zurück. Al Gore benutzte eine derartige Grafik in seinem mit Unwahrheiten und Propagandatricks vollgestopften Film „Eine unbequeme Wahrheit“.

Leider vergass der den Zuschauern und mit ihnen allen Medienschaffenden mitzuteilen, dass darin die Ursache-Wirkungskette genau anders herum  zu erkennen ist. Erst kommt die Temperatur, dann das CO2. Aber selbst diesen Zusammenhang zeigen die jüngsten Temperatur- und CO2 Verläufe nicht. Wie die folgende Abbildung beweist.

Abbildung 8: Hier wird die offizielle IPCC Temperaturkurve (blaue Linie) mit der ebenso offiziellen CO2-Konzentration (bis 1955 aus Eisbohrkernen, danach vom Mauna Loa direkt gemessen) überlagert. (dicke rote Kurve). Die dicken lila Balken, sollen die Richtung des Temperaturtrends verdeutlichen.

Man erkennt in Abb. 8, dass es zumindest seit 1850 keine ausreichende Korrelation zwischen beiden Größen gibt. Laut THE (Treibhauseffekt)-These, machmal auch als AGW-Hypothese (anthropogenic global warming hypothesis) bezeichnet, müsste es eine gute positive Korrelation beider Größen geben. Mehr CO2 ergibt höhere Temperatur. Oder wie Rahmstorf es beschrieb:

Wir Kli­ma­for­scher kön­nen nur nach dem Wenn-dann-Prin­zip sa­gen: Wenn so und so viel CO2 aus­ges­to­ßen wird, dann wird das Kli­ma sich so und so stark er­wär­men.“[3]

Vom Rahmstorfschen „Wenn-Dann“ keine Spur! Die Korrelation CO2-Temperatur ist miserabel. Inzwischen wissen wir, dass der Anstieg der Temperatur ab 1990 beendet war und bis zum heutigen Tage einem Plateau und leichten Abstieg Platz machte. Auch Phil Jones, der „Held“ der ClimateGate Affaire, Direktor der CRU (Climate research Unit), IPCC Leitautor und Haupttreiber der Idee von der anthopogenen induzierten globalen Erwärmung, sprach von keiner signifikanten Erwärmung mehr seit 1995 [4]. Zum selben Ergebnis kommen auch Prof. Richard Lindzen und mit einigen Abstrichen Prof. Mojib Latif vom Geomar, um nur zwei weitere prominente Forscher zu nennen.

Was also ist das für ein merkwürdiger Prozess, der stetig sein soll, aber ständig seine Befürworter narrt?

Angesichts dieser Sachlage wird umso deutlicher erkennbar, warum der Chef der britischen Wetterbehörde Met Office, Sir John Mitchell (dem deutschen DWD vergleichbar) 2007 feststellte:

It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.[5]

So ist es! In der messtechnischen Realität ist dieser Prozess nicht zu beobachten.


Wird fortgesetzt.

Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke


[1] Aus : http://www.freunde-alter-wetterinstrumente.de/21theein01.htm#in%20Deutschland

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN

[3] Zitat aus „Die Welt“ vom 3.2.2007

[4] Quelle hier http://news.bbc.co.uk/2/hi/science/nature/8511670.stm Bewertung hier: http://wattsupwiththat.com/2010/02/14/phil-jones-momentous-qa-with-bbc-reopens-the-science-is-settled-issues/

[5] John Mit chell, Ju lia Slin go, Da vid S. Lee, Ja son Lowe & Vicky Pope: ‘CLI MA TE CHANGE Re spon se to Car te r et al.’, World Eco no mics, 8 (1): 221228.




Phoenix-Runde: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck! Teil I

Illustre Namen von Leuten – die sonst kein Mikrophon ohne Statement zum Thema Klima an sich vorbeigehen lassen – waren kontaktiert worden. Es hagelte reihenweise Absagen. So auch die vom bereits fest gebuchten Dr. Oliver Geden von der Stiftung Politik & Wissenschaft. Die Redakteure telefonierten sich die Finger wund, bis schließlich drei Freiwillige gefunden waren. Nun sollten Prof. Dr. Andreas Bott (Meteorologe, Uni Bonn), Severin Fischer (Klimaexperte am Institut für Europäische Politik), sowie  Stefan Krug, ein Aktivist von Greenpeace die Runde vervollständigen. Die Moderation der Sendung hatte Alexander Kähler von Phoenix.

Kurz vor der vorgesehenen Aufzeichnung platzte der Betreuer der Sendung mit der Hiobsbotschaft herein, jetzt hätte auch der Aktivist des Medienkonzerns Greenpeace abgesagt. Guter Rat war teuer, man hätte alle NGO´s abtelefoniert, WWF, Greenpeace, BUND, etc. – dann endlich, wenige Minuten vor Aufzeichnung, erwischte man die attac Aktivistin Kathrin – „ich bin die Kathrin- Henneberger“ -. nach eigener Bekundung freie Klimaschützerin und als Aktivistin und Frau schon zwei mal bei Frau Illner zu Gast. Die sagte spontan zu. Eine illustre Runde.

Die Sendung kann man sich hier anschauen. Wir danken Phoenix für die Genehmigung sie auf unserem Blog zu zeigen. In dieser Sendung wurden viele Behauptungen aufgestellt, die wichtigsten werden einem Faktencheck unterzogen.


Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

Lüge ist  viel­leicht nicht das rich­ti­ge Wort…..

Die Run­de sprang schnell von The­ma zu The­ma. Mit­un­ter wur­de auch schon mal der EIKE Ver­tre­ter als Lüg­ner be­zeich­net, und der Mo­de­ra­tor hielt mä­ßig – aber im­mer­hin – da­ge­gen, als er mein­te „Lüge ist  viel­leicht nicht das rich­ti­ge Wort, wenn man ge­gen­sätz­li­cher Mei­nung ist“. Doch zu­ge­ge­ben, bei so­viel kon­tro­ver­sen The­men und Be­haup­tun­gen ist es für nie­man­den leicht den Über­blick zu be­hal­ten, oder sich gar ein Ur­teil zu bil­den. Wir ha­ben uns des­halb zu ei­nem aus­führ­li­chen Fak­ten­check ent­schlos­sen. Zur leich­te­ren Über­prü­fung ha­ben wir die Mi­nu­ten (die Zah­len in Klam­mern) auf­ge­führt, in de­ren Nähe die Be­haup­tung (nicht im­mer wört­lich wie­der­ge­ge­ben) ge­äu­ßert wur­de.

1. Be­haup­tung: Käh­ler (0:53) „Das Eis an den Po­len schmilzt den­noch. „

Die­se Be­haup­tung ist schlicht falsch.

Beispiel Arktis: Das Eis in der Ark­tis schrumpft und wächst rythmisch, z.Zt. wächst es wie­der, im na­tür­li­chen Rythmus der Jah­reszeiten. Ge­gen­über ei­nem lang­jäh­ri­gen Tief­stand im Sommer 2007 – wie er ähn­lich zuvor auch schon in den 50er und 30 Jah­ren des vorigen Jh. vorhanden war –  hat die Eis­be­de­ckung in der Ark­tis um fast die dop­pel­te Flä­che der Bun­des­re­pub­lik zu­ge­nom­men. Im November 2010 erreichte die arktische Eisbedeckung sogar den höchsten Stand seit Ende der siebziger Jahre. Ein Umstand der weder vom Moderator noch von den Qualitätsmedien zur Kenntnis genommen noch über den berichtet wurde.

Die Ab­bil­dung 1 zeigt – über­ei­nan­der ge­legt – die jähr­li­chen sai­so­na­len Schwan­kun­gen der Eis­be­de­ckun­gen der Ark­tis aus der  AMSR Da­ten­bank. Man erkennt die Zunahme gegenüber 2007 um ca. 500.000 km2

Beispiel Antarktis: Schaut man sich die Ant­ark­tis an, ist dort sogar von irgendeiner Schmel­ze über­haupt kei­ne Rede. Bei ei­ner Durch­schnitts­tem­pe­ra­tur von -35°C auch schlecht mög­lich. Das Eis der Ant­ark­tis wächst, weil die Ant­ark­tis (in ih­rem Win­ter) noch nie so kalt war [1]. Die auf Stelzen erbaute neue Neumeyerstation musst deswegen schon mal angehoben werden.

(Meldung Faktum hier 19. Juli 2010/fa.)

– Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke. Es ist die extremste Winterkälte in der Region seit mindestens 29 Jahren. Eine solche Kälte erlebten die elf Wissenschaftler vom „Alfred-Wegener-Institut für Polarforschung“ in Bremen auf ihrer Forschungsstation „Neumayer III“ in der Antarktis noch nie. Minus 50,2 Grad Celsius unter Null erschweren die Arbeiten auf der Forschungsstation. Solche Extremereignise sind eine Herausforderung an Mannschaft und Material. So lassen sich bei dieser Kälte Motoren kaum mehr betreiben. Bereits im Jahr 2008 erlebten die elf Forscher eine vergleichbare Extremkälte. Die Minus-50-Grad-Grenze wurde damals aber nicht erreicht, der tiefste Kältepunkt lag bei Minus 48,8 Grad Celsius. Der bisherige Kälterekord vom Juni 2008 wurde jetzt um 1.4°C unterschritten.“

Mit Dank an Leser T. Lutz

2. Waren die Änderungen der (Anomalien der) globalen  Mitteltemperatur ungewöhnlich, oder gar dramatisch?

O-Ton Bott : Die Zei­chen gro­ße Kli­ma­än­de­run­gen sind er­kenn­bar. Dies wird seit Jah­ren von Klima-Wissenschaftlern „pro­phe­zeit“ (1:43)  …. ihn „ängstigt“ ein dramatischer Anstieg … in den letzten 20 – 30 Jahren definitiv ein anthropogener Effekt. (5:40) … eine rasante Zunahmen (6:15)

Dagegen Limburg (6:40): der Mittelwert der globalen Welttemperatur (7:19) zeigt 3 Anstiege, (alle) gleich hoch und gleich (steil) in den vergangenen 150 Jahren.

Will man überhaupt auf die Aussagekraft eines globalen Mittelwertes mit Änderungen im zehntel Grad Bereich bauen – bei Extremwerten auf eben dieser Erde von -89 ° C in der Antarktis, bis zu + 70 °C in der iranischen Wüste, mit Durchschnittswerten von ca. 30 ° C in manchen Tropen- und Subtropengebieten -, dann sollte man sich zumindest den gesamten Verlauf ansehen.

 

Abbildung 2: offizielle IPCC Grafik AR4 des Verlaufs des Temperaturanomalie, bezogen auf 1961-1990 der globalen Mitteltemperatur. Man sieht deutlich gleich steile Anstiege von 1860 – 1880, von 1910-1940 und von 1975-1998. Letzterer ist überaus strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) wurden.

Die globale Mitteltemperatur ist in Abbildung 2 gezeigt. Die eingezeichneten Graden sprechen für sich.

Period Length Trend
(Degrees C per decade)
Significance
1860-1880 21 0.163 Yes
1910-1940 31 0.15 Yes
1975-1998 24 0.166 Yes
1975-2009 35 0.161 Yes

Die Tabelle (aus Watts up with that hier) zeigt die Werte nochmals als Trends errechnet.

Der Anstieg von 1975-1998 ist strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) (Eine ausführliche Untersuchung von A. Watts & J. Dá leo darüber – Surface Temperature Records: Policy Driven Deception?- finden Sie hier)  wurden. Diese Ansicht stützen auch die Arbeiten des Geologen undefinedProf. F.K. Ewert (EIKE), der über 800 weltweite Temperaturganglinien auf ihren absoluten Temperaturtrend hin untersucht hat, und dabei nur klärte: a) ist ein Trend vorhanden? Wenn ja? b) War er positiv oder negativ? Sein Ergebnis: Von 1990-2010 zeigten 50% aller Stationen weltweit keine Erwärmung oder Abkühlung, 28.8 % eine Erwärmung (ohne Stadterwärmungseffekt) und 16,4% eine Abkühlung. Die Arbeit betrachtete auch den gesamten Trend. Sein Ergebnis: Von 1880-2010 zeigten 74% aller Stationen weltweit keine Erwärmung oder Abkühlung, 5,1 % eine Erwärmung (ohne Stadterwärmungseffekt) und 3,8% eine Abkühlung [2].

Limburg weiter: (7:40) Den letzten Anstieg zeigen Satelliten nicht. Terrestrische Daten zeigen ihn, die Aus­wahl der Sta­ti­o­nen war sehr se­lek­tiv.

Abbildung 3 zeigt den Temperaturverlauf der UAH Satelliten in der mittleren Troposphäre zusammen mit dem Anstieg der CO2 Konzentration. Man sieht im Mittel einen geraden Verlauf bis 1998, dann 1198 sowie 2010 die El Niño Anstiege.

Die Abbildung 3 spricht für sich. Nach 1998 geht es sprunghaft auf leicht höherem Niveau ohne Trend* weiter Warum terrestrische Stationen trotzdem einen Anstieg zeigen, der nicht nur Prof. Bott so ängstigt, beantwortet die nächste Grafik. Sie zeigt die Zahl der weltweiten Stationen des Global Historical Network (GHCN) die – und das ist wichtig – von den ausführenden Instituten CRU, GISS und NOAA in die Auswahl genommen und dann zur Berechnung des statistischen Konstruktes Globaltemperatur herangezogen wurden (werden)

Abbildung  4: Anzahl und globaler Mittelwert (man beachte auch die Werte der linken Achse) der GHCN Stationen (von über 8000 Stationen, die Daten liefern), deren Daten in die Berechnung des globalen Mittelwertes der Temperatur einfließen. Deutlich zu sehen der starke Abfall der Zahl der Stationen ab 1990 (Zusammenbruch der Sowjetunion), bei zeitgleichem sprunghaften Anstieg der globalen Mitteltemperatur (Quelle, siehe Bild).

Wie in Abbildung 4 zu sehen, steigt die globale Mitteltemperatur ab 1990 sprunghaft an. Zeitgleich sinkt die Zahl der ausgewerteten Stationen ebenso sprunghaft. Die Ursache liegt einerseits in einer (aus wirtschaftlichen Gründen) erfolgte Aufgabe ländlicher (ruraler) Stationen, zum anderen in einer bevorzugten Auswahl von Stationen in wärmeren Gebieten und dort überwiegend in Städten und/oder Flughäfen. Diese Selektion wurde bis heute fortgesetzt, so dass heute nur noch ca. 1100 Stationen weltweit  beitragen. Davon stehen über 40 % auf Flughäfen unter dem Einfluss der Erwärmung durch die Turbinen startender Fluszeuge. Man hat also in erster Linie die Zunahme des weltweiten Flugverkehrs seit 1960 gemessen. Mit Klimaerwärmung hat das nichts zu tun.

3. Wenn es die NGO´s nicht gegeben hätte dann wäre es noch schrecklicher

O-Ton Henneberger: Wenn es die NGO´s nicht gegeben hätte, dann wäre es noch schrecklicher (4:07).

Kähler (43:35): Wann haben wir einen echten Klimaschutz? (43: 48)

Bott: Es werden viele große Schäden angerichtet, viele Menschenleben, die es kosten wird, weil zu wenig getan wird.

Fischer: (44:23) Das Risiko ist viel zu groß, wenn wir Herrn Limburg und seinen Kollegen trauen…

Hier wird in beredten Worten von überstandenen Katastrophen (wäre alles noch viel schrecklicher…)  bzw. der großen Gefahr zukünftiger Katastrophen das Wort geredet. Diese gilt es unter allen Umständen zu vermeiden, so der gemeinsame Nenner von Bott, Henneberger, Fischer.

Gemeint sind vermutlich Wetterextreme, wie Stürme, Überschwemmungen und/oder Sturmfluten, Dürren (auch mit Waldbränden), wie wir sie  immer wieder – auch in jüngster Zeit – erlebt haben. Keine Frage: Extreme Wetter sind für die Betroffenen immer schlimm. Und mit zunehmender Zahl der Menschen, sowie rasanter Zunahme ihres Wohlstandes, werden diese auch immer teurer, sowohl was die Zahl der Betroffenen angeht, als auch in der Höhe der Schäden. Die Frage muss aber lauten: Werden sie auf Grund des postulierten Klimawandels mehr und/oder  stärker, oder ist eher das Gegenteil der Fall? Niemand, schon gar nicht Prof. Bott, hat hierzu die Sachstandsberichte des IPCC konsultiert, die von jedermann aus dem Internet heruntergeladen werden können (www.ipcc.ch). Im Sachstandsbericht vom Jahre 2001 ist ein sehr umfangreiches Kapitel 2.7 genau der hier diskutierten Problematik gewidmet, Ergebnis: „Nichts!“. Es gibt die von Prof. Bott beschworenen Znahmen nicht, was im Übrigen die gesamte meteorologische Literatur bestätigt. Und bis heute hat sich daran nichts geändert, 7 Jahre sind ohnehin bezogen auf Klimazeiträume (30 Jahre mindestens) zu kurz für neue Aussagen über die des IPCC-Berichts von 2001 hinaus.

Auch der Meteorologe und Physiker K.E. Puls (EIKE Pressesprecher) forscht seit langem über das Thema: Gibt es eine anthropogen bedingte Zunahme von Extremwettern? Gibt es überhaupt eine Zunahme?

Die Antwort wurde u.a. auf dem III. Internationalen Klima- und Energiekongress in Berlin gegeben. Schade nur, dass keiner der andern Gäste von Phoenix dort anwesend war. Die Antwort ist unmissverständlich. Es gibt keine Zunahme, weder anthropogen, noch generell. In vielen Fällen ist sogar eine Abnahme zu verzeichnen. Dies ganz im Gegensatz zu immer wiederkehrenden Medienberichten. Abbildung 5 zeigt einen Auszug aus diesem Vortrag.

Abbildung 5 : Auszug aus dem Vortrag von K. E. Puls über den Verlauf von Stürmen in der deutschen Bucht, dem Winter NAO Index des Lufdruck Gradienten etc. Überall sind Abnahmen erkennbar. Wer den Vortrag liest, wird erkennen, dass dies für alle Teile der Welt, also auch für Tornados, Hurricanes und anderes gleichermaßen gilt. Den gesamten Vortrag von K.E. Puls mit dem treffenden Titel:

„Klimawandel  : Katastrophe ohne Wetter-Signale ?“

finden Sie hier: undefinedPuls

Auch Jochem Marotzke, Direktor MPI HH Max-Planck-Instituts[8] (Hamburg):, befand in DER SPIEGEL, 7.5.2007, „Abschied vom Weltuntergang“,  S.145  „In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen„.

Wird fortgesetzt:

Michael Limburg EIKE

* Einige Leser werfen mir vor, nicht die „Lower Troposphere Grafik“ gezeigt zu haben. Darin ist der Sprung ab 1998  höher (0,2K statt ca. 0,04 K) Es kam mir jedoch darauf an, zu zeigen, dass kein Trend vor und nach 1998 zu verzeichnen ist. Durch den sehr starken El Niño 1998, sorgte die Trägheit der Ozeane für das höhere Niveau für die Zeit danach.


[1] Man sehe hier: http://www.focus.de/wissen/wissenschaft/natur/neumayer-station-kaelterekord-in-der-antarktis_aid_530799.html

[2] Sie finden diese Arbeit als .ppt Datei (ganz nach unten scrollen Hier: http://www.eike-klima-energie.eu/news-anzeige/klima-realismus-in-berlin-die-3-internationale-klima-und-energiekonferenz-erfolgreich-beendet/




Ertappt in Darwin Australien!

Fangen wir mit dem zweiten Argument an. Die Erde ist seit der Kleinen Eiszeit um 1850 wärmer geworden. Darüber herrscht generelles Einverständnis. Siehe hierzu z. B.  Akasofu. Damit hat Climategate nichts zu tun.

Beim zweiten Argument, der Datenintegrität, liegen die Dinge anders.
„Ja“, gab man zu, “diese Burschen haben E-mails gelöscht und verhindert, dass in Wahrnehmung der Rechte aus dem Informationsfreiheitsgesetz zugegriffen werden konnte. Sie haben Proxy-Daten durcheinander gebracht, sie haben die Veröffentlichung anderer Wissenschaftler-Papiere unterdrückt … das hat aber alles mit den Daten nichts zu tun. Die stimmen immer noch.“ Klingt doch vernünftig?

Es gibt drei globale Datenbestände. Einer davon liegt bei der CRU (Climate Research Unit of the University of East Anglia). Ein anderer liegt bei NOAA/GHCN (Global Historical Climate Network), den dritten führt die NASA/GISS (Goddard Institute for Space Studies). Alle drei nehmen die Rohdaten und „homogenisieren“ sie, um zu berücksichtigen, wenn z. B. eine Messstation in eine wärmere Umgebung versetzt wird und dann ein 2 C Grad-Sprung stattfindet. Die drei globalen Temperaturdatenbestände werden gemeinhin CRU, GISS, GHCN genannt. Sowohl GISS als auch CRU erhalten fast alle ihre Rohdaten vom GHCN. Alle drei Datenbestände erzeugen aus den Rohdaten sehr ähnliche Temperaturverläufe.

Ich bin noch mit meinem mehrjährigen Versuch beschäftigt, die Klimadaten zu verstehen. Man weiß nie, wohin das führt. Dieses mal bin ich in Australien gelandet und habe dabei an Professor Wibjorn Karlens Aussage über Australien gedacht, die ich hier zitiert habe:

Noch ein Beispiel ist Australien. NASA [GHCN] präsentieren nur 3 Stationen, die die gesamte Zeitspanne von 1897 – 1992 abdecken. Auf welcher Art von Daten beruht also das IPCC-Australien-Diagramm?

Falls da überhaupt ein Trend ist, dann eine leichte Abkühlung. Falls man eine kürzere Periode wählt (1949-2005), dann steigt die Temperatur beachtlich an. Die Australier haben viele Messstationen und haben mehr detaillierte Karten und Trends über Veränderungen veröffentlicht.

Die CRU-ler haben Wibjorn gesagt, dass er einfach völlig daneben läge. Hier kann man sehen, was sie für richtig erklärten. Es ist die Datenreihe 9.12 aus dem 4. Auswertebericht des IPCC (AR4) , die Wibjorn meinte. Sie zeigt Nord Australien:

Abb. 1. Temperatur-Trends und Modellrechnungs-Ergebnisse für Nord-Australien. Die schwarze Line sind die Messungen (Aus Fig. 9.12 des UN IPCC AR4). Betrifft das Gebiet von 110 Grad Ost bis 155 Grad Ost und von 30 Grad Süd bis 11 Grad Süd. Beruht auf den Landdaten von der CRU.

Aus den veröffentlichten CRU E-Mails kam ans Licht, dass die CRU als Eingangs-Rohdaten den Datenbestand des Global Historical Climate Network (GHCN) benutzt. Also habe ich mir den GHCN-Datenbestand mal angesehen. Da gibt es drei Stationen für Nord Australien, ganz so wie Wibjorn gesagt hat und überhaupt nur neun Stationen für ganz Australien für den Zeitraum von 1900 – 2000. Hier sind die unveränderten Daten von diesen drei nördlichen Messstationen (Quelle: AIS)

Abb. 2. GHCN Rohdaten, Alle Messstationen über 100 Jahre für das vorher genannte IPCC-Gebiet.

Und wieder hat Wibjorn recht, das sieht dem IPCC-Temperaturverlauf für Nord Australien gar nicht ähnlich. Dazu kann man aber noch nichts sagen. Wibjorn zeigte nur 3 Messstationen. Drei sind nicht viel, ist aber alles, was wir im IPCC Jahrhundertbericht für das bezeichnete Gebiet haben. Nun werfen wir mal mehr Daten in diesen längsten Messstationsbericht ein. Dies sind die Daten für das vom IPCC benannten Gebiet von jeder Messstation bis zum Jahr 2000, ohne Rücksicht darauf, wann die Aufzeichnungen begannen. Es sind 30 an der Zahl.

Abb. 3. GHCN Rohdaten. Alle Stationen bis 2000 im IPCC Gebiet.

Immer noch keine Ähnlichkeit mit dem IPCC. Deshalb habe ich mir jede Station im Gebiet einzeln angeschaut. Es waren 222. Hier ist das Ergebnis:

Abb. 4. GHCN Rohdaten. Alle Stationen bis 2000 im IPCC Gebiet.

Jetzt sieht man, warum Wibjorn Bedenken hatte. Es sieht wirklich nicht nach den IPCC-Daten aus, die von der CRU stammen, die wiederum auf den GHCN-Daten beruhen. Wo liegt der Unterschied?

Nun, alle diese Grafiken benutzen die rohen GHCN Daten. Das IPCC aber benutzt “justierte” (adjusted) Daten. Das GHCN justiert die Daten, um sogenannte “Inhomogenitäten” zu beseitigen. Daher habe ich mir gleich die erste Station auf der Liste angesehen, Flughafen DARWIN. Ich wollte wissen, wie so eine Inhomogenität vor Ort aussieht. Und ich habe herausbekommen, wie hoch die GHCN-Justierung für DARWIN war.

Zuvor aber: was ist eine Inhomogenität? Besser als GHCN kann man es nicht sagen:

Die meisten Langzeit-Messstationen waren Veränderungen ausgesetzt, die deren Messdatenreihen inhomogen machten. Es gibt viele Ursachen dafür, u.a. Änderungen der Messinstrumente, der Gehäuse, der Umgebung der Gehäuse, des Aufstellungsorts zur Zeit der Aufzeichnung und auch bei den Verfahren zur Ermittlung der Durchschnittstemperaturen. Oft kommen die Änderungen zur gleichen Zeit gehäuft vor, z. B., wenn automatisierte Wetterstationen eingeführt warden, wie es in vielen Weltteilen vorkommt. Wenn man derartige Klimadaten verlässlich für Langzeitanalysen der Klimaveränderung nutzen will, müssen Justierungen vorgenommen werden, um die nicht-klimatischen Unregelmäßigkeiten zu berücksichtigen.

Das macht Sinn. Die Rohdaten werden Sprünge aufweisen, wenn die Station umzieht. Wir wollen doch nicht auf eine Erwärmung schließen, nur weil das Thermometer in einer wärmeren Umgebung steht. Das mag zwar unangenehm sein, aber wir müssen es berücksichtigen.

Ich pflege immer mit den allerrohesten Daten anzufangen, um „Justierungen“ zu erkennen. Für DARWIN gibt es fünf getrennte Stationsaufzeichnungen, die zu einer einzigen DARWIN-Aufzeichnung zusammengefasst wurden. Hier sind die Einzelaufzeichnungen der Stationen von dort, von Station Record zero bis Rec. 4 durchnummeriert.

Quelle: http://data.giss.nasa.gov/cgi-bin/gistemp/findstation.py?datatype=gistemp&data_set=0&name=darwin

 

Abb. 5. Fünf einzelne Temperaturaufzeichnungen von DARWIN, dazu in grün die Stationszählung. Diese Rohdaten sind vom GISS heruntergeladen. GISS benutzt die GHCN Rohdaten als Ausgangsbestand für deren Analyse.

Für DARWIN gibt es einige Vorzüge gemessen an anderen Stationen mit Mehrfachaufzeichnungen. Es gibt eine durchlaufende Aufzeichnung seit 1941 bis zur Gegenwart (Station 1). Es gibt auch eine durchlaufende Aufzeichnung für ein ganzes Jahrhundert. Die Stationen stehen in enger Übereinstimmung über die gesamte Aufzeichnungsperiode. Man kann das tatsächlich daran erkennen, dass die Linien mehrerer Stationsdaten so eng beieinander liegen, dass sie hinter der Linie von Station Zero verborgen sind.

Das ist eine ideale Station, weil man daran viele Probleme veranschaulichen kann, die bei den rohen Stationsdaten existieren.

  • • Keine einzige Aufzeichnung überdeckt die gesamte Periode.
  • • Die kürzeste Aufzeichnung ist nur neun Jahre lang.
  • • In nahezu allen Aufzeichnungen sind Lücken von einem Monat und mehr.
  • • Um 1941 herum scheint es Probleme bei den Daten gegeben zu haben.
  • • Bei den meisten Datenreihen fehlen einige Monate.
  • • Für die gesamte Zeitdauer gibt es wenig Nachbarstationen.
  • • Für kein einziges Jahr gibt es Aufzeichnungen aller fünf Stationen zugleich.
  • • Die Temperatur ist über einen Sechsjahreszeitraum gefallen, von einem Höchstwert 1936 bis auf einen Niedrigwert 1941. Die Station zog 1941 um, was aber war in den sechs Jahren zuvor?

Wenn man Stationsaufzeichnungen auswertet, kommt die persönliche Beurteilung ins Spiel. Zuerst einmal ist zu entscheiden, ob überhaupt etwas verändert werden muss. Das wird bei DARWIN eng. Der Datenreihe scheint um 1941 herum durcheinandergebracht worden zu sein, nicht aber im Jahr des Umzugs.

Obschon der 1941er Temperatursprung groß zu sein scheint, sehe ich einen ähnlichen Sprung zwischen 1992 und 1999. Betrachtet man das Gesamtbild, so sollte man alles so lassen, wie es ist. Das ist das Beste, wenn man keine anderen Hinweise hat.
Oberstes Prinzip: nichts verändern!

Aber es gibt eine Begründung, warum man etwas ändern sollte, vor allem wegen des 1941er Umzugs. Wenn ich mich für eine „Justierung“ entscheide sollte, dann sähe das so aus: 

Abb. 6. Eine mögliche „Justierung“ für DARWIN. Die schwarze Linie (rechts skaliert) zeigt den Gesamtbetrag der Justierung an. Darunter die Zeitskala.

Ich habe die vor-1941-Daten um etwa 0.6 C vermindert. Beim Verlauf vom Anfang bis zum Ende erhalten wir eine kleine Änderung bei meinen „justierten“ Daten (rote Linie). Es gibt weder Erwärmung noch Abkühlung. Die offensichtliche Abkühlung in den Rohdaten nach 1941 aber wird abgeschwächt. Wo die anderen Linien sich überdecken, liegen die Aufzeichnungsdaten dicht beieinander. Daran ändere ich überhaupt nichts. Warum sollten wir das tun, wenn sie alle genau das Gleiche anzeigen?

So also würde ich die Daten homogenisieren, wenn ich müsste. Aber ich bin überhaupt dagegen, weil damit nur eine Stationsreihe (DARWIN Zero) geändert würde, und die übrigen im Urzustand blieben.

Anschließend habe ich mich damit beschäftigt, was passiert, wenn das GHCN die “Inhomogenitäten” beseitigt und die Daten “justiert”. Von den fünf Rohdatensätzen wirft das GHCN zwei weg, vermutlich wegen deren kurzer Zeitspanne und weil sie Daten aus längeren Reihen nur duplizieren. Die drei verbleibenden werden zuerst „homogenisiert“, dann die Durchschnitte errechnet, um die „GHCN-justierten“ Temperaturdatenreihe für DARWIN zu erzeugen.

Das ergab eine Überraschung. Um die volle Tragweite zu veranschaulichen, zeige ich sie mit beiden Datenreihen am gleichen Ausgangspunkt beginnend – nicht am Endpunkt, wie es oft geschieht.

 

Abb. 7. GHCN Homogenitäts-Justierungen an der zusammen gefassten DARWIN Datenreihe.

Pfui Teufel! Vor der Homogenisierung fallen die Temperaturen mit 0,7 C Grad pro Jahrhundert … aber nach der  Homogenisierung steigen sie mit 1,2 C Grad pro Jahrhundert. Die „Justierung“ beträgt also mehr als zwei Grad pro Jahrhundert … Wenn diese Burschen „justieren“, gehen richtig ran. Und dann sieht die “Justierung” noch komisch aus. Zuerst geht sie schrittweise hoch, dann bleibt sie bei 2,4 C Grad.

Deswegen habe ich genau hingeschaut, wie das GHCN die Temperaturdaten “justiert”. Das steht in An Overview of the GHCN Database:

GHCN Temperaturdaten enthalten zwei verschiedene Datensätze: die Originaldaten und einen  „homogenitäts-justierten“ Datensatz. Die gesamte Überprüfung der Homogenisierung wurde auf jährlichen Datensätzen durchgeführt. Das Homogenitäts-Justierungsverfahren geschieht in zwei Schritten:

Im ersten Schritt wird eine homogenisierte Referenzserie für jede Station erzeugt (Peterson and Easterling 1994). Eine vollständige homogenisierte Referenzserie unter Benutzung unbekannter Inhomogenitäten zu erzeugen, kann unmöglich sein, aber wir haben verschiedene Methoden angewandt um mögliche Inhomogenitäten in den Referenzserien zu minimieren.

Beim Erzeugen der ersten jährlichen Differenz-Referenzserie haben wir die fünf höchstkorrelierten Nachbarstationen benutzt, die ausreichend Daten hergaben, um die Kandidaten-Station zu modellieren.

Beim abschließenden Verfahren zum Minimieren der Inhomogenitäten bei den Referenzserien wurde der Durchschnitt der drei Hauptwerte benutzt (aus den fünf Nachbarstationen), um die erste Differenzserie zu erzeugen.

Man muss fair bleiben, das alles klingt gut. Sie nehmen fünf Nachbarstationen und bilden die Mittelwerte. Dann vergleichen sie diese Mittelwerte mit den Werten der untersuchten Station. Wenn die zweifelhaft aussehen im Vergleich mit dem Mittelwert der fünf Referenzstationen, dann überprüfen sie alle historischen Aufzeichnungen auf Änderungen, und dann homogenisieren sie die armen Daten gnadenlos.
Ich habe einige Probleme mit dem, was sie beim Homogenisieren machen. Aber auf diese Weise identifizieren sie die inhomogenen Stationen.

Schauen wir mal …  wir wissen, dass die Stationen in Australien spärlich sind. Wie konnte man für 1941 fünf „benachbarte“ Stationen finden?

Ich habe es mir angesehen. Die nächste Station aus dem Jahr 1941 liegt 500 km von DARWIN entfernt. Sie ist nicht nur 500 km weg, sie ist auch die einzige innerhalb 750 km um DARWIN für die 1941er Zeitspanne. (Es ist auch noch eine Kneipe, Daly Waters Pub, um genau zu sein, so ist es halt in Australien.) Es existieren also keine fünf  Stationen für die Bildung einer “Referenzserie”, um die Abnahme von 1936-1941 in DARWIN zu überprüfen.

Ich war verwirrt von der merkwürdigen Form der gemittelten homogenisierten DARWIN-Serien. Ich machte mich nun daran, die Art und Weise der Homogenisierung für jede der einzelnen Stationsdatenserien zu erkennen. Wie ist dieser komische Mittelwert in Abb. 7 entstanden? Ich begann mit DARWIN Zero und der frühesten Aufzeichnung. Hier ist das Ergebnis mit den Rohdaten und den homogenisierten.

 

Abb. 8. DARWIN Zero. Homogenisierung-, Justierung. Schwarze Line: Betrag und Zeit.

Pfui und nochmals Pfui! Was um Himmels Willen rechtfertigt so etwas! Wie kommen die darauf? Seit 1941 haben wir fünf verschiedene Aufzeichnungen für DARWIN. Sie stimmen fast genau überein. Warum also „Justierung“? Man hat einfach einen großen völlig imaginären Trend auf die letzte Hälfte der Rohdaten gesetzt! Jetzt sieht es so aus, wie in der IPCC-Grafik in Abb. 1 – na ja … aber ein Trend von 6 Grad pro Jahrhundert? Und das noch in Form einer gleichmäßig steigenden Stufenpyramide bis zum Himmel? Was ist denn da los?

Das liebe Freunde, sind die plumpen Fingerabdrücke einer Datenverfälschung auf ägyptische Art … Es ist der unwiderlegbare Beweis, dass „homogenisierte“ Daten verändert werden, damit sie in das Vorurteil von der Erderwärmung passen.

Eins ergibt sich daraus ganz klar. Wer sagt, dass „Climategate“ nur eine Angelegenheit von Wissenschaftlern mit schlechtem Benehmen sei, die Daten aber in Ordnung wären, der irrt! Mindestens eine Sorte von Daten ist auch falsch. Der Beweis dafür ist DARWIN Zero.

Und weiter: Ich habe eine ungelöstes Rätsel. Wie und Warum hat GHCN DARWINs historische Datenreihe „justiert“ um eine radikale Erwärmung zu zeigen? Warum haben sie stufenweise „justiert“? Benützen Phil Jones und die CRU-Kollegen die „justierten“ oder die rohen Daten von GHCN? Ich vermute die „justierten“, weil sie die Erwärmung zeigen.

Eine weitere Merkwürdigkeit ist, dass GHCN die Station 1 “justiert” hat, damit sie mit der seltsamen DARWIN  Zero “Justierung” übereinstimmt. Station 2 wurde völlig im übergangen (die deckt in etwa die gleiche Zeitperiode ab und ist in perfekter Übereinstimmung mit Station Zero und Station 1). Nur zwei der drei wurden homogenisiert. Dann erfolgte die Mittelwertbildung.

Auf diese Art erhält man einen Durchschnitt, der einigermaßen reell aussieht. Vermutlich zum Verstecken der Temperaturabnahme (hide the decline).

Wie auch immer, schauen Sie sich mal an, wie GISS damit umgeht. Die benutzen nämlich die Daten von DARWIN erst ab 1963. Eine saubere Art, um das Problem zu umschiffen … und auch um alle unbequem kälteren Daten vor 1941 wegzuwerfen. 

Das ist wahrscheinlich besser als die GHCN Ungeheuerlichkeit. Aber auch schwerlich zu rechtfertigen.

Ohne Wenn und Aber: Die unverfrorene Schwindeljustierung des GHCN bei dieser einzigen Station bedeutet nicht, dass sich die Erde nicht erwärmen würde. Sie bedeutet auch nicht, dass die drei Datenbestände (CRU, GISS, GHCN) generell falsch seien. Es kann sich um einen Einzelfall handeln, wir wissen es nicht. Aber jedes Mal, wenn Daten überprüft und homogenisiert werden, nehmen die Trends zu. Jetzt macht das GISS seine eigenen „Justierungen“. Sie kommen aber zum gleichen Ergebnis wie GHCN, wie sie immer wieder verkünden. Das stellt die GHCN–Daten auch unter Verdacht. 

Was wir daraus lernen ist, dass es wenigstens eine Temperaturmessstation gibt, wo der Trend künstlich nach oben erhöht worden ist, um einen falschen Alarm auszulösen, während die Rohdaten eine Abkühlung zeigen. Zusätzlich sind die Durchschnittsdaten für Nord Australien ganz verschieden von den „justierten“. Es muss also eine Anzahl von … sagen wir mal für uns interessanten „Justierungen“ in Nord Australien zusätzlich zu DARWIN geben.

Im Einklang mit dem lateinischen Sprichwort  “Falsus in unum, falsus in omNis” (Eines falsch – Alles falsch) misstrauen wir jedem, der homogenisierte Daten benutzt. Solange, bis alle Stations-Justierungen überprüft sind (CRU, GHCN, GISS einbegriffen).

Gruß an Alle, kämpft weiter für die gute Sache.

Willis Eschenbach

Die Übersetzung besorgte Helmut Jäger EIKE

Den Originalartikel (vom 8.12.2009) finden Sie hier.

Mit Dank an Spürnase Meister am 7.12.10 

NOTE: Figures 7 and 8 updated to fix a typo in the titles. 8:30PM PST 12/8 – Anthony




Globale Temperatur – CRU-Daten zeigen keine statistisch signifikante Erwärmung!

Summa summarum: Mit Hilfe von zwei Signifikanztests der globalen Temperaturdaten von der CRU habe ich herausgefunden:

In 75% aller Gebiete der Welt gab es keine signifikante Änderung der Erwärmungs- bzw. Abkühlungsrate in der Periode vor 1960 und nach der Jahrtausendwende, der über einen Betrag von 0,5°C hinausgeht, was gut innerhalb der von der CRU selbst festgelegten Fehlergrenze von ±1°C oder schlechter liegt.

Eine angenommene Änderung von Maximum zu Maximum (im Vergleich der Periode vor 1960 und nach 2000) sollte eine Änderung zeigen, die über 20% der gemessenen Temperaturspanne liegt (i. e. falls die gemessene Temperaturspanne 10° beträgt, wird eine Änderung von Maximum zu Maximum größer als 2° als ‚signifikant’ angesehen).  In 87% der Erde gab es keine solche signifikante Temperaturänderung zwischen der Periode vor 1960 und nach 2000.

Wie bin ich zu dieser Schlussfolgerung gekommen?

Ich habe an diesem Beitrag jetzt über eine Woche lang gearbeitet, um eine Hypothese zu testen, die ich durch Betrachtung der Temperaturrohdaten im Vergleich mit den über und über bearbeiteten Werten von CRU, GISS, NCDC und IPCC gewonnen habe (die bearbeiteten Daten zeigen eine dramatische globale Erwärmung im vorigen Jahrhundert). Ich war der Ansicht, dass die Rohdaten eine ganz andere, kältere Geschichte erzählen als die bearbeiteten Daten. Meine Theorie lautet, dass die Ergebnisse der Alarmisten nicht zu den Rohdaten passen, und dass diese Ergebnisse und die daraus resultierenden Trendlinien durch eine Verquickung von unbewiesenen und extrem ungenauen Proxy-Daten dazu gebracht wurden, das gewünschte Ergebnis zu zeigen. Es gibt ein eindeutiges Beispiel dafür aus Neuseeland, wo die Daten und Zeitfenster so ausgewählt wurden, dass sich ein lächerliches ‚Datensammelsurium’ ergab, das die Rohdaten komplett ignorierte.

Um diesen Betrug in einen globalen Maßstab zu heben, wie ich zuvor erwähnt habe, müssen sich die Alarmisten mit zwei unbequemen Wahrheiten auseinandersetzen:

1.       Die Warmzeiten in den dreißiger und vierziger Jahren wiesen etwa die gleiche Temperatur wie heute auf.

2.      Die gegenwärtige Abnahme der Temperatur erfolgt ausgerechnet dann, wenn die Alarmisten eine dramatische Zunahme behaupten, damit sie zum steigenden CO2-Gehalt passt.

Was die Alarmisten am Ende dieses Prozesses brauchen, ist eine Graphik, wie sie vom NCDC erstellt worden ist, in der die dreißiger und vierziger Jahre auf kälter und die heutigen Temperaturwerte auf wärmer getrimmt wurden.

Man hat den aktuellen Code der CRU gefunden, mit dem dies bewerkstelligt wird, und zwar indem man gute Temperaturdaten mit ungenauen Proxy-Daten (in diesem Falle Baumringdaten) zusammenwirft und andere willkürliche Anpassungen vornimmt. Die zweite Methode der Alarmisten besteht darin, einfach die unbequemen aktuellen Temperaturen, die eine globale Abkühlung zeigen, fallen zu lassen, was ebenfalls eindeutig aus dem Datenmüll der CRU hervorging.

Ich habe versucht, das Fehlen von Rohdaten der Temperatur durch the country-by-country graphs [man klicke auf diesen Link, um zu sehen, was gemeint ist! A. d. Übers.] zu ersetzen, welche mit den Daten der Universität von East Anglia versenkt wurden. Der file lautet: idl_cruts3_2005_vs_2008b.pdf. Er zeigt, dass dies die jüngste Version der Aufzeichnung von Temperaturrohdaten ist, in Vorbereitung auf eine neue Veröffentlichung der jüngsten Daten (der PDF-file wurde im Juli 2009 erzeugt).

Ich bin ziemlich sicher, dass diese Daten aus der Zeit vor den massiven Korrekturen stammen, die von der CRU und Kohorten vorgenommen wurden. Tatsächlich kann man in den Graphiken eine Menge interessanter und aussagekräftiger Details erkennen. Viele der Daten vom Pazifik sind seit 2005 aussortiert worden in dem Versuch, frühere Fehler zu korrigieren, und man erkennt, dass der Trend in den meisten Graphen seit 2008 abwärts geht. Außerdem wurden die Warmperioden der dreißiger und vierziger Jahre noch nicht ausgewertet. Die Alarmisten hatten noch keine Gelegenheit, die Daten vor der Veröffentlichung hiervon zu ‚säubern’ (was als einen Grund betrachte, warum die Daten versenkt wurden).

In dieser Graphik erkennt man die Primärdaten, die von der CRU noch verfügbar sind. Sie zeigt einen Vergleich der Daten im Jahre 2005 (schwarz) und 2008 (violett). Von der CRU wurden diese Daten vierteljährlich aufgeteilt. Diese Graphik stammt aus den Monaten März – April – Mai (MAM) aus Chile.

Die Liebe zu Trendlinien und deren Veränderung durch die CRU sowie andere Alarmisten kommt hier klar zum Ausdruck. Es sind die sehr variablen Linien, aus denen die (viel weniger akkuraten) Trendlinien gewonnen werden. Ich weise so deutlich darauf hin, damit man die Tatsache erkennt, dass die Rohdaten eines Zeitabschnitts für einen Staat in einem gegebenen Jahr schon jetzt unter einem Berg von Anpassungen verschwunden sind. Tages- und Nachttemperaturen müssen zu Vierteljahreswerten zusammengefasst und dann in ein landesweites Schema gepresst werden. Selbst mit all diesen hinzugefügten Ungenauigkeiten sind die ‚Rohdaten’ noch ziemlich dynamisch, was mich fragen lässt, wie dynamisch der Datenfühler eigentlich ist. CRU und andere glauben, dass die Trendlinien etwas Signifikantes bedeuten – aber tatsächlich ist alles, was sie tun, die Dynamik der Natur zu verschleiern.

Wie auch immer, lassen Sie mich jetzt erklären, wie ich (durch Augenschein – uff!) die beiden Datensätze benutzt habe, um meine Hypothese zu testen, die da lautet, dass die Jahre nach 2000 nicht signifikant wärmer waren als die Jahre vor 1960 (als der CO2-Gehalt viel niedriger lag). Hier sieht man, wie ich die Änderungen von Maximum zu Maximum in jedem einzelnen Graph ermittelt habe:

Ich habe einfach das Maximum vor 1960 und das Maximum der Jahre nach 2000 herausgelesen und voneinander subtrahiert. Ich weiß, dass dies subjektiv und fehleranfällig ist, aber es reicht für einen ‚vernünftigen Test’. Ich hätte es vorgezogen, die aktuellen Rohdaten zu nutzen und die Minimum/Maximum-Punkte für jeden Zeitraum selbst zu definieren und sie danach miteinander zu vergleichen. Aber wenn man eben keinen Zugang zu den Rohdaten hat, wie es echte Wissenschaft erfordert…

Man beachte, dass ich die Trendlinie von 2005 benutze. Ich habe viele Graphen aus dem Jahre 2008 bemerkt, die meine Hypothese viel besser stützen würden, und vielleicht untersuche ich diese Version eines Tages. Ich weiß auch, dass es höhere Maxima vor dem Jahr 2000 gab (besonders um das Jahr 1998). Tatsächlich habe ich mich dabei ertappt, dieses Maximum von 1998 in die Periode nach 2000 hinein zu mitteln. Ich versuchte, der alarmistischen Seite den Irrtum nachzuweisen (und meine Hypothese zu beweisen). Man beachte auch, dass die jährlichen ‚Rohdaten’ teils deutlich außerhalb alle Spitzen der Trendlinie lagen – daher mache ich mir nicht allzu viele Sorgen, weil einige Spitzen weggefallen sind. Die nächste Berechnung wird erklären, warum.

Die P2P-Daten in meinen Resultaten sehen so aus:

 

Beachte: Ich versuche, einen Weg zu finden, eine saubere Tabelle zu erstellen, die sich dann kopieren lässt.

Wie auch immer, ich berechnete den P2P-Wert für jedes Quartal für jedes Land und mittelte diese über ein ganzes ‘Jahr’. Dann führte ich drei Signifikanztests durch um herauszufinden, ob der P2P-Wert (1) unter -0,5°C lag, (2) innerhalb des Bereiches
± 0,5°C oder über 0,5°C.

Ich habe mich entschlossen, diesen Signifikanztest durchzuführen, weil ein anderer File, der mit den CRU-Daten vernichtet wurde, klar gezeigt hat, wo genau CRU die Genauigkeit der Messungen typischerweise mit 1°C oder höher angegeben hat. Man betrachte den CRU report aus dem Jahre 2005, der diesen Anspruch der Genauigkeit zusammen mit ihrem eigenen Verlauf der Messgenauigkeit enthält.

In meinem Originalbeitrag über diese Files ging ich sehr ins Detail bzgl. der Messgenauigkeit (oder Irrtumsgrenzen) im Hinblick auf die Behauptungen der Alarmisten. Ich werde dies hier nicht wiederholen, aber ich denke, dass es ziemlich großzügig von mir ist, eine Fehlergrenze von ± 0,5°C an der Trendlinie zuzulassen (die zahlreiche potentielle Irrtümer durch die Mittelungen enthält). Die meisten Daten der CRU, die die Ungewissheit beschreiben, wie auf der Karte weltweit dargestellt, liegen oberhalb der Fehlergrenze von ± 1°C.

Dies bedeutet, dass das Entdecken eines Erwärmungstrends von 0,8°C statistisch unmöglich ist. Wenn ich die Zahlen von CRU benutzt hätte, wäre kein einziger der Rohdaten signifikant gewesen. Deswegen werden ja diese Tests durchgeführt, um herauszufinden, ob wir hinreichend genaue Daten haben, um unsere Hypothesen und Schlussfolgerungen zu überprüfen.

===========

Die Schlussfolgerung steht hier: CRU Raw Temp Data Shows No Significant Warming Over Most Of The World

Mit Dank an Joe D’Aleo

Veröffentlicht von A.J.Strata auf StrataSphere 

Übersetzt von Chris Frey für EIKE

Anmerkung der Redaktion: Diese Ergebnisse bestätigen in eindrucksvollerweise die Befunde der Arbeiten von Prof. Ewert EIKE, der anhand der qualitativen Analyse der Temperaturganglinien von anfang > 40 später knapp 800 weltweiten Messtationen herausfand, dass 74 % davon keinen Anstieg, die mesten sogar einen Abfall der Temperatur zeigte. Wird in Kürze veröffentlicht (Vorinfo hier)!




Das ZDF- der Klimawandel- und die Wahrheit: Mit dem Zweiten diffamiert man besser!

Und mit dieser Grundhaltung nahm man sich die "Klimaskeptiker" von EIKE vor. (Hier finden Sie den Beitrag) In der Anmoderation von Frau Petersen – im allgemeinen einen von ihrem Chef vorgeschriebenen Text ablesend- wurde der Kurs schon mal festgelegt. Maliziös lächeln durfte sie allerdings noch selber.

Die  allermeisten Klimafoscher weltweit -so ihre schon irreführende Ansage- ringen in Cancun darum, zu retten was zu retten ist. Schließlich drohe doch der Meeresspiegel zu steigen, die Globaltemperatur ebenso, allerdings sähen die "Leugner" – Originalton Petersen- dies völlig anders.  Dann ging der Beitrag los und der Sprecher bemühte sich jede Menge Häme und Diffamierung zu verbreiten. Es wurden -die "überwiegend älteren Herren" gezeigt, der Geologe Ewert wurde ohne jeden Zusammenhang  über das Mittelalter zitiert, um dann übergangslos auf den Starklimafolgenforscher Stefan Rahmstorf umzuschalten. Der durfte dann mehrmals über die ungeliebten Klimarealisten herziehen. Diese wichen einer wissenschaftlichen Diskussion immer aus, jedwede Einladung an sie bliebe unbeantwortet, sie bedienten nur die Laien mit plausiblen aber falschen Argumenten, und sie würden ihre Arbeiten nicht in anerkannten Journalen veröffentlichen. 

Nun, Herr Rahmstorf scheint nicht auf dem Laufenden zu sein. Die Filmemacher hätten ihn z.B. nach wenigen Recherchen oder Telefonaten korrigieren können mit  der Mitteilung, dass Rahmstorf und Kollegen bisher jeder kontroversen Diskussionrunde ausgewichen sind. Wie auch jetzt wieder bei einer geplanten Sendung von Phoenix. Sein Kollege Schelllnhuber tut es ihm gleich und verglich sich dazu schon mal mit Albert Einstein, der seiner Meinung nach auch nicht bei Frau Illner auftreten würde. Auch blieb Rahmstorf verborgen, dass jedes Jahr wissenschaftliche Klimakongresse der Realisten, vorwiegend in den USA, stattfinden. Sie werden von hunderten internationaler Top-Wissenschaftler besucht. Der letzte fand im Mai d.J. in Chicago statt. Man zählte um die 700 Teilnehmer. Wissenschaftler aus der Alarmistenscene werden grundsätzlich eingeladen. Manchmal kommen auch einige. Nur Schellnhuber, Rahmstorf oder Edenhofer wurden bisher nicht gesichtet.

Aber, weil die Verweigerung offensichtlich nicht mehr geht, hat nun PIK Chef Schellnhuber, die Wissenschaftler von EIKE offiziell zu einem wissenschaftlichen Workshop eingeladen, der jetzt für den März kommenden Jahres terminiert wurde. Gut möglich, dass Rahmstorf darüber nicht informiert wurde. Auch seine Aussage, dass die Klimarealisten (im Originalton "Skeptiker") ihre Arbeiten nicht in anerkannten Fachjournalen veröffentlichen würden, ist schlicht falsch. Es kann aber gut sein, dass Kronzeuge Rahmstorf diese Fachaufsätze einfach nicht zur Kenntnnis nimmt, sie daher nicht kennt. Im Standardwerk des NIPCC " Climate Change Reconsidered"(http://www.nipccreport.org/), einer Zusammenfassung des derzeitigen Stands der Klimaforschung aus realistischer Sicht, sind viele tausend Literaturangaben enthalten. Die Website "Popular Technology Net" listet über 800 solcher Studien auf. (http://www.populartechnology.net/2009/10/peer-reviewed-papers-supporting.html)

"Ri ra rum – wer nicht liest bleibt dumm" könnte man in Anlehnung an das berühmte Liedchen in der Sesamstraße singen. So betrifft es diesmal den Klimaforscher Rahmstorf und die gläubigen Filmemacher.

Der Beitrag arbeitet sich dann an der Tatsache ab, dass der Sitz von EIKE in Jena nur ein Postfach ausweist. So als ob 30 Jahre Entwicklung der Kommunikationstechnik spurlos an den Autoren vorbeigegangen ist. Wo steht denn geschrieben, dass ein vollwertiges Institut immer in einem vornehmen Glasgebäude sein muss? Sicher, da haben es die mit Staats- und Firmengeldern finanzierten Institute der Alarmisten einfach besser. Da kann EIKE nicht mithalten. Wir arbeiten alle – der Präsident eingeschlossen-  von unseren Homeoffices aus. Schade nur, dass der vermeintliche Geldsegen, den der Thinktank Cfact im Jahre 1998 bis 2000 von Exxon erhalten haben soll, an EIKE spurlos vorüber ging. EIKE verwendet seine knappen Mittel eben nicht für aufwendige Büros, sondern lieber zur Organisation von Kongressen und Vorträgen. Und das mit jedem Tag erfolgreicher. Not macht eben erfinderisch.

Bleibt zum Schluss noch die immerwiederkehrende Litanei von den 97 % der Klimaforscher weltweit, die die Katastrophe unvermeidlich kommen sehen. Sie geht zurück auf Zitate im ehemaligen Nachrichtmagazin "Der Spiegel", der sich seinerseits auf die Literaturwissenschaftlerin und Klimaktivistin Naomi Oreskes beruft, von der man inzwischen weiß, dass sie die von ihr untersuchte wissenschaftliche Literatur nicht einmal ansatzweise gesichtet, sondern lediglich eine unvollständige Datenbankabfrage der Paper-Abstracts vorgenommen hat. Das Ergebnis war unbrauchbar, wie es z.B. der englische Anthropologe Dr. Benny Peiser detailliert nachwies. Oreskes suchte für Ihre Studie in wissenschaftlichen Netzwerken (ISI database) nur mit den drei Schüsselwörtern  "global climate change" nach. Dies lieferte ihr ungefähr nur 1/10 der Literatur, die zum allgemeineren Schlüssel "climate change" passt, so dass 9/10 außen vor blieb. Dr. B. Peiser, Anthropologe in Liverpool, untersuchte die Studie und befand sie auf Grund der vielen Fehler als unbrauchbar. 

Peiser merkt an: "Oreskes behauptet, 928 Abstracts analysiert zu haben, die sie auf der ISI-Datenbank mit dem Stichwort „climate change“ für die Jahre 1993 "- 2003 gefunden hat. Doch eine Suche auf der ISI-Datenbank unter voller Verwendung dieser Schlüsselwörter zeigt, dass fast 12.000 Arbeiten in den fraglichen zehn Jahren dort veröffentlicht (2) wurden. Zahllose Forschungsarbeiten über die folgenden Themen blieben beispielsweise unberücksichtugt: Ähnliche oder sogar höhere globale Temperaturen während des Holozäns und des Klimaoptimums der Mittelalterlichen Warmzeit  mit niedrigeren atmosphärischen CO2-Gehalten als heute / Variabilität der Sonne als wesentlichem Treiber des jüngsten Klimawandels / Ungewissheiten der Klimamodellierung usw.“

Entsprechende Einwände wurden an Oreskes auch vom Wissenschaftsjournalisten David Appell gerichtet, und am 15. Dezember 2004 gab schließlich Oreskes zu, dass ihr Science Essay voller Fehler war. In einer betreffenden E-Mail von Dr. Peiser (link s.o.) an die Fachzeitschrift Science heißt es: „Da ich die Ergebnisse der Studie von Oreskes als fraglich ansah, beschloss ich, sie zu wiederholen.“ Bei seinem Versuch diese Wiederholung in Science als Korrektur zu veröffentlichen, stieß Peiser jedoch auf eiserne Ablehnung.  Der Telegraph UK hat sich der Geschichte unter der Überschrift  "Leading Scientific Journals are "Censoring Debate About Global Warming" angenommen. (Peiser nahm daraufhin Stellung zu Versuchen seine Ergebnisse umzuinterpretieren). Der Redaktion des SPIEGEL ist dieser Sachverhalt übrigens seit unserem Schreiben vom Februar 2009 bekannt (Realitätsverlust beim SPIEGEL ONLINE).

Darüberhinaus berichteten die Autoren der "Dokumentation" mit keiner Silbe über die vielen, vielen Beiträge von internationalen Top-Wissenschaftlern auf der 3. internationalen Klima- und Energiekonferenz.  Denn hätte man dies getan, dann hätte man sich ja sofort ad absurdum geführt. Das durfte nicht sein. Also diffamierte man was das Zeug hielt und nennt es dann Dokumentation.

Fazit: Mit diesem Beitrag hat das ZDF seine per Rundfunkgesetz zwingend vorgeschriebene Pflicht zur ausgewogenen, neutralen und objektiven Berichterstattung auf das Gröbste verletzt. Ob es damit den Zuschauerschwund aufhalten kann, ist fraglich. Eine Gegendarstellung wäre das Mindeste was die Verantortlichen bringen müssen. 

Wer sich beim ZDF zu Sendung äußern will, kann dies hier tun

Die Emails der Verantwortlichen lauten: Dr. Claus Richter: richter.c@zdf.de, Hilke Petersen: petersen.h@zdf.de

Die Sendung kann hier  gesehen werden: Und hier eine ergänzte Version, wo die gröbsten Schnitzer fernsehkommentatorisch widerlegt werden (Als Anhang zur Sendung). Mit Dank an Rainer Hoffmann

Michael Limburg EIKE