Antwort eines Mathematikers auf die BEST Studie

Keenan (siehe Foto rechts) schreibt:

The Economist forderte mich auf, vier Forschungsstudien des BEST-Projektes zu kommentieren. Die vier Studien, die nicht veröffentlicht sind, haben folgende Titel:

Es folgt Einiges der Korrespondenz, die wir hatten (man beachte: meine Kommentare wurden unter Zeitdruck geschrieben und sind nicht überarbeitet).

From: D.J. Keenan
To: Richard Muller [BEST Scientific Director]; Charlotte Wickham [BEST Statistical Scientist]
Cc: James Astill; Elizabeth Muller
Sent: 17 October 2011, 17:16
Subject: BEST papers
Anhang: Roe_FeedbacksRev_08.pdf; Cowpertwait & Metcalfe, 2009, sect 2-6-3.pdf; EmailtoDKeenan12Aug2011.pdf

Charlotte und Richard,

James Astill, Redakteur für Energie & Umwelt bei The Economist, fragte Liz Muller, ob es in Ordnung gehe, mir die BEST-Studien zu zeigen, und sie stimmte zu. Bislang habe ich zwei der Studien gelesen:

Decadal Variations in the Global Atmospheric Land Temperatures

  • Influence of Urban Heating on the Global Temperature Land Average Using Rural Sites Identified from MODIS Classifications

Es folgen dazu einige Bemerkungen.

In der ersten Studie werden verschiedene Reihen verglichen und analysiert. Die Reihen wurden jedoch manchmal durch gleitende Mittelbildung geglättet. Geglättete Reihen können in den meisten statistischen Analysen nicht benutzt werden. Für einige Bemerkungen hierzu, die lediglich ein wenig statistisches Hintergrundwissen erfordern, sei hier auf die Blogbeiträge des Mathematikers (und Statistikers) Matt Briggs hingewiesen:

Do not smooth times series, you hockey puck!
Do NOT smooth time series before computing forecast skill

Hier folgt ein Auszug daraus (Hervorhebung im Original):

Sofern die Daten nicht mit einem Fehler gemessen werden, wird man die Reihen niemals, niemals unter keinen Umständen GLÄTTEN! Falls man sie aus irgendwelchen bizarren Gründen doch glättet, benutzt man diese geglätteten Reihen absolut NIEMALS als Input für andere Analysen! Wird doch mit einem Fehler gemessen, kann man versuchen, sie zu modellieren (das heißt zu glätten), um vielleicht den Fehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine Schätzung von außerhalb haben, d. h. die Abschätzung darf nicht aufgrund der aktuellen Daten erfolgen.

Falls man in einem Anfall von Schwachsinn die Daten von Zeitreihen doch glättet und sie dann doch als Eingangswerte für andere Analysen nimmt, steigt die Wahrscheinlichkeit, sich selbst zum Narren zu halten, dramatisch! Und zwar weil das Glätten Spurensignale erzeugt – Signale, die für andere analytische Methoden real aussehen.

Es scheint, dass dieses Problem vieles der statistischen Analyse in eurer Studie ungültig macht.

Es gibt noch ein weiteres, größeres Problem bei Ihren Studien. In statistischen Analysen zieht man Folgerungen nicht direkt aus den Daten. Vielmehr wird ein statistisches Modell in die Daten eingepasst, und die Folgerungen ergeben sich aus dem Modell. Wir sehen manchmal Aussagen wie „Die Daten nehmen signifikant zu“, aber das ist eine leere Phrase. Daten können nicht signifikant zunehmen, nur ein Trend in einem statistischen Modell kann das.

Ein statistisches Modell sollte sowohl hinsichtlich der Statistik als auch der zugrunde liegenden Wissenschaft plausibel sein. Die statistische Basis schließt in der Regel ein, das Modell mit anderen plausiblen Modellen oder die beobachteten Werte mit dem vom Modell vorhergesagten Werten zu vergleichen. Die Diskussion auf wissenschaftlicher Basis wird zum größten Teil aus den Texten in der Statistik kommen (weil die Texte die Statistiken erläutern), aber nichtsdestotrotz ist es unabdingbar, dass ein Modell wissenschaftlich plausibel ist. Falls die statistische und die wissenschaftliche Basis eines Modells in einer Analyse oder aus dem Zusammenhang nicht klar hervorgeht, dann sollte man Folgerungen aus dem Modell als unbegründet betrachten.

Das statistische Modell, das in den meisten Analysen klimatologischer Zeitserien angewandt wird, ist eine gerade Linie (normalerweise steigend) mit Rauschen (d. h. Störungen), die AR(1) sind [AR steht hier also NICHT für Assessment Report! A. d. Übers.]. AR(1) steht kurz für „Autoregression erster Ordnung“, was grob gesagt bedeutet, dass (allein) dieses Jahr eine direkte Auswirkung auf das nächste Jahr hat; ist zum Beispiel dieses Jahr sehr kalt, wird das nächste Jahr eine Tendenz in Richtung kälter als im Mittel aufweisen.

Dieses Modell – eine gerade Linie mit AR(1)-Rauschen – ist das beim IPCC angewandte Modell (siehe AR4: §I.3.A). Ebenso wurde dieses Modell durch das U.S. Climate Change Science Program benutzt (welches dem Kongress Rechenschaft ablegt) in seiner Analyse „Statistische Hinweise in Bezug auf Trends“ (hier). Und so weiter. Ein auf AR(1) basierendes Modell wurde außerdem auf zahlreiche klimatologische Zeitreihen von anderen Größen als der globalen Temperatur angewandt. Zum Beispiel auf die Pazifische Dekadische Oszillation, die in Ihrer Studie untersucht worden ist: Siehe das Begutachtungspapier von Roe (2008) im Anhang.

Obwohl ein auf AR(1) basierendes Modell verbreitet Anwendung fand, enthält es nichtsdestotrotz doch gravierende Probleme. Diese sind eigentlich so grundlegend, dass sie in einigen untergeordneten Texten über Zeitreihen diskutiert werden – zum Beispiel in Time Series Analysis and Its Applications (third edition, 2011) by R.H. Shumway & D.S. Stoffer (see Example 2.5; set exercises 3.33 and 5.3 elaborate).

In Australien beauftragte die Regierung die Garnaut Review, über die Klimaänderung zu berichten. Die Garnaut Review befragte Spezialisten für die Analyse von Zeitreihen, um die globalen Temperaturreihen zu analysieren. Unter Berücksichtigung des Berichtes dieser Spezialisten wie z. B. Shumway & Stoffer wurde das auf AR(1) basierende statistische Modell verworfen. Die statistische Analyse zeigt, dass dieses Modell zu einfach gestrickt ist, um mit der Komplexität globaler Temperaturreihen umzugehen.

Außerdem haben einige führende Klimatologen auf wissenschaftlicher Basis vehement darauf hingewiesen, dass das auf AR(1) basierende Modell unrealistisch und zu einfach ist (Foster et al., GRL, 2008).

Zusammenfassend muss man sagen, dass die meiste Forschung zur globalen Erwärmung auf einem statistischen Modell basiert, das man nicht verwenden sollte. Dies macht viele Analysen zur globalen Erwärmung ungültig. Ich habe ein op-ed piece im Wall Street Journal veröffentlicht, in dem ich diese Dinge erkläre, in einfachem Englisch, in diesem Jahr.

Das größte Zentrum zur Erforschung der globalen Erwärmung in UK ist das Hadley Centre. Dort arbeitet ein Statistiker, Doug McNeall. Nachdem mein op-ed piece erschienen war, gab es zwischen Doug McNeall und mir darüber einen Austausch von e-mails. Eine Kopie von einer seiner Botschaften findet sich im Anhang. Darin stellt er fest, dass das statistische Modell – eine gerade Linie mit AR(1)-Rauschen – „einfach ungeeignet“ ist. (Er glaubt immer noch, dass sich die Welt erwärmt, hauptsächlich aufgrund von Computersimulationen des globalen Klimasystems).

Obwohl man vom AR(1)-basierten Modell inzwischen weiß, dass es ungeeignet ist, weiß niemand, welches statistische Modell man benutzen sollte. Es gab verschiedene Studien hierzu in der wissenschaftlich begutachteten Literatur, in denen mögliche Lösungen vorgeschlagen worden sind, aber bisher hat kein Alternativmodell viel Akzeptanz erfahren.

Als ich vom BEST-Projekt erfuhr, hatte ich den Eindruck, dass es darin um statistische Dinge geht. Also war ich extrem neugierig zu sehen, welches statistische Modell verwendet wurde. Ich hatte angenommen, dass eine grundlegende statistische Expertise in das Projekt eingebracht worden ist, und ich hatte das Vertrauen dass zumindest eine große Verbesserung des AR(1)-basierten Modelles herauskommen würde. Tatsächlich habe ich das in einem Interview mit The Register im Juni gesagt.

BEST hat sich aber weder des AR(1)-basierten Modells angenommen; noch hat es ein Modell verwendet, das mit einigen der Komplexitäten rechnet, an denen AR(1) gescheitert ist. Statt dessen hat BEST ein Modell verwendet, das sogar noch einfacher gestrickt ist als AR(1), ein Modell, das im Wesentlichen keine Strukturen in Zeitreihen zulässt. Im Einzelnen vermutet das bei BEST verwendete Modell, dass dieses Jahr keine Auswirkungen auf das nächste Jahr hat. Klimatologisch ist diese Vermutung ganz klar ungültig. Wie man einfach sehen kann, gilt es auch nicht in statistischer Hinsicht. Also sind die Schlussfolgerungen der beim BEST durchgeführten statistischen Analyse ohne Grundlage.

All dies geschah, obwohl zum Verständnis der entscheidenden Frage – welches statistische Modell sollte man verwenden? – lediglich ein einführendes Niveau zum Verstehen von Zeitreihen erforderlich ist. Die Frage ist so grundlegend, dass sie in der Einführung bei Shumway & Stoffer enthalten ist, siehe obigen Auszug. Ein weiterer Text, der das auf ähnliche Weise versucht, ist die Introductory Time Series with R von P.S.P. Cowpertwait & A.V. Metcalfe (2009); ein Abschnitt dieses Textes ist im Anhang. (Der Abschnitt sagt aus, dass aus statistischer Perspektive ein reines AR(4)-Modell für globale Temperaturen geeignet ist). Weder Shumway & Stoffer noch Cowpertwait & Metcalfe haben meines Wissens eine Agenda zur globalen Erwärmung. Vielmehr schreiben sie einführende Texte über Zeitreihen und geben Studenten praktische Beispiele; jeder Text schließt eine Reihe globaler Temperaturen als ein Beispiel ein.

Es gibt auch Bücher, die sich der statistischen Analyse von Klimadaten verschrieben haben und in denen das Modellieren von Zeitreihen im Detail beschrieben wird. Mein Bücherschrank enthält diese hier:

Climate Time Series Analysis (Mudelsee, 2010)
Statistical Analysis in Climate Research (von Storch & Zwiers, 2003)
Statistical Methods in the Atmospheric Sciences (Wilks, 2005)
Univariate Time Series in Geosciences (Gilgen, 2006)

Betrachtet man die zweite Studie über den Wärmeinseleffekt lautet die Schlussfolgerung, dass es eine gewisse städtische Abkühlung gegeben hat. Diese Schlussfolgerung widerspricht einem Jahrhundert Forschung ebenso wie der allgemeinen Erfahrung. Sie ist fast mit Sicherheit falsch. Und falls eine solche unerwartete Schlussfolgerung korrekt ist, dann sollten alle denkbaren Anstrengungen unternommen werden, um dem Leser zu zeigen, dass sie richtig sein muss.

Ich schlage eine alternative Erklärung vor. Machen Sie sich zunächst klar, dass in Ihrer Analyse als „sehr ländlich“ beschriebene Stationen tatsächlich einfach „Orte sind, die nicht durch eine bebaute Umgebung dominiert werden“. Mit anderen Worten, es könnte auch – und vermutlich ist das auch so – eine substantielle Urbanisation an jenen Stationen geben. Zweitens, nehmen Sie zur Kenntnis, dass Roy Spencer Beweise präsentiert hat, dass die Auswirkungen der Urbanisation hinsichtlich der Temperatur exponentiell mit steigender Bevölkerungszahl wachsen (hier)

Fasst man diese beiden Dinge zusammen, können wir erwarten, dass der UHI-Effekt an „sehr ländlich“ klassifizierten Stationen größer ist als an „städtisch“ klassifizierten. Und das ist tatsächlich das, was Ihre Analyse zeigt. Natürlich, sollte diese alternative Erklärung korrekt sein, können wir keinerlei Aussagen über die Größe des UHI-Effektes auf die Messung der mittleren Temperatur machen, wenn man die Annäherung in Ihrer Studie benutzt.

Es gibt noch andere, kleinere Probleme mit ihrer Studie. Im Einzelnen stellt der Abschnitt mit der Diskussion Folgendes fest:

Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…

Falls die beiden Schätzungen nicht konsistent sind, widersprechen sie einander. Mit anderen Worten, zumindest eine von ihnen muss falsch sein. Also kann die eine Schätzung nicht benutzt werden, um eine Folgerung aus der anderen zu „verifizieren“. Das hat nichts mit Statistik zu tun. Es ist logisch!

Sincerely, Doug
* * * * * * * * * * * *
Douglas J. Keenan
http://www.informath.org


From: Richard Muller
To: James Astill
Cc: Elizabeth Muller
Sent: 17 October 2011, 23:33
Subject: Re: BEST papers

Hallo James,

Sie haben die Kopie einer e-mail empfangen, die DJ Keenan an mich und Charlotte geschrieben hat. Er spricht darin eine Menge Dinge an, die eine Antwort erfordern. Einige spiegeln Missverständnisse, andere spiegeln einfach Meinungsverschiedenheiten unter Experten im Bereich der Statistik. Da diese Dinge wieder und immer wieder aufkommen dürften, bereiten wir einen Menüpunkt FAQ vor, den wir auf unserer Website platzieren.

Keenan sagt, dass er unsere lange Studie zu statistischen Methoden noch nicht gelesen hat. Ich denke, wenn er sie liest, wird er mehr bereit sein, die Erfahrenheit und die Sorgfalt  anzuerkennen, die wir für diese Analyse aufgewendet haben. David Brillinger, unser leitender Berater zu Statistiken, warnte uns davor, dass wir bei Vermeidung des Jargons der Statistik andere Statistiker in die Irre führen können, indem sie denken könnten, wir hätten eine naive Annäherung durchgeführt. Aber wir haben uns entschlossen, in einem beiläufigen Stil zu schreiben, speziell um es uns zu ermöglichen die größere Welt der Geophysiker und Klimawissenschaftler zu erreichen, die den Jargon nicht verstehen. Falls Keenan die Methoden der Studie liest, wird er mehr anerkennen, was wir getan haben.

Auch ist es wichtig zu erkennen, dass wir kein neues Feld der Wissenschaft erzeugen, sondern etwas zu einem solchen Feld hinzufügen, das eine lange Geschichte hat. In der Vergangenheit habe ich Folgendes entdeckt: wenn man es vermeidet, Methoden aus der Vergangenheit anzuwenden, verstehen die Schlüsselwissenschaftler im Feld nicht, was man gemacht hat. Als mein liebstes Beispiel zitiere ich eine Studie von mir, in der ich geschrieben habe, dass ich Daten genutzt habe, die ungleich in der Zeit verteilt waren; also führte ich ein Lomb periodogramm [?] durch. Die Studie wurde durch Schiedsrichter zurückgewiesen, die argumentierten, dass ich eine „obskure“ Annäherung benutzt habe und einfach die traditionelle Interpolation hätte durchführen sollen, gefolgt von einer Blackman-Tukey-Analyse. In Zukunft werde ich es so machen, immer mit der Vorsicht, auch eine Lomb-Analyse durchzuführen, um sicherzustellen, dass sich keine Unterschiede ergeben.

In seinem Eingangskommentar geht es um das Glätten von Daten. Es gibt sicherlich Statistiker, die diesem Vorgehen vehement widersprechen, aber es gab auch Spitzenstatistiker, die es unterstützen. Hierzu gehören David Brillinger und sein Mentor, der große John Tukey. Tukey revolutioniert das Feld der Datenanalyse für die Wissenschaft, und seine Methoden dominieren viele Bereiche der physikalischen Wissenschaft.

Tukey argumentierte, dass dieses Glätten eine Version von “Vorab-Weißwäsche” war, ein nützliches Verfahren, um reale, aber uninteressante Eigenheiten aus den Daten zu entfernen. Er zeigte, dass diese Vorab-Weißwäsche zu einem robusteren Ergebnis führt. Dies ist im Endeffekt das, was er in seiner Studie zu dekadischen Variationen gemacht hatte. Die langen Änderungen der Zeiträume standen nicht im Brennpunkt unserer Studie, also haben wir eine Anpassung der größten Wahrscheinlichkeit durchgeführt, sie entfernt und dann die übrigen Daten untersucht.

Zitat von Keenan: „Falls man in einem Anfall von Schwachsinn die Daten von Zeitreihen doch glättet und sie dann doch als Eingangswerte für andere Analysen nimmt, steigt die Wahrscheinlichkeit, sich selbst zum Narren zu halten, dramatisch! Und zwar weil das Glätten Spurensignale erzeugt – Signale, die für andere analytische Methoden real aussehen.“ Dann zieht er ein Fazit, das nicht aus diesem Zitat abgeleitet ist; er sagt: „Dieses Problem scheint Vieles der statistischen Analyse in Ihrer Studie ungültig zu machen“.

Natürlich ist das unlogisch. Nur weil die Glättung die Wahrscheinlichkeit zunehmen lässt, dass wir uns selbst betrügen, heißt das noch lange nicht, dass wir das auch tun. Es gibt einen echten Wert geglätteter Daten, und ja, man muss sich vor den Fallen in Acht nehmen. Wenn Sie das tun, gibt es einen echten Vorteil der Glättung. In meinem Buch zum Thema “Ice Ages and Astronomical Causes” habe ich das detailliert beschrieben. Der größte Teil dieses Buches handelt von den Fallen und Fallgruben, in die andere bereits gefallen sind.

Keenan fährt fort: „In statistischen Analysen werden keine Folgerungen aus den Daten direkt abgeleitet. Vielmehr wird ein statistisches Modell an die Daten angepasst, und Folgerungen werden aus dem Modell gezogen“. Dem stimme ich von ganzem Herzen zu! Er könnte durcheinander gekommen sein, weil wir die Sprache der Physik und Geophysik benutzt haben und nicht die der Statistik. Er sagt weiter: „Dies macht vieles von den Analysen zur globalen Erwärmung ungültig.“ Wenn wir weiterkommen wollen, ist es nicht gut, einfach das meiste der früheren Arbeiten schlecht zu machen. Also haben wir sorgfältiger gearbeitet und gültige statistische Methoden angewandt, aber unsere Studie schreiben wir so, dass frühere Bearbeiter auf diesem Gebiet verstehen, was wir sagen. Unsere Hoffnung ist es teilweise, die Methoden allgemein voranzubringen.

Unglücklicherweise lautet Keenans Schlussfolgerung, dass es praktisch keine gültigen Arbeiten im Bereich Klima gegeben hatte, dass man ein besseres Modell braucht, ohne dass er aber weiß, wie dieses Modell aussehen könnte. Er sagt: „Zusammenfassend muss man sagen, dass die meiste Forschung zur globalen Erwärmung auf einem statistischen Modell basiert, das man nicht verwenden sollte. Dies macht viele Analysen zur globalen Erwärmung ungültig. Ich habe ein op-ed piece im Wall Street Journal veröffentlicht, in dem ich diese Dinge erkläre, in einfachem Englisch, in diesem Jahr.“

Hier folgt dieses Zitat, in dem er im Grunde ausdrückt, dass keine Analyse bzgl. der globalen Erwärmung unter seinen statistischen Standards gültig ist: „Obwohl man vom AR(1)-basierten Modell inzwischen weiß, dass es ungeeignet ist, weiß niemand, welches statistische Modell man benutzen sollte. Es gab verschiedene Studien hierzu in der wissenschaftlich begutachteten Literatur, in denen mögliche Lösungen vorgeschlagen worden sind, aber bisher hat kein Alternativmodell viel Akzeptanz erfahren.“

Was er sagt ist, dass statistische Modelle nicht geeignet sind, um zu zeigen, ob es eine globale Erwärmung oder Abkühlung oder was auch immer gibt. Das ist eine sehr starke Schlussfolgerung, und sie spiegelt meiner Meinung nach seine übertriebene Pedanterie statistischer Methoden. Er kann und wird jede Studie in der Vergangenheit und in der Zukunft aus den gleichen Gründen kritisieren. Wir könnten genauso gut unsere Versuche aufgeben, die globale Erwärmung zu evaluieren, bis wir ein „Modell“ finden, dem Keenan zustimmt – aber er hilft uns nicht dabei, ein solches Modell zu finden.

Tatsächlich zeigt ein schneller Blick auf seine Website, dass es in der Liste seiner Veröffentlichungen fast ausschließlich um Analysen geht, die zeigen, dass die anderen Studien falsch sind. Ich habe den starken Verdacht, dass Keenan jedes Modell ablehnt, das wir benutzt haben.

Er gibt einigen Klagen klaren Ausdruck. Er zitiert aus unserer Studie, wo wir sagen: „Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…“

Dann beklagt er sich: Wenn die beiden Schätzungen nicht konsistent sind, widersprechen sie einander. Mit anderen Worten, mindestens eine von ihnen muss falsch sein. Also kann es nicht benutzt werden, um die Ergebnisse des anderen Modells zu „verifizieren“. Das hat nichts mit Statistik zu tun. Das ist logisch!

Er interpretiert unsere Aussage falsch. Unsere Schlussfolgerung basiert auf unserer Analyse. Wir glauben, dass diese korrekt ist. Die Tatsache, dass sie mit früheren Schätzungen inkonsistent ist, schließt ein, dass eine davon falsch ist. Natürlich glauben wir dies von den früheren Schätzungen. Wir glauben nicht, dass die früheren Schätzungen mehr waren als „Rateschätzungen“ [unübersetzbares Wortspiel: statt „estimates“ steht im Original „guestimates“. A. d. Übers.], und darum gibt es keinen „statistischen“ Widerspruch.

Er beklagt sich: Betrachtet man die zweite Studie über den Wärmeinseleffekt lautet die Schlussfolgerung, dass es eine gewisse städtische Abkühlung gegeben hat. Diese Schlussfolgerung widerspricht einem Jahrhundert Forschung ebenso wie der allgemeinen Erfahrung. Sie ist fast mit Sicherheit falsch. Und falls eine solche unerwartete Schlussfolgerung korrekt ist, dann sollten alle denkbaren Anstrengungen unternommen werden, um dem Leser zu zeigen, dass sie richtig sein muss.

Er zieht eine starke Schlussfolgerung aus einem Effekt, der nur bei einer Standardabweichung signifikant ist. Er hätte uns niemals behaupten lassen, dass -0,19 +/-0,19°C pro Jahrhundert auf eine städtische Abkühlung hinweist. Ich bin überrascht, dass ein Statistiker argumentiert, dass ein statistisch so insignifikanter Effekt auf Abkühlung hinweist.

Bitte seien Sie vorsichtig, wem Sie diese e-mail zeigen. Wir sind wirklich daran interessiert, besser zu sein als alle anderen Analysten in diesem Bereich, und ich befürchte, wenn Teile dieser Mail aus dem Zusammenhang gerissen gelesen werden, dass man diese falsch interpretieren könnte.

Rich


From: D.J. Keenan
To: James Astill
Sent: 18 October, 2011 17:53
Subject: Re: BEST papers

James,

Um auf den Kern der Sache zu kommen, es sieht so aus, als ob Rich [Richard Mullen] und ich in Übereinstimmung sind. Hier folgt ein Auszug aus seiner Antwort.

Keenan: „In statistischen Analysen werden keine Folgerungen aus den Daten direkt abgeleitet. Vielmehr wird ein statistisches Modell an die Daten angepasst, und Folgerungen werden aus dem Modell gezogen“. Dem stimme ich von ganzem Herzen zu!

Und daher lautet die Frage: War das statistische Modell, das für die Analyse benutzt worden ist, eine gute Wahl? Falls nicht – da ihre Schlussfolgerungen auf diesem Modell basieren – müssen ihre Schlussfolgerungen unbegründet sein.

Tatsächlich wurde das von ihnen verwendete statistische Modell von nahezu jedem abgelehnt. Im Besonderen wurde es sowohl vom IPCC als auch vom CCSP abgelehnt, wie ich schon vorher sagte. Ich kenne keine Arbeit, die ihre Wahl des Modells unterstützt: sie haben das Modell einfach übernommen, ohne zu versuchen zu ergründen, ob es gerechtfertigt ist, was mit Sicherheit falsch ist.

 (Es ist seit Jahrzehnten bekannt, dass das statistische Modell, das sie verwendet haben, nicht benutzt werden sollte. Obwohl die statistischen Probleme mit diesem Modell seit langem eindeutig waren, kannte niemand den physikalischen Grund dafür. Dann hat Klaus Hasselmann im Jahre 1976 eine Studie veröffentlicht, in der er den Grund erklärt. Die Studie ist berühmt und wurde seitdem über 1000 mal zitiert.)

Man kann darüber streiten, welches statistische Modell man benutzen kann. Gewiss ist jedoch, dass das Modell, das BEST benutzt hat, abgelehnt werden sollte. Daraus folgt, dass die Schlussfolgerungen unbegründet sind.

Hinsichtlich der Glättung erfordert die Situation hier nur wenig Statistik, um sie zu verstehen. Man betrachte das Beispiel, das Matt Briggs hier vorgestellt hat. Wir nehmen zwei Reihen, jede vollständig abgeschlossen. Wir berechnet die Korrelation der beiden Reihen: Das wird zu einer Korrelation um 0 tendieren. Dann glätten wir beide Reihen und berechnen die Korrelation der beiden geglätteten Reihen: Sie wird größer sein als zuvor. Je mehr wir die beiden Reihen glätten, umso größer wird die Korrelation. Und doch haben wir mit zwei vollständig abgeschlossenen Reihen begonnen. Das ist keine Meinungssache, es ist faktisch. Und doch berechnet BEST die Korrelation geglätteter Reihen.

Die Antwort nutzt rhetorische Techniken, um zu vermeiden (Zitat) „Nur weil die Glättung die Wahrscheinlichkeit zunehmen lässt, dass wir uns selbst betrügen, heißt noch lange nicht, dass wir das auch tun.“ Diese Feststellung stimmt, stellt aber nicht den obigen Punkt in Frage.

Hinsichtlich der Studie zum UHI enthielt meine Botschaft auch das Folgende.

Es gibt andere, kleinere Probleme mit Ihrer Studie. Im Einzelnen wird im Abschnitt über die Diskussion das Folgende gesagt.

Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…

Wenn die zwei Schätzungen nicht konsistent sind, dann widersprechen sie einander. Mit anderen Worten, mindestens eines von ihnen muss falsch sein. Also kann man nicht eine Schätzung benutzen, um eine Folgerung aus der anderen zu „verifizieren“. Das hat nichts mit Statistik zu tun. Es ist logisch!

In der Antwort wird behauptet: “Die Tatsache, dass (die Schlussfolgerung der Studie) inkonsistent mit früheren Schätzungen ist schließt ein, dass eine falsch ist“. Die Behauptung ist offensichtlich absurd.

In der Antwort werde ich auch dafür kritisiert, dass ich „eine starke Schlussfolgerung aus einem Effekt gezogen habe, der nur für eine Standardabweichung signifikant ist“. Diese Schlussfolgerung habe ich nicht gezogen, sondern in ihrer Studie wurde mir das in den Mund gelegt, und zwar indem sie sagt, dass der Effekt „im Gegensatz zum Erwarteten steht, wenn der UHI anomale Erwärmung hinzufügen würde“, und dass „natürliche Erklärungen irgendeine aktuelle Form der ‚urbanen Abkühlung’ erforderlich machen“, um dann mögliche Gründe zu beschreiben wie z. B. „Wenn eine Asphaltoberfläche durch Beton ersetzt wird, können wir erwarten, dass die Absorption von Sonnenwärme abnimmt, was insgesamt zu einem Abkühlungseffekt führt“.

Man beachte, dass die Antwort nicht die alternative Erklärung erwähnt, die meine Botschaft hinsichtlich der UHI-Ergebnisse vorgeschlagen hatte. Diese Erklärung, die auf einer Analyse von Roy Spencer basiert (den ich in meiner Botschaft erwähnt hatte), impliziert, dass wir keine Folgerung über die Größe des UHI-Effektes auf die Messung der mittleren Temperatur ableiten können, wenn man die Annäherung in ihrer Studie zur Hand nimmt.

Ich habe rasch die Methoden ihrer Studie überflogen. Sie betrifft keinen meiner Kritikpunkte.

Rich nennt auch sein Buch über die Gründe der Eiszeiten. Lesen Sie bitte mein op-ed piece im Wall Street Journal, und beachten Sie vor allem die Diskussion zu den Abbildungen 6 und 7. Sein Buch behauptet, die Daten in Abbildung 6 zu analysieren: das Ziel des Buches ist es zu erklären, warum die Ähnlichkeit der zwei Linien so schwach ist. Um den Mechanismus zu verstehen, ist es tatsächlich nur notwendig, eine einfache Subtraktion durchzuführen – wie ich in meinem  op-ed piece erkläre. Kurz gesagt, die Analyse in seinem Buch ist außerordentlich inkompetent – und man muss nur Subtraktion verstehen, um das zu sehen.

Die Person, die die Datenanalyse in jenem Buch durchgeführt hat, ist die gleiche Person, die für die Datenanalyse beim BEST verantwortlich ist. Die Datenanalyse in den BEST-Studien würde einen Grundkurs über statistische Zeitreihen im dritten Studienjahr nicht überstehen.

Zu guter letzt, ein Kommentar zu Temperaturaufzeichnungen am Boden wäre angebracht. Wir haben Satellitenaufzeichnungen für die letzten Jahrzehnte, und die stimmen gut mit den Bodenaufzeichnungen überein. Wir haben auch gute Beweise, dass die Welt vor 100 bis 150 Jahren kälter war als heute. Hauptsächlich aus diesen Gründen glaube ich, dass die Temperaturaufzeichnungen – von NASA, NOAA, Hadley/CRU und jetzt BEST – möglicherweise im Großen und Ganzen richtig sind.

Cheers, Doug


From: James Astill
To: D.J. Keenan
Sent: 18 October 2011, 17:57
Subject: Re: BEST papers

Hallo Doug

Vielen Dank! Heißt das, Sie misstrauen der BEST-Methodik in hohem Maße, stimmen aber ihrer wichtigsten Schlussfolgerung zu, d. h. der Temperaturaufzeichnung am Boden?

best
James

James Astill
Energy & Environment Editor


From: D.J. Keenan
To: James Astill
Sent: 18 October 2011, 18:41
Subject: Re: BEST papers

James,

Ja, ich stimme zu, dass die BEST-Temperaturaufzeichnungen sehr wahrscheinlich grob richtig sind, zumindest während der letzten 120 Jahre oder so. Dies gilt für das allgemeine Aussehen ihrer Kurve, nicht aber für ihre Abschätzung der Unsicherheiten.

Cheers, Doug


From: D.J. Keenan
To: James Astill
Sent: 20 October, 2011 13:11
Subject: Re: BEST papers

James,

Irgendjemand hat mir gerade die BEST-Presseerklärung zugesandt und mich nach meinem Kommentar dazu gefragt. Die Presseerklärung beginnt mit dem folgenden Statement:

Die globale Erwärmung ist einer heute veröffentlichten grundlegenden Studie zufolge real. Trotz Einwänden von Skeptikern der Klimaänderung findet die BEST-Studie verlässliche Beweise für einen Anstieg der globalen Mitteltemperatur an der Erdoberfläche von etwa 1°C seit Mitte der fünfziger Jahre.

Der zweite Satz könnte zutreffen. Der erste Satz jedoch ist weder implizit im zweiten Satz enthalten, noch folgt er aus den Analysen in den Forschungsunterlagen.

Zu zeigen, dass die „globale Erwärmung real” ist, erfordert viel mehr als zu zeigen, dass die mittlere globale Temperatur auf dem Festland seit Mitte der fünfziger Jahre um 1°C gestiegen ist. Zur Illustration, die Temperatur 2010 lag höher als 2009, aber das für sich allein ist kein Beweis für die globale Erwärmung: Die Temperaturzunahme könnte offensichtlich auf Änderungen der Randbedingungen zurückzuführen sein. Ähnlich kann auch die Temperaturzunahme seit den fünfziger Jahren auf Änderungen der Randbedingungen zurückzuführen sein.

Um zu zeigen, dass die Zunahme der Temperaturen seit den fünfziger Jahren nicht auf derartige Fluktuationen zurückzuführen ist, ist eine gültige statistische Analyse der Temperaturen erforderlich. Das BEST-Team hat dies nicht getan.

Ich möchte etwas betonen. Nehmen wir an, jemand sagt „2+2=5“. Dann ist es nicht bloß meine Meinung, dass das, was dieser Jemand sagt, falsch ist; sondern vielmehr ist es falsch, was er gesagt hat. Ganz ähnlich ist es nicht nur meine Meinung, dass die statistische Analyse vom BEST ernsthaft ungültig ist; sondern vielmehr, die statistische Analyse vom BEST ist ungültig.

Cheers, Doug


From: James Astill
To: D.J. Keenan
Sent: 20 October 2011, 13:19
Subject: Re: BEST papers

Hallo Doug

Vielen Dank für Ihre Gedanken dazu. Es wird interessant sein zu beobachten, wie die BEST-Studien durch den Prozess der Begutachtung kommen. Bitte halten Sie mich auf dem Laufenden!

best

james
James Astill
Energy & Environment Editor


Ein Artikel über das BEST wurde in der Ausgabe von The Economist am 22. Oktober veröffentlicht. Der Artikel, autorisiert von James Astill, erwähnt die oben genannten Punkte nicht. Die Unterschlagzeile lautet: „eine neue Studie zu Temperaturaufzeichnungen lässt wenig Raum für Zweifler. Die Welt erwärmt sich.“ Der Einführungssatz lautet: „ Für jene, die noch in Frage stellen, ob die Welt sich wirklich erwärmt, ist es nötig zu glauben, dass die instrumentellen Aufzeichnungen falsch sind“.

Douglas J. Keenan

Übersetzt von Chris Frey für EIKE




Schlechte Kosten-Bilanz für Erneuerbare Energien!

Deshalb benötigt man relativ viel Material, Platz und mithin Naturraum, um jene Menge an Wind-, oder Sonnenenergie zu ernten, die es braucht, um ein Kilo Kohle, einen Liter Erdöl, oder gar ein Kilo Atombrennstoff zu ersetzen. Auch die landwirtschaftliche Erzeugung von Biokraftstoffen aus Raps, Mais, oder Ölpalmen ist sehr flächenintensiv und auf pflegeintensive Monokulturen angewiesen und dabei aufgrund von Lachgasemissionen – einem starken Klimagas – keineswegs “klimaneutral”. Wie die Flächen-Bilanzen und Kosten-Bilanzen im einzelnen aussehen, wird im Folgenden dargelegt.

Zunächst ein Vergleich der Leistungsdichten der unterschiedlichen Energieträger

 

Die Leistungsdichte eines Energieträgers gibt an, wie viel Leistung in Watt pro Flächeneinheit in Quadratmeter umgesetzt wird. Je höher dieser Wert, desto kleiner kann z.B. ein Kraftwerk ausgelegt werden. Geringe Leistungsdichte bedeutet umgekehrt einen höheren Materialaufwand.

Leistungsdichten im Vergleich: Energiequelle, Leistungsdichte in kW pro

 

Erdwärme 0,00006

Gezeitenströmung (Mittel) 0,002

Windströmung (Windgeschwindigkeit 6 m/s, Luftdruck 1000 hPa, Temperatur 20 °C) 0,128

Sonnenstrahlung (Solarkonstante) weniger als 1,37 (Mittel BRD 0,11)

Öl (Heizkessel) 20 – 30

Wasserströmung (6 m/s, Dichte 1.000 kg/m³) 108

Kohle (im Dampferzeuger-Brennraum eines Kraftwerkes) 500

Uran (am Brennelement-Hüllrohr) 650

 

Die EE haben die geringsten Leistungsdichten. Das bedeutet, ein hoher Materialaufwand/ Flächenbedarf ist zur Energieproduktion aus EE erforderlich.

Kommen wir zu den Flächenbilanzen der EE

Die Flächen-Bilanz für Biokraftstoffe/ Rapsöl

 

Rund 5% des primären Energieverbrauchs in Deutschland werden derzeit durch Biomasse gedeckt. Was wäre notwendig, um den Primärenergieverbrauch zu 100% aus Biomasse – wie z.B. Rapsöl – zu decken?

 

Antwort: Eine Anbaufläche, die in etwa acht mal so groß ist wie die Fläche Deutschlands wäre notwendig, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

Die Flächen-Bilanz für die Windkraft

 

Rund 1% des primären Energieverbrauchs und rund 1,5% des Endenergieverbrauches in Deutschland werden derzeit durch Windkraft gedeckt. Der Endenergieverbrauch ergibt sich aus dem Primärenergieverbrauch, abzüglich der Verluste, die bei der Erzeugung der Endenergie aus der Primärenergie auftreten. Was wäre notwendig, um den Endenergieverbrauch zu 100% aus Windkraft zu decken?

 

Antwort: Ca. 26% der Fläche Deutschlands wären notwendig, weit mehr, als die Fläche Bayerns, (mit in etwa 145.000 Offshore-Windkraftanlagen der 5 MW-Klasse) natürlich offshore, um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) aus Windkraft zu decken.

Die Flächen-Bilanz für Photovoltaikstrom

 

Rund 0,2% des primären Energieverbrauchs und des Endenergieverbrauches in Deutschland werden derzeit durch Photovoltaikstrom gedeckt. Was wäre notwendig, um den Endergieverbrauch zu 100% aus Photovoltaikstrom zu decken?

 

Antwort: In etwa 7% der Fläche Deutschlands, oder nahezu die gesamte Fläche Brandenburgs wäre notwendig, (ca. 26.000 Quadratkilometer Fläche) um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) über Photovoltaikstrom zu decken.

 

Die Berechnungen für die einzelnen Flächenbilanzen gehen direkt aus dem Vorgängerartikel “Schlechte Flächen-Bilanz für Erneuerbare Energien” hervor. Dabei zu berücksichtigen ist, dass eine Vollversorgung durch eine der aufgeführten EE alleine nicht möglich ist, sondern eine Kombination der EE das Mittel der Wahl ist. Entsprechend ist bei der Abschätzung den Kosten-Bilanzen vorzugehen.

Kommen wir nun zur entscheidenden Frage: Was kostet eine Umstellung der Energieversorgung auf eine 100%ige Versorgung aus Erneuerbaren Energien in Deutschland?

Die Kosten-Bilanz für Biokraftstoffe/ Rapsöl

 

Aus der Flächenbilanz geht hervor: Eine Anbaufläche, die in etwa acht mal so groß ist wie die Fläche Deutschlands wäre notwendig, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken. Die Basisdaten: Netto ergibt sich ein Ertrag von ca. 1.290 Liter Rapsöl pro Hektar, bzw. 129.000 Liter pro km². Die Gesamtfläche Deutschland beträgt ca. 360.000 km². Um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken wären also ca. 129.000 x 360.000 x 8 = 371.520.000.000 (371,52 Milliarden) Liter Rapsöl pro Jahr erforderlich. Zwischen 50 und 60 Cent kostet der Liter Rapsöl. D.h. ca. 205 Milliarden Euro pro Jahr würde es kosten, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

 

Alternativberechnung: In Deutschland beläuft sich der Primärenergieverbrauch auf rund 4 Mio. GWh/Jahr. Der Heizwert von Rapsöl beträgt  9,7 kWh/L = 0,0000097 GWh/L. Somit wären ca. 412.371.134.000 (412,37 Milliarden) Liter Rapsöl pro Jahr erforderlich um den Primärenergieverbrauch in Deutschland zu decken. Zwischen 50 und 60 Cent kostet der Liter Rapsöl. D.h. ca. 225 Milliarden Euro pro Jahr würde es kosten, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

 

Die ca. 200 Milliarden Euro wären nur der jährliche Materialeinsatz (Unkostenbeitrag) der zur Bereitstellung des Brennstoffes Rapsöl notwendig wäre. Externe Kosten zur Energieerzeugung über Kraftwerke, etc. würden dann noch hinzu kommen.

Die Kosten-Bilanz für die Windkraft

 

Aus der Flächenbilanz geht hervor: Ca. 26% der Fläche Deutschlands wären notwendig, weit mehr, als die Fläche Bayerns, (mit in etwa 145.000 Offshore-Windkraftanlagen der 5 MW-Klasse) natürlich offshore, um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) aus Windkraft zu decken. Eine Offshore-Windkraftanlage der 5 MW-Klasse kostet ca. 15 Mio. € (bei einer veranschlagten Lebensdauer von 20 Jahren). (Zum Vergleich: Baukosten Alpha Ventus mit 12 Anlagen ca. 250 Mio. Euro und Baukosten Bard Offshore 1 mit 80 Anlagen ca. 1.200 Mio. Euro). D.h. der Bau der 145.000 Offshore-Windkraftanlagen würde rund 2.175 Milliarden Euro kosten und das veranschlagt auf eine Lebensdauer von 20 Jahren. Macht 109 Milliarden Euro Kosten pro Jahr alleine für die Aufrechterhaltung der Windparks. Hinzu kommen die Betriebs- und Wartungskosten der Anlagen und Demontage- und Entsorgungskosten nach 20 Jahren Betriebszeit.

Die Kosten-Bilanz für Photovoltaikstrom

 

Aus der Flächenbilanz geht hervor: In etwa 7% der Fläche Deutschlands, oder nahezu die gesamte Fläche Brandenburgs wäre notwendig, (ca. 26.000 Quadratkilometer Fläche) um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) über Photovoltaikstrom zu decken. Die Lebenszeit von Photovoltaikmodulen beträgt in etwa 25 Jahre. Danach bringen sie nur noch ein Teil ihrer Leistung, werden wartungsintensiv und müssen durch neue Module ersetzt werden. Der Quadratmeter Photovoltaikmodul kostet ca. 200 EURO (ebay-Preis, ohne Montage). 26.000 Quadratkilometer (Mio. Quadratmeter) Fläche mit Photovoltaikmodulen auszustatten würde also ca. 5.200 Milliarden Euro kosten und das veranschlagt auf eine Lebensdauer von 25 Jahren. Macht 208 Milliarden Euro Kosten pro Jahr alleine an Modulkosten für die Aufrechterhaltung. Hinzu kommen die Montage-, Betriebs-, Wartungskosten der Anlagen und Demontage- und Entsorgungskosten nach 25 Jahren Betriebszeit.

 

Das Fazit

 

Um eine Erstinfrastruktur aus 100% EE hier in Deutschland aufzubauen sind Material- und Baukosten zwischen ca. 2.000 – 5.000 Milliarden Euro erforderlich. Die Kosten um die Erstinfrastruktur zu erneuern/ aufrecht zu erhalten belaufen sich auf mindestens 100 – 200 Milliarden Euro pro Jahr. Hinzu kommen die Betriebs-, Wartungs, Demontage- und Entsorgungskosten der Anlagen. Außerdem zu berücksichtigen sind der nötige Ausbau der Stromnetze und die Errichtung von Energiespeichern, welche notwendig sind, um die unstetige Windkraft und den Tages- und Jahresgang im Solarstrom auszugleichen. Denn bei Flaute gibt es keinen Windstrom und in der Nacht und im Winter wenig bis gar keinen Solarstrom. Der Energiebedarf in Winter ist aber besonders groß. Um das auszugleichen sind gigantische Energiespeicher und ein entsprechendes Stromnetz, welches den Strom nach Bedarf verteilen kann, erforderlich. Somit werden sich die oben genannten Kosten leicht verdoppeln bis verdreifachen. Abschließend noch zum Vergleich: Die privaten Haushalte gaben 2005 für Energie und Kraftstoffe rund 98 Milliarden Euro aus. Die Gesamtausgaben für Energie einschließlich Kraftstoffen in Deutschland beliefen sich 2005 auf 212 Mrd. €.

Michael Krüger zuerst erschienen bei Readers Edition am 26.10.11

Geowissenschaftler u.a. tätig gewesen am AWI




BEST Studie: Das wissenschaftliche Ergebnis, das die Debatte um die Klimaänderung nicht beendet

Sehr geehrte Herausgeber von Nature:

Was für ein merkwürdiges Editorial – und wie aufschlussreich Sie Ihren Bias enthüllen!

http://www.nature.com/nature/journal/v478/n7370/full/478428a.html?WT.ec_id=NATURE-20111027

Scientific climate.  Nature 478, 428, (27 October 2011)  doi:10.1038/478428a  Published online           26 October 2011.
„Ergebnisse, die die Klimaänderung bestätigen, sind willkommen, selbst wenn sie vor der wissenschaftlichen Begutachtung veröffentlicht werden” (Hervorhebung hinzugefügt)

Sie implizieren, dass entgegen gesetzte Ergebnisse bei Nature nicht willkommen sind. Aber das ist schon seit vielen Jahren offensichtlich.

Warum bejubeln Sie die Ergebnisse des Berkeley Climate Project so enthusiastisch, dass Sie sich kaum fassen können? Was glauben Sie wird dadurch bewiesen? Sie haben mit Sicherheit nur wenig zur gegenwärtigen Debatte um den Mensch als Ursache der Klimaänderung beigetragen.

Sie schließen Daten von den gleichen Wetterstationen ein, die auch die Climategate-Leute benutzt haben, von denen jedoch ein Drittel eine Abkühlung zeigte – keine Erwärmung. Sie überdeckten das gleiche Landgebiet – weniger als 30% der Erdoberfläche – Beobachtungsstationen mit spärlicher Verteilung, vor allem in den USA und Westeuropa. Sie stellen fest, dass 70% der Stationen in den USA schlecht platziert sind und nicht den von der Regierung festgelegten Standards entsprechen; in der übrigen Welt ist es vermutlich noch schlimmer.

Aber anders als die Landoberfläche hat die Atmosphäre keinen Erwärmungstrend gezeigt, weder über Land noch über dem Ozean – jedenfalls nach Satellitenbeobachtungen und unabhängigen Daten von Wetterballonen. Dies bedeutet für mich, dass irgendetwas bei den Daten der Landstationen sehr erheblich nicht stimmt. Und haben Sie gewusst, dass Klimamodelle, gerechnet auf Supercomputern, alle darauf bestehen, dass sich die Atmosphäre schneller erwärmt als die Oberfläche? Und das tut auch die Theorie.

Und schließlich haben wir auch die nicht an Thermometern gemessenen Temperaturdaten aus den sog. „Proxies“: Baumringe, Eisbohrkerne, Sedimente in den Ozeanen, Stalagmiten. Sie alle zeigen keinerlei globale Erwärmung seit 1940!

Die Ergebnisse von BEST (Berkeley Earth Surface Temperature) bestätigen in keiner Weise den wissenschaftlich diskreditierten Hockeyschläger, der so begeistert von den Klimaalarmisten übernommen worden war. Tatsächlich haben die Autoren des Hockeyschlägers niemals Temperaturen nach 1978 in ihrer Studie von 1998 in Nature veröffentlicht – und auch nicht danach. Gründe, diese zu verheimlichen? Es ist wahrscheinlich, dass auch diese Proxy-Daten keine Erwärmung zeigen. Warum fragen Sie sie nicht?

Noch ein Wort zum Schluss: Sie haben ganz offensichtlich die vier wissenschaftlichen, zur wissenschaftlichen Begutachtung eingereichten BEST-Studien nicht gelesen. Darin streiten die Berkeley-Wissenschaftler ab, den Grund für die von ihrem Projekt herausgestellte Temperaturzunahme zu kennen. Ich empfehle sie für ihre Ehrlichkeit und ihren Skeptizismus.

********************************************************************
S. Fred Singer ist emeritierter Professor an der University of Virginia und Leiter des Science & Environmental Policy Project. Er ist leitendes Mitglied am Heartland Institute und am Independent Institute. Seine Spezialgebiete sind atmosphärische und Weltraumphysik. Als Experte der Fernerkundung und von Satelliten diente er als Gründungsdirektor des US Weather Satellite Service und kürzlich als Vizevorsitzender des US National Committee on Oceans & Atmosphere. Er ist Mitautor von Climate Change Reconsidered [2009 and 2011] und Unstoppable Global Warming [2007].

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Falsche Klimaprognosen: Langzeitbeobachtungen des Klimas und Klimamodelle des IPCC im Vergleich!

Gerade erschien die BEST Studie, die angibt, dass es auf der Landfläche der Erde im letzten Jahrhundert eine Erwärmung um 0,9 °C gegeben hätte. Die Landfläche der Erde macht gerade mal 29 % der Oberfläche aus. Mit einem deutlichen Übergewicht auf der Nordhalbkugel. (ca. 40 % der Fläche). Zur Ursache der Erwärmung äußert sich das BEST Team bisher nicht. Projektleiter Dr. Richard Muller sagte aber kürzlich sybillinisch: "Der anthropogene Anteil erschiene ihm als etwas überbewertet (durch das IPCC)".

Für diese Studie hat das BEST Team die Daten von nahezu 39.000 landbasierten Temperaturmessstationen über die letzten 200 Jahre (sofern vorhanden und brauchbar) nach einem neuen statistischen Ansatz ausgewertet.

Interessanterweise deckt sich der ermittelte Trend zu einem großen Teil mit den der CRU-Hadley und dem NOAA-GISS.

Abb. 1 (mit Dank an Willis Eschenbach): Vergleich der Trendlinien nach BEST, Satelliten UAH & RSS gemittelt, GISS, CRU und GHCN. Details zum obigen Vergleich hier

Allerdings zeigen die jahrzehntelangen Satellitenmessungen und die Millionen von Wetterballonsdaten diesen Trend nicht. Irgendetwas muss also an den Daten aus den Wetterstationen anders sein, da sie einen Anstieg -speziell in den 80er und 90er Jahren des vorigen Jhh zeigen- während dies weder Satelliten noch die Wetterballons tun. Immerhin tasten Satelliten ca. 90 % der Planetenoberfläche ab, mit mehr als 60.000 Messungen pro Tag. Auf diesen bemerkenswerten Unterrschied geht die neue Broschüre von Fred Singer ein.

Abb. 2 (mit Dank an Willis Eschenbach) BEST Trendschätzung mit Fehlerbalken (graue) bei 95 Vertrauensbereich für jeden Datenpunkt.Details zur obigen Darstellung hier 


Die BEST-Studie selbst versucht auch die unvermeidliche Unsicherheit neu einzugrenzen, auch wenn sie nur zwei Arten von Fehlern ("statistische (?)" und "ungenügende Abdeckung") und dazu noch nur modellhaft  -nicht nach realen Messfehlern, sondern nach ihren Modellvorstellungen- behandelt. Auch deswegen steht der verwendete statistische Ansatz derzeit unter massiver Kritik von fachkundigen Statistikern wie z.B. W. Brigg (Universität Ithaca USA) und D. Keenan (London).

Wird fortgesetzt

Michael Limburg EIKE




Rupert Wyndhams Kritik an BBC – IPCC aufs Engste mit dem WWF verwoben!

Auslöser des Briefwechsel war eine Rundfunk-Sendung der BBC ONE PLANET – Redaktion vom 23. September mit dem Titel: "On the Frakking Frontline". Das Radio-Feature befasste sich mit einigen Problemen der Schiefergasförderung in den USA. In 18 Minuten wurden Aspekte der Schiefergasförderung, der Umweltverschmutzung in China und Ungarn, des Klimawandels und des effizienten Autofahrens zusammengemischt. Außer manierierter Sprache, bedeutungsschwanger gesetzten Akzenten und nichtssagenden Interviews enthielt der Beitrag keine Informationen, über die es lohnen würde zu diskutieren. Es war deutlich, dass der verantwortliche Redakteur seine vorgegebenen 18-Minuten mal eben "locker-vom-Hocker" produzierte – ein nichtssagendes und oberflächliches Radio-Feature. 

Vielsagend ist aber der daraus folgende Dialog Rupert Wyndhams mit der BBC ONE PLANET Redaktion.

Rupert Wyndham kritisiert die BBC

Rupert Wyndham schrieb am 28. September an die BBC ONE PLANET Redaktion.

Betreff: Ganz vorne beim Fracking, 26. 9. 2011. [On the frakking frontline]

Herr Williams, Sie bitten um Kommentare. Sehr gut!

Unter der endlosen Menge von Programmen ist dieses ein weiteres Beispiel für die systembe­dingte Einseitigkeit der BBC, genauer gesagt, in bezug auf die sogenannte Umwelt-Berichter­stattung. Aber nicht nur da. Die Parteilichkeit der BBC und ihre Einseitigkeit zeigt sich über das gesamte Spektrum ihrer journalistischen Sendungen deutlich. Die Vorstellung von BBC-Journalisten, die so berichten, dass nicht der Eindruck einer Meinungsmache aufgrund per­sönlicher Vorurteile entsteht, scheint von Gestern zu sein …

Es ist doch ganz offensichtlich, dass die Berichterstattung/Kommentierung nicht mehr eine Aufgabe des leidenschaftslosen, und … sorgfältig geprüften Darstellens der aktuellen Themen ist. Die Nachrichtenbearbeitung durch die BBC unterscheidet sich kaum noch von der Arbeit der lächerlicherweise so genannten "Reality-TV-Journalisten"; die machen sich gar nicht mehr die Mühe, Tatsachen für die Zuhörer/Zuschauer so zu präsentieren, dass diese sich ihr eige­nes Bild machen können. Ganz im Gegenteil: Sie halten das Missionieren für ihre Pflicht. Das tun sie oft auch noch unter … Nichtbeachtung der einfachsten Höflichkeitsformen des zivili­sierten Umgangs miteinander. So halten sie die freche Unterbrechung von Interviewpartnern für ein Kennzeichen unabhängigen Denkens und harter Befragungstechnik. Diese Vorgehens­weise zeigt eine Uniformität, die den Stempel BBC-interner Ausrichtung trägt. Mit wenigen Ausnahmen … soll einer Sendung durch übertriebene Gestikulierung und überspannte Körpersprache der Anschein von Autorität verliehen werden, die tatsächlich aber nur oberflächlich ist. Beim Rundfunk gibt es die entsprechenden Techniken zur Erreichen des gleichen Ziels: besonders das häufige Unterbrechen. Die Benutzung einer … hochnäsig wirken­den Sprechweise verstärkt den Eindruck der Flachheit, um nicht von berufsmäßiger Dummheit zu sprechen. Natürlich wissen wir, dass vieles von diesem Geblubber nur der Aufguss von Presseveröffentlichungen linker Pressure-Gruppen und verdeckter Interessen ist – so bei­spielsweise von Pseudo-Umweltorganisationen wie Greenpeace, Friends of the Earth, World­wide Fund for Nature, National Trust.

Aber so irritierend diese Art von abkupfernder, nachahmender Berichterstattung ist, so ist sie aber auch Symptom einer tiefergehenden und gefährlicheren Krankheit: der vorsätzlichen Verweigerung der Objektivität. Was soll denn zu wessen Gunsten verleugnet werden? Warum eignet man sich zur Selbstvergewisserung von "emotionalen Wahrheiten" eine fadenscheinige und alberne Ausdrucksweise an? …

Es ist doch so, dass klare Gegenbeweise ganz einfach ignoriert oder vorsätzlich falsch darge­stellt werden. Daten werden zynisch in Computern manipuliert. Die sind wiederum so pro­grammiert, dass sie die vorbestimmten Ergebnisse liefern. Die Ergebnisse werden so angeordnet, dass alle … Phänomene aus der realen Welt verkehrt und als Bestätigung einer erfundenen und pervertierten Orthodoxie verstanden werden müssen. Damit übertrumpft die Compu­ter-Modellierung die tatsächliche Beobachtung. Und die BBC leiht diesem Müll das Gewicht ihrer Autorität. Die Gebühren bezahlt natürlich der Zuschauer. Was Wahrheit ist, bestimmt der Konsens!

Der sogenannte "Klimawandel" wird dem CO2 zugeschrieben, vor allem dem vom Menschen erzeugten. Das wird nicht als unbewiesene Behauptung gebracht, sondern als anerkannte Tatsache. … Die Tatsache, dass Wissenschaftler zu Tausenden, viele davon mit hohen Verdiensten und von untadeligem Ruf, den Klimawandel für eine betrügerische Ver­schwörung halten, wird ganz einfach ignoriert, wie alle damit verbundenen Täuschungsmanö­ver verschwiegen werden.

In der Sendung unterstrichen wiederholte Verweise auf "Kohlenstoff" die ansonsten nicht deutlich hervortre­tende BBC-Parteinahme. Schamlos wurde an die "emotionale Wahrheit" appelliert, indem eine mögliche Verbindung zwischen CO2-Emissionen … zusammenhanglos mit hausgemachten Verschmutzungen in China und Ungarn z. B. hergestellt wurde. Es ist bemerkenswert, dass ONE PLANET sich bisher nicht um die massive Verschmutzung in China geschert hat …. in  Folge schriller westlicher pseudo-umweltschützerischer Forderungen nach Batterie-betriebe­nen Fahrzeugen. Dazu aber meint man, Wohlergehen und Lebensbedingungen der Menschen in der Dritten Welt auf dem Altar der Klimawandel-Religiosität opfern zu dürfen.

Wie die meisten Beiträge der BBC zu Wissenschaft und Umwelt war auch diese Sendung ver­logen und heuchlerisch.

Rupert Wyndham

*******************************************

Auf diese Zuschrift reagierte die ONE PLANET Redaktion am 12. 10. mit folgender Antwort:

Hallo, Robert,
danke für Ihre Email. Ich war ein wenig verwirrt über das, was Sie sagen wollten, aber ich kann erkennen, dass Sie über die BBC-Berichterstattung im Allgemeinen einschließlich des ONE PLANET Programms nicht glücklich sind. Neben Ihrem Ärger über moderne Interview-Techniken freue ich mich über Ihre Meinung, dass die BBC beim Thema Klimawandel die Dinge nicht genug hinterfragt.

Eines möchte ich allerdings erwähnen: Das Produktionsteam hier besteht aus Journalisten, nicht aus Atmosphären-Wissenschaftlern. Wir berichten über das, was uns die Wissenschaft­ler sagen und, obgleich eine Minderheit von Atmosphären-Wissenschaftlern nicht an einen Zusammenhang zwischen CO2-Emissionen und dem Anstieg der globalen Temperaturen glaubt, hält die Mehrheit der Atmosphären-Wissenschaftler daran fest. So haben alle großen nationalen Akademien der Wissenschaften den aktuellen Bericht des IPCC unterstützt. Ich meine, wir wären ziemlich arrogant, – dies wäre auch kein guter Dienst an unseren Hörern -, wenn wir vorgäben, mehr über die Atmosphäre zu wissen als die Wissenschaftler.

Dennoch sehe ich, dass es einige sehr angesehene Atmosphären-Wissenschaftler gibt, die nicht an den Zusammenhang glauben. Davon hatten wir eine ganze Menge schon hier. Sie repräsentieren aber nicht die Mehrheitsmeinung – deshalb stehen sie auch nicht für die vor­wiegende Meinung bei ONE PLANET.

Danke für die Zuschrift,
Steven

PS: Über Umweltverschmutzung in China und Ungarn haben wir schon viele Male berichtet.

Steven Duke
Editor, ONE PLANET
BBC World Service
*******************************************

Am 12.10. antwortete Rupert Wyndham:

Herr Williams,

… Ihre Antwort entspricht der üblichen lügenhaften Linie, die von der BBC verfolgt wird. Es gibt keinen Konsens der Klima-Wissenschaftler. Den hat es auch nie gegeben. Das wird nur behauptet. Es sind die unsäglichen 2.500 globalen Spitzenwissenschafter, Herr Gore kommt noch dazu. Sie sind vermutlich kein Atmosphären-Physiker, Sie bezeichnen sich aber als Journa­list – von dem anzunehmen ist, dass er Urteilsvermögen besitzt, um Fakten zu prüfen und Werturteile zu fällen über das, was wahr ist, oder zumindest auf den ersten Blick plausibel zu sein scheint. Nichts davon tun Sie. Und es ist nicht so, dass die Fakten etwa nicht überprüfbar oder unzugänglich wären. Jedermann mit gutem Willen kann sie sehen.

Sie behaupten, dass die überwiegende Anzahl der nationalen Wissenschaftsakademien die Theorie der anthropogenen Erwärmung unterstützte. Das stimmt. Es stimmt aber auch, dass es immense Aufstände innerhalb der nationalen Gremien gegeben hat, so protestierten Aka­demie-Mitglieder aller Ebenen und Grade gegen die Mätzchen einer kleinen Intrigantengruppe bei der Royal Society. … Die Ansichten der dreiundvierzig [Abweichler in der Royal Society gegen den Klimawandel-Konsens] werden auch von Anderen geteilt. Das kann weltweit ver­breitet werden und führt zum Kern der Dinge, nicht wahr?

Kurz gesagt: Was auch immer der behauptete Konsens sein mag, es gibt Grundlegendes, das von jedem aufrichtigen Journalisten angesprochen werden muss, von Wissenschaftlern sowieso.

1. Wissenschaft gründet nicht auf Konsens. Wenn das so wäre, hätten wir immer noch das Ptolemäische Weltbild.

2. Es gibt keine langfristige Zunahme der globalen Temperaturen. Stattdessen sind sie in den letzten 15 Jahren nicht angestiegen, trotz zunehmender CO2-Konzentration. Die Temperatur an der Meeresoberfläche (sie bedeckt 70 Prozent der Erde) sinkt.

3. Nichts davon ist einmalig.

4. Das Ausmaß der gegenwärtigen Veränderungen ist sehr gering.

5. In Bezug auf die CO2-Hypothese stützen die Beobachtungen weder die Theorie noch die Behauptungen.

6. Es ist darüber hinaus bekannt, dass die AGW-’Wissenschaft’ systematisch Daten gefälscht und vorsätz­lich Beweise falsch dargestellt hat.

Das sollte fürs Erste genügen. Sie behaupten nur, ein Journalist zu sein. Sie sind jedoch keiner. Wie Sie selber zugeben, "berichten wir, was die Wissenschaftler uns sagen." Die Frage ist doch: Welche Wissenschaftler? Anders gesagt, Sie handeln nur mit Presseverlautbarungen von ver­deckt operierenden Interessenvertretern und daran haben Sie ein eigenes verdecktes Inter­esse, denn Ihr nichtsnutziger Job hängt daran, dass Sie die vorgegebene Linie vertreten, oder etwa nicht? Kurz gesagt, Sie sind bestenfalls ein Scharlatan, schlimmstenfalls ein Betrüger und Schwindler.

Was den behaupteten Konsens angeht: Ist Ihnen je bewusst geworden, dass Quantität weni­ger wichtig sein könnte als Qualität, und dass Erkenntnis, aus authentischem Wissen geboren, aus lebenslangem Lernen, Urteilskraft und Erfahrung gewonnen, tausend Mal mehr wert sein könnte als der Quark aus den Computer-Modellen und die gewissenlose Verfolgung des eige­nen Vorteils, der ausnahmslos von fast allen zweit- und drittklassigen Wissensvertretern betrieben wird? Zweifeln Sie daran? Schön, dann schauen Sie mal auf die Liste der IPCC-Redakteure, die vermutlich derzeit am Auswertebericht 5 (AR5) arbeiten, der 2013 heraus­kommen soll, und die auch vom WWF (weitere Details dazu hier) bezahlt werden oder ihm Gefolgschaft schulden.

Belassen wir es dabei. Die Beweislage zeigt, dass Sie eine angeborene Unfähigkeit zur Erledi­gung ehrlicher Arbeit haben. Ich schließe eine Liste an. … kopiert aus einem Brief, den ich kürzlich dem Vizekanzler der Universität Oxford geschickt habe.

Mit Ausnahme des nun verstorbenen Stephen Schneider enthalten die Namen auf der anson­sten nichtssagenden Liste die Namen des wissenschaftlichen Beirats des WWF. Die arbeiten also auch für das IPCC. Was unmittelbar ins Auge fällt ist zweierlei:

(1) das Fehlen von wissenschaftlicher Reputation. Einer davon, Ghislain Dubois, scheint noch nicht einmal ein Wissenschaftler zu sein sondern Sprecher des französischen Tourismus.

(2) Die Tatsache, dass diese, die angeblich 2.500 Welt-Spitzenwissenschaftler repräsentieren­den Menschen, genau diejenigen sind, die sich für das IPCC aussprechen und die den men­schenverursachten Klimawandel für eine Tatsache erklären.

Man mag die Frage verzeihen, warum angeblich unabhängige Wissenschaftler, die mit der Erstellung der IPCC AR5 Veröffentlichung beauftragt sind, gleichfalls mit einer bekannterma­ßen propagandistischen Lobby-Organisation wie dem WWF verbandelt sind.

Immerhin stehen auf der rasch überfliegbaren Liste nicht weniger als dreiundzwanzig Koordi­nierende Leitautoren zum Schlaumachen für die vom IPCC eingesetzten Verantwortlichen für die Kapitel.

*******************************************
Die Liste

[Anm. d. Ü: Anhand der Namen ist manchmal nicht entscheidbar, wer männlichen oder weiblichen Geschlechts ist. Wegen möglicher Fehler bei geschlechtsspezifischen Suffixen im Deutschen wird um Entschuldigung gebeten!]

Abdelkader Allali – 2007: Prüflektor mit vier weiteren Aufgaben im 2007er Bericht.

Oleg Anisimov – 2007: Koordinierender Leitautor, Beiträge zu zwei Zusammenfassungen und nun wieder Koordinierender Leitautor.

Peter Ambenje – Working Group 1 Mitarbeiter beim 2007er Bericht.

Vincenzo Artale – 2007: Leitautor.

Rizaldi Boer – 2007: Leitautor.

Jim Bruce – 2007: Wissenschaftlicher Fachgutachter.

Osvaldo Canziani – stv. Leiter der Working Group 2 beim 2001er Bericht, stv. Leiter der Working Group 2 beim 2007er Bericht.

Ulisses Confalonieri – koordinierender Leitautor des 2007er Kapitels zur Gesundheit, derzeit als Prüflektor tätig.

Declan Conway – 2007: Wissenschaftlicher Fachredakteur.

Sophie des Clers – Beitragender Autor bei zwei Kapiteln des 2007er Berichts.

Mike Demuth – 2007: Beitragender Autor.

Ghislain Dubois – 2007: Beitragender Autor und Wissenschaftlicher Fachgutachter.

Paul Epstein – Wissenschaftlicher Fachgutachter in der Working Group 2, zugleich für den Zusammenfassenden Bericht der 2007er Klima-Bibel.

Lin Erda – 2007: Leitautor, nun Koordinierender Leitautor.

Philip Fearnside – 2007: Prüflektor und Wissenschaftlicher Fachgutachter.

Andreas Fischlin – Koordinierender Leitautor mit Beiträgen zu zwei Zusammenfassungen, zugleich Wissenschaftlicher Fachgutachter beim 2007er Bericht. Er ist derzeit Prüflektor.

Chris Furgal – 2007: Leitautor.

Carlos Gay García – 2007: Koordinierender Leitautor, derzeit Leitautor.

Christos Giannakopoulos – 2007: Leitautor.

Brij Gopal – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Antoine Guisan – Beitragender Autor bei zwei Kapiteln des 2007er Berichts.

Ren Guoyu – 2007: Wissenschaftlicher Fachgutachter beim Working Group 1 Bericht und beim Zusammenfassenden Bericht.

Hideo Harasawa – zwei Aufgaben im 2007er Bericht, zusätzlich Koordinierender Leitautor des Kapitels, wo der Himalaya-Gletscher-Fehler passierte.

Ove Hoegh-Guldberg – 2007: Beitragender Autor, derzeit Koordinierender Leitautor.

Lesley Hughes – Leitautor, Beitragender Autor und Wissenschaftlicher Fachgutachter beim 2007er Bericht. Sie ist wieder Leitautorin.

Saleemul Huq – Koordinierender Leitautor, der beim 2007er Bericht vier weitere Aufgaben wahrnahm und nun wieder Koordinierender Leitautor ist.

Erik Jeppesen – 2007: Beitragender Autor.

Roger Jones – Koordinierender Leitautor beim 2007er Bericht, wieder Koordinierender Leit­Autor.

David Karoly – Leitautor mit fünf weiteren Aufgaben beim 2007er Bericht und derzeit Prüflek­tor.

Manmohan Kapshe – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Gavin Kenny – 2007: Beitragender Autor und Wissenschaftlicher Fachgutachter.

Christian Körner – 2007: Beitragender Autor.

Paul Kovacs – 2007: Leitautor, erneut Leitautor.

K. Krishna Kumar – derzeit Koordinierender Leitautor.

Zbigniew Kundzewicz – 2007: Koordinierender Leitautor mit drei weiteren Aufgaben.

Murari Lal – vier Aufgaben beim 2007er Bericht, zusätzlich Koordinierender Leitautor für das Kapitel, wo der Himalaya-Gletscher-Fehler passierte.

Rodel Lasco – Koordinierender Leitautor, half auch beim Schreiben zweier Zusammenfas­sungen im 2007er Bericht, derzeit Leitautor.

Rik Leemans – 2007: Leitautor, diesmal Prüflektor.

Michael MacCracken – 2007: Beitragender Autor, Prüflektor und Wissenschaftlicher Fach­gutachter in drei unterschiedlichen Disziplinen beim 2007er Bericht.

Dena P. MacMynowski – 2007: Beitragender Autor bei zwei Kapiteln und Wissenschaftlicher Fachgutachter.

José Marengo – 2007: Leitautor, diesmal Prüflektor.

Eric Martin – 2007: Leitautor und Wissenschaftlicher Fachgutachter, diesmal Leitautor.

Mahmoud Medany – 2007: Koordinierender Leitautor, zugleich auch Leitautor.

Claudio Guillermo Menéndez – Leitautor beim 2007er Bericht.

Annette Menzel – 2007: Leitautor.

Guy Midgley – 2007: Koordinierender Leitautor mit Beiträgen zu Zusammenfassungen und erneut Koordinierender Leitautor.

Charles Kenneth Minns – 2007: Beitragender Autor.

Monirul Qader Mirza – 2007: Koordinierender Leitautor mit vier weiteren Aufgaben beim 2007er Bericht, diesmal wieder Leitautor.

Alison Misselhorn – 2007: Beitragender Autor.

Ana Rosa Moreno – 2007: Leitautor, diesmal Prüflektor.

Mark New – Leitautor beim 2007er Bericht.

Shuzo Nishioka – 2007: Prüflektor.

Carlos Nobre – 2007: Leitautor, diesmal Koordinierender Leitautor.

Patrick Nunn – Leitautor.

Leonard Nurse – Koordinierender Leitautor mit fünf weiteren Aufgaben beim 2007er Bericht, wieder Koordinierender Leitautor.

Mark Nuttal – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Anthony Nyong – Koordinierender Leitautor mit vier weiteren Aufgabe beim 2007er Bericht.

Govind Ballabh Pant – 2007: Prüflektor.

Barrie Pittock – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Batimaa Punsalmaa – Leitautor für zwei Kapitel beim 2007er Bericht.

N.H. Ravindranath – 2007: Leitautor und Wissenschaftlicher Fachgutachter, diesmal wieder Leitautor.

George Rose – 2007: Leitautor.

Joyashree Roy – Koordinierender Leitautor mit vier weiteren Aufgaben beim 2007er Bericht, diesmal wieder Koordinierender Leitautor.

Victor Magaña Rueda – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Stephen Schneider – 2007: Koordinierender Leitautor mit vier weiteren Aufgaben. Vor sei­nem Tod 2010 war er erneut als Koordinierender Leitautor benannt worden.

Mohamed Senouci – 2007: Prüflektor.

Anond Snidvongs – 2007: Wissenschaftlicher Fachgutachter, diesmal Leitautor.

Daithi Stone – mit sieben Aufgaben bei der 2007er Klima-Bibel, darunter Leitautor und Wis­senschaftlicher Fachgutachter beim Zusammenfassenden Bericht – diesmal wieder Leitau­tor. In Veröffentlichungen taucht er oft als D.A. Stone auf.

John Sweeney – 2007: Prüflektor, Beitragender Autor, Wissenschaftlicher Fachgutachter für Working Group 1 und 2.

Piotr Tryjanowski – 2007: Leitautor.

John Turner – 2007: Wissenschaftlicher Fachgutachter.

Riccardo Valentini – Koordinierender Leitautor.

Jef Vandenberghe – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Richard Washington – 2007: Beitragender Autor.

Poh Poh Wong – Koordinierender Leitautor mit drei zusätzlichen Aufgaben beim 2007er Bericht, erneut Koordinierender Leitautor.

Gary Yohe – Koordinierender Leitautor mit vier zusätzlichen Aufgaben beim 2007er Bericht, erneut Koordinierender Leitautor.

Zong-Ci Zhao – 2007: Leitautor, diesmal Prüflektor.

Gina Ziervogel – 2007: Beitragende Autorin und Wissenschaftliche Fachgutachterin.

Nein, Sie (und Ihresgleichen) sind keine Journalisten. Sie sind Witzfiguren, aber sehr teure, und deshalb ist das überhaupt nicht witzig.

PS: Sie werden mich zweifelsohne für sehr ungehobelt halten. Das hoffe ich; ich bekenne mich zu Oscar Wilde’s Vorstellung, dass ein Gentleman nur ungehobelt ist, wenn er es beab­sichtigt.

Rupert Wyndham

*******************************************

Abdruck und Bearbeitung mit freundlicher Genehmigung von Rupert Wyndham.
Übersetzung: Helmut Jäger, EIKE