Wie Umweltorganisationen die Umwelt zerstören

„Aber – und das habe ich Tom und seiner Frau Kate Taylor sowie einigen anderen gegenüber erwähnt – die Politik dazu ist schwierig [tough]“, fügte Obama hinzu, jedenfalls einem Schriftstück des Weißen Hauses zufolge. „Nur weil man ein Jahrzehnt lang keinen Anstieg beobachtet hat … wenn dein Haus immer noch mit 25000, 35000 Dollar in der Kreide steht, wirst du dir vielleicht Sorgen um die Temperatur des Planeten machen, aber das wird vermutlich nicht an oberster Stelle deiner Sorgen stehen. Und wenn die Leute glauben, dass das – nun – kurzsichtig ist, dann passiert das eben, wenn man versucht zurechtzukommen“.
Ich liebe Obamas Beschreibung ökonomischer Schwierigkeiten, wenn er sie mit den Worten charakterisiert „…wenn dein Haus in der Kreide steht…“ – in meiner Umgebung ist das etwas, das wohlwollend als ein „Problem der Ersten Welt“ bekannt ist. Aber das beschreibt sehr gut die enge Beziehung zwischen dem ökonomisch Wünschenswerten und fehlendem Umweltbewusstsein, selbst unter Menschen mit viel Geld.
In diesem Beitrag werde ich die Verbindung zwischen dem CO2-Alarmismus und Umweltzerstörung behandeln und wie die Arbeit der großen Nicht-Regierungs-Umweltorganisationen (NGOs) wie Greenpeace und der WWF aktiv die Umwelt schädigen.
Beginnen möchte ich mit den beiden wichtigsten Tatsachen in der Diskussion um die globale Umwelt. Erstens, die Hälfte aller Menschen auf diesem Planeten lebt von weniger als 2 Dollar pro Tag. Darum habe ich die Verschuldung des Grundeigentums ein „Problem der Ersten Welt“ bezeichnet. Menschen, die von 2 Dollar pro Tag leben, haben keine Schulden auf Privathäusern – die meisten davon haben kein Haus oder viel mehr als ein paar Lumpen Kleidung.
Abbildung 1 [oben rechts]: Grenze zwischen Haiti und der Dominikanischen Republik. Raten Sie mal, in welchem Land die Öko-Kriminellen zu hause sind, die es sich leisten können, fossile Treibstoffe zu verbrauchen, und in welchem Land die Naturliebhaber wohnen, die von natürlicher, erneuerbarer organischer Biomasse zur Energieerzeugung abhängig sind…
Zweitens: nur entwickelte Länder haben jemals ihre Umwelt in Ordnung gebracht. Nur wenn die Bewohner eines Landes angemessen ernährt und gekleidet und geschützt vor den Unbilden des Wetters sind, können sie es sich leisten, sich über die Umwelt Gedanken zu machen. Und weit davon entfernt, die Umwelt in Ordnung zu bringen, wie es sich wohlhabende Länder leisten können, wirken die Menschen in armen Ländern sehr zerstörerisch auf die Umwelt. Menschen in armen Ländern werden jeden Baum verbrennen, wenn das notwendig ist, und das würden Sie auch, wenn Ihre Kinder schreien. Sie werden jeden Affen essen und am Ende auch die Schimpansen verspeisen, und das würden Sie auch, wenn Ihre Familie am Verhungern wäre. Sie werden die Notwendigkeit beklagen, sie mögen es genauso wenig wie Sie oder ich … aber sie werden es tun. Im Bild oben rechts sieht man die Grenze zwischen Haiti und der Dominikanischen Republik:
Angesichts der Tatsache, dass Armut die größte Bedrohung der globalen Umwelt ist, lautet die unvermeidliche Schlussfolgerung, dass der einzige Weg, der globalen Umwelt eine Chance zu geben, darin besteht, dass sich arme Länder wirtschaftlich entwickeln können.

Und genau deswegen ist die Anti-Entwicklungs-Haltung und Pro-teure-Energie-Politik der großen Umwelt-NGOs eine der großen Umwelttragödien unserer Zeit.

Die Kausalkette sieht so aus:
1. Die Klimaalarmisten haben mit starker Unterstützung großer Umwelt-NGOs wie Greenpeace und WWF dem CO2 den Krieg erklärt.
2. Die von ihnen gewählte Methode zur Bekämpfung des CO2 war es, den Verbrauch fossiler Treibstoffe unattraktiv zu machen, indem Energie immer teurer gemacht wurde, und zwar mittels einer Kombination von Steuererhöhungen, Gesetzgebungen, internationalem Druck und teuren Subventionen, um dieses Ziel zu erreichen. Der gerade von Obama verkündete Krieg gegen die Kohle ist nur eines von hunderten anderer Beispiele der wohlhabenden NGOs und der reichen Regierungen, die daran arbeiten, Energie immer weiter zu verteuern.
3. Da Energie gleich Entwicklung ist, hält teure Energie die armen Länder in Armut. Wenn die Weltbank Anleihen für Kohlekraftwerke in Indien ablehnt, leiden die Armen … aber die Umwelt leidet noch mehr. Solange sie es sich nicht leisten können, Kohle und Gas zu verbrauchen, werden sie das Land vom Holz befreien … ich verweise zurück auf die Abbildung oben, wie gut das der Natur tut.
4. Teure Energie verzögert die ökonomische Entwicklung eines Landes, und wie Präsident Obama gesagt hat: Menschen, die sich um ihr Auskommen sorgen, achten nicht auf ihre Umwelt.
Dies führt am Ende zu einer bizarren Lage – die Aktionen der großen Umwelt-NGOs stellen die fortgesetzte Umweltzerstörung in den Entwicklungsländern sicher.
Ich habe die Lektion über den Zusammenhang zwischen Armut und Umweltzerstörung teilweise durch traurige Erfahrungen gelernt. Ich habe meine Unterhaltung mit dem mittellosen Verkäufer von Feuerholz in Costa Rica und seine Art, in Nationalen Wäldern sein Feuerholz zu holen, in meinem Beitrag über den Papageifisch diskutiert. Hier folgt die Story einer längeren und traurigeren Wechselwirkung zwischen Armut und der Umwelt.
Heute lebe ich umgeben von Wäldern, genau wie auch als Kind. Ich habe daraus Kraft gezogen. Mein Stiefvater war Holzfäller, ebenso wie dessen Vater, und ich habe in den Wäldern mitgeholfen [I’ve worked in the woods setting choker]. Ich habe gutes Holz fällen, schlechtes Holzfällen und glatt kriminelles Holzfällen gesehen, und ich war immer leidenschaftlich, wenn es um den Schutz der Wälder ging und um ethische Praktiken des Holz Fällens. Hier sieht man eine Ansicht des Redwood-Waldes aus meinem Fenster, und es regnet immer noch…

Ende der achtziger Jahre war ich ein paar Jahre lang Direktor eines Programms zur Entwicklung der Umwelt auf den Solomon Inseln, so etwas Ähnliches wie „Save the Children“, aber in einem allgemeineren Rahmen. Unter den Projekten unter meiner Leitung war das „Walkabout Sawmill“-Programm. Das war ein voller Erfolg. Anstatt Geld zur Begrenzung von Katastrophenschäden nach einem Zyklon zu verteilen, haben wir ein paar tragbare Sägemühlen von nebenan, also in Papua-Neuguinea gekauft. Wir haben einige Teams geschult, die Sägemühlen zu betreiben, die wir anschließend auf die Dörfer geschickt haben, um die Bäume zu zerlegen, die im Zyklon umgeweht worden waren. Die Dorfbewohner bekamen Holz, unsere Teams lernten den Gebrauch der Sägemühlen. Als das Projekt zu Ende gegangen war, haben wir die Sägemühlen auf Kredit an die Teams verkauft, so dass sie damit in ihren eigenen Heimatländern arbeiten konnten.
Warum war ich froh, ihnen beim Fällen im Wald helfen zu können? Weil ich wusste, dass es der einzigen anderen Option bei Weitem vorzuziehen war, die darin bestand, asiatische Holzfäller-Unternehmen ins Land zu lassen und riesige Landgebiete komplett abzuholzen. Wegen ihrer Armut haben die Bewohner der Solomon-Inseln ihr Erbe verkauft, ihre unglaublich wertvollen tropischen Harthölzer, für ein paar lumpige Pennys.
Und wie hat ihre Armut dazu geführt, dass sie ihren Wald verloren haben? Ich kann diese Frage beantworten.
Wenn ein Land arm ist, kann man alles kaufen.
Viele Jahre lang habe ich Ende der achtziger Jahre auf einem Korallenatoll in der Nähe einer großen Vulkaninsel gewohnt, die die höchst euphemistische Bezeichnung „Vella Lavella“ trug. Das Atoll befand sich in der Westprovinz der Solomon-Inseln. Zu jener Zeit wuchsen auf den Solomonen ausgedehnte tropische Wälder voller wertvoller tropischer Harthölzer. Holzfäller-Unternehmen kamen aus Übersee, zahlten den Bewohnern ein paar Pennys für ihre Stämme, bezahlten die Zollinspektoren und verschifften Ladung für Ladung des Schatzes und des Erbes der Inseln, ihre tropischen Bäume. Also machte es mich glücklich, dass es mir möglich war, den Menschen dort eine Alternative anbieten zu können, nämlich ihre eigenen Wälder zu bewirtschaften und zu erhalten.
Zu jener Zeit unternahm ein malaysisches Unternehmen Schritte, um die Rechte für das Abholzen der Insel Vella Lavella zu bekommen. Einige Leute sagten nein, aber es gab auch Befürworter. Es gibt eine Art lokalen Inselrat, mit etwa fünf „großen Männern“, lokale Führer, die alle Entscheidungen treffen. Die Leute waren leidenschaftlich, wenn es um das Fällen ging, wie man sich vorstellen kann. Der Inselrat trat zusammen, und das Unternehmen hielt seine Präsentation ab. Die großen Männer haben, das sei zu ihrer Ehrenrettung vermerkt, den Antrag abgelehnt.
Also zückte das Unternehmen seine Brieftaschen und kaufte sie gleich vor Ort. Nachdem die Leute gegangen waren, erklärten sie den Rat für immer noch in der Sitzung befindlich, und jetzt stimmten sie der Gewährung der Rechte für das Unternehmen zu. Das einzige Problem dabei war, dass das Ergebnis des ersten Treffens bereits offiziell verkündet worden war.
Natürlich geschah das auf den Solomonen, und die Männer vor Ort waren gänzlich unerfahren in der Kunst des Verbrechens. Sie griffen einfach zu ein wenig Deckweiß und weißten die Passage „keine Fällung“ aus. Dann überschrieben sie mit dieser überarbeiteten Version die ursprüngliche Version.
Als ich das gehört habe, war ich sowohl amüsiert als auch sehr zornig. Also sind einige von uns beim Public Solicitor [so etwas wie ein öffentlicher Anwalt] vorstellig geworden, damit dieser den Fall übernehme. Er war darüber zunächst enthusiastisch – bevor er erkrankte. Am Ende steckte er sich mit der Krankheit an, die viele weiße Kerle in den Tropen befällt; sie kommt in einer Flasche und macht, dass man sich elend fühlt, aber das geschah, bevor er krank geworden ist. Also hat er den Fall auf brillante Art gelöst und dafür gesorgt, dass die Entscheidung nichtig war. Wir haben alle gejubelt und das Gefühl gehabt, dass wir gewonnen hatten.
Als die Entscheidung des Gerichts verkündet worden ist, hat das Holzfäller-Unternehmen das Offensichtliche getan – dieses Mal betrogen sie nach allen Regeln der Kunst. Sie bezahlten die Inselräte, aber diesmal taten sie das vor dem nächsten Treffen. Damit bestand keine Notwendigkeit, die offizielle Verlautbarung zu ändern … ich war schwer geschockt, genau wie meine Freunde vor Ort.
Also gab dieser billige Handel der Inselräte – ich habe gehört, es waren großartige zehn Dollar pro Mann – dem Unternehmen das Recht, mit den Bewohnern von Vella Lavella einen Vertrag auszuhandeln, falls sie den unterschreiben wollten. Eines Nachmittags ließ sich ein junger Bewohner von Vella Lavella auf die Insel übersetzen, auf der ich wohnte, und fragte mich um Hilfe. Ich kaufte drei Biere, und wir unterhielten uns über das Holzfäller-Unternehmen. Er sagte, dass seine Leute agitiert haben, um die Menschen davon zu überzeugen, das Unternehmen außen vor zu lassen und sich selbst um ihre Wälder zu kümmern. Aber das Gefühl der Leute stand gegen sie. Sie wollten das leichte Geld, sich einfach zurücklehnen und das Unternehmen die Arbeit machen lassen.
Also haben sie mich gefragt, ob ich mir den Vertrag mal ansehen und ihnen erklären könnte, was das Unternehmen da von ihnen zu unterschreiben verlangte. Ich sagte, natürlich, und sie übergaben mir eine Kopie des verfluchten Dokuments.
Ich sage Ihnen, ich habe schon so manch einen durchtriebenen und listigen Weg gesehen zu betrügen und jemanden mit einem Füller und einem Blatt Papier zu ködern, aber dieses hier war wie reiner Schwefel. Weiß war darin schwarz, und schwarz war weiß. Skandalöse Dinge waren vorgeschlagen und den Bewohnern als Vorteile weisgemacht worden.
Und die Regeln selbst zum Fällen in dem Vertrag waren bodenlos. Ein 100 Meter breiter Streifen unversehrter Wälder um die Flüsse und Wasserwege wird als Minimum angesehen, um die Gewässer vor der Sedimentation zu bewahren. Das Unternehmen schlug einen 10 Meter breiten Streifen vor und behauptete, dies sei Ausdruck ihrer Sorge um die Umwelt. Auch gab es keinerlei Begrenzung der Menge, die sie fällen durften. Normalerweise schützt man auf steilen Hängen die Bäume, weil Erosion und Erdrutsche so schädlich sind … hier gab es überhaupt keinen Schutz.
Dann gab es da Strafen für Fällungen außerhalb des festgelegten Gebietes … zehn US-Dollar pro Baum. Zu jener Zeit waren die Harthölzer der Solomonen nach der Verarbeitung und Trocknung etwa 1400 US-Dollar pro Festmeter wert, und einige Bäume maßen drei oder mehr Festmeter. Dies bedeutete: wenn die Holzfäller eines wertvollen Baumes ansichtig wurden, der sich nicht auf dem zugelassenen Gebiet befand, konnten sie ihn fällen, den Bewohnern 10 Dollar dafür zahlen und ihn für fünftausend Dollar verkaufen…
Aber das ist längst noch nicht alles. Es gab da nämlich noch das kleine Problem des Preises. Von ihm sagte das Unternehmen, dass es der beste Teil des Vertrages sei. Anderswo auf den Solomonen erhielten die Menschen lediglich drei Dollar pro Festmeter, aber dieses Unternehmen bot aus reiner Menschenliebe nicht weniger als 10 Dollar pro Festmeter an…
Dann waren da noch die Transportwege. Ein gewaltiger Vorteil einer ordentlich durchgeführten Fällaktion ist es, wenn die Menschen am Ende Straßen bekommen, die die Küstendörfer mit dem Landesinneren verbinden.
Das kann aber auch ein großer Fluch sein, denn wenn die Straßen nicht ordentlich entworfen und gebaut sind, werden sie durch die tropischen Regengüsse weggespült. Zurück bleiben offene Schneisen, die Jahre brauchen, um sich wieder zu erholen.
Nun, in diesem Dokument wurde auf all das hingewiesen. Es ging darin um die mannigfaltige Qualität von Straßen, von den Waldwegen im Inneren bis zu den befestigten Straßen entlang der Küste. Es gab seitenlange Spezifikationen der Straßen und liebliche Schwarzweiß-Bilder von asphaltierten Autobahnen zu den tropischen Stränden – mit nur einem kleinen Problem.
Das Dokument beschrieb die Straßen und die Örtlichkeiten ihres Baus und wie gut diese doch wären … aber nirgends in dem gesamten Dokument fand sich tatsächlich das Versprechen, auch nur einen einzigen Meter Straße zu bauen, befestigt oder nicht. Es war alles nur Schall und Rauch; sie haben nichts versprochen.
Also arbeitete ich mich durch das gesamte Dokument und markierte die relevanten Punkte. Dann traf ich mich wieder mit den jungen Leuten, und wir durchforsteten das Ganze gemeinsam, Klausel für Klausel. Ich habe etwa zwei Drittel der Klauseln umgeschrieben; ich habe mit meinem Freund, dem Public Solicitor zusammen gearbeitet, und wir haben ein Dokument erstellt, das wirklich für die Bewohner ein guter Handel sein würde. Die Holzfäller würden immer noch auf ihre Kosten kommen, aber wie Geschäftsleute und nicht wie Straßenräuber.
Es war eine lange Sitzung, die Männer hatten sehr viele Fragen, und wir besprachen jede Klausel einzeln, damit auch jeder verstand, warum ich diese Änderungen vorgenommen hatte und was die Änderungen für sie bedeuten würden. Nach vorhergehenden Diskussionen mit einigen der Männer haben wir auch einen Abschnitt eingefügt, dem zufolge ein Trust eingesetzt werden sollte, der den Großteil des Geldes verwalten sollte, damit nicht alles für Bier und Freizeit ausgegeben und in sechs Monaten verschwunden sein würde. Sie waren sehr einverstanden damit, hatten sie doch früher schon das Geld davon rinnen sehen.
Dann waren sie bereit, sich mit den Repräsentanten des Unternehmens zu treffen. Sie fragten mich, ob ich mit ihnen zu dem Treffen gehen würde. Ich sagte, dass das nicht gehen würde … ein anderer, mir bekannter Ausgebürgerter war mit den Holzfällern einige Monate zuvor aneinandergeraten, und innerhalb einer Woche wurde seine Arbeitserlaubnis einkassiert, und er musste das Land verlassen. Ich konnte nicht riskieren, meine Arbeitserlaubnis zu verlieren, also sagte ich, dass sie das gut auch alleine könnten, schließlich hatten sie verstanden, worum es ging.
Sie fragten, ob sie in einem der Gästehäuser tagen könnten, die ich auf der Insel angemietet habe. Ich sagte, natürlich, kein Problem. Sie konnten das Treffen dort abhalten und die Nacht verbringen und am nächsten Tag nach Vella zurückfahren.
Dann kam die große Nacht des Treffens. Alle kamen, Holzfäller und Inselbewohner. Ich spielte den Gastgeber und ließ sie mit der Diskussion über das Schicksal des Waldes allein.
Und am nächsten Morgen? Alle kamen sie heraus, die Gesichter vor Scham verzogen. Ich sah es mit einem Blick, und mein Herz sank. Ich fragte einen der Alten, einen der Großen, was geschehen war. „Oh, die Männer des Holzfäller-Unternehmens waren sehr nett! Können Sie sich vorstellen, sie schenkten uns eine ganze Kiste voller Black Label Whiskey. Sie erklärten den Vertrag, und es klang wunderbar, also haben wir ihn unterschrieben…“ Oh Mann, mein Blut geriet mächtig in Wallung, und ich lief große Gefahr auszurasten … aber ich kannte den alten Mann, er war kein schlechter Mann, aber ein schwacher. Also biss ich mir auf die Zunge und schüttelte mit dem Kopf und sagte, dass seine Söhne vielleicht noch einen Vorteil davon hätten, aber dass seine Enkel sich fragen würden, warum sie ihr Geburtsrecht für ein paar lumpige Pennys verkauft haben … dann wandte ich mich an die jungen Leute. Sie sagten, dass sie es nicht verhindern konnten. Als die großen Männer einmal betrunken waren, wurden sie streitlustig, hörten auf niemanden mehr und hätten alles unterschrieben.
Zuerst war ich wütend über das Holzfäller-Unternehmen, dass es so schändlich und hinterhältig war, die Bewohner dazu zu bringen, betrunken zu unterschreiben.
Dann dachte ich: “Moment …”. Diese Männer waren keine Indianer, die noch nie in ihrem Leben Feuerwasser probiert hatten. Sie waren alle auch früher schon mal betrunken, möglicherweise sogar in der gleichen Woche. Sie wussten ganz genau, was das für ihre Urteilsfähigkeit bedeutete. Also war ich dann über sie verärgert.
Dann aber dachte ich, nein, sie waren lediglich schwach und eingeschüchtert durch fehlende Bildung und Erfahrung und Geld. Das Unternehmen hatte gebildete, gepflegte und freundliche Leute geschickt, teuer gekleidet und geschmückt mit Gold, großen Ringen und Ketten. Die Großen Männer waren alle gleich gekleidet – kurze Hosen und T-Shirts, bündelweise importiert aus Australien. Mir wurde klar: anstatt mit ihrer vorhersehbaren Unfähigkeit in Konflikt zu geraten, mit den Holzfällern zu verhandeln, haben sie den einfachen Weg gewählt und sich betrunken.
Dann ärgerte ich mich über die jungen Leute, weil sie nicht mehr Widerstand gezeigt hatten … das dauerte lange genug, um sich klarzumachen, dass man unter den unverbrüchlichen Stammesgewohnheiten von ihnen erwartete und sie zwang, ihren Alten zu gehorchen, genauso wie sie es von ihren Jungen verlangen würden, wenn sie wirklich alt geworden sind … sagen wir mal fünfzig Jahre … das Leben ist kurz hier.
Es dauerte eine Weile, aber dann kam ich letztendlich doch zu der Schlussfolgerung, dass diese Menschen immer Gefahr laufen würden, Opfer dieser Art von habgierigen und amoralischen Männergruppen zu werden, die schon immer unter uns waren – solange sie nicht angemessen ernährt und gekleidet sind oder über bequemen Wohnraum verfügten…
Und am Ende des Tages war mir klar geworden, dass ich ein Narr gewesen war. Oh, ich würde diesen Kampf immer wieder kämpfen, aber ich würde immer wieder verlieren. Es ist das, was passiert, wenn das große Geld auf ein armes Land trifft – die Umwelt wird zerstört, egal ob es um Holzfällen, angeln oder Bergbau geht. Solange ein Land nicht wohlhabend genug ist, seine Bewohner zu ernähren und sich selbst zu schützen, werden dessen Ressourcen immer meistbietend zu verkaufen sein … dabei meine ich  mit den Meistbietenden diejenigen mit der geringsten Moral.
Nun habe ich diese ganze Geschichte aus einem bestimmten Grund erzählt, nämlich um zu erhärten, welchen Schaden Armut an der Umwelt anrichtet. Wenn man einen Inselrat für zehn Dollar pro Mann kaufen kann und buchstäblich Millionen Dollar auf dem Spiel stehen, wird dieser Rat sich kaufen lassen, egal wie sehr ich dagegen ankämpfen würde. Das Bruttosozialprodukt auf den Solomonen beträgt pro Jahr etwa 600 Dollar; das Land wird als „LDC“ gelistet, also als Least Developed Country … und in einem Land, in dem zwanzigtausend Dollar das Gehalt von fast zwanzig Jahren ist, kann man viele Menschen für zehn Große kaufen…
Das ist einer der Hauptgründe, warum ich viel Zeit damit verbracht habe, in Übersee zu arbeiten in dem Versuch, die globale Armut abzumildern. Zuerst mache ich das für die Menschen, gleich danach aber für die Umwelt.
Und darum fühle ich mich so persönlich betrogen durch den gegenwärtigen geistlosen Anschub zu teurer Energie, ein Anschub durch genau jene Organisationen, die ich früher auch mal unterstützt habe, weil sie damals vermeintlich für die Umwelt eingetreten waren, nicht dagegen. Die Erhöhung der Energiepreise ist die regressivste Besteuerung, die ich kenne. Je ärmer man ist, umso härter wird man durch steigende Energiepreise betroffen, und je mehr die Armen leiden, umso mehr trägt die Umwelt den Schaden davon.
Hier also habe ich angesetzt zu erklären, warum Menschen, die CO2 bekämpfen, die Umwelt schädigen. Ich möchte die Glieder der Kette noch einmal wiederholen:
1. Teilweise angeführt von den NGOs haben viele Menschen und Regierungen dem CO2 den Krieg erklärt.
2. Ihre bevorzugte Methode der Kriegführung ist die Erhöhung der Energiepreise, und zwar durch Subventionen, Steuern, Verbote, Gesetze zur Nutzung von Erneuerbaren, die Ablehnung von Pipeline-Projekten und so weiter.
3. Der Anstieg der Energiepreise verarmt die Ärmsten noch weiter und verhindert die Entwicklung armer Länder.
4. Wie Obama gesagt hat, selbst wohlhabende Menschen mit ökonomischen Sorgen tendieren dazu, die Umwelt zu ignorieren … also ist das Herumtrampeln auf den Entwicklungsmöglichkeiten armer Länder durch das Anheben der Energiepreise eine Garantie für Jahre lange Umweltzerstörung.
Ich sage, dass die Geschichte nicht freundlich auf diese Menschen und Organisationen schauen wird, die gegenwärtig die Armen weiter verarmen und die Umwelt schädigen in einem aussichtslosen und nutzlosen Kampf gegen CO2, selbst wenn die Täter wohlhabend sind und es ihnen an Melanin mangelt, und wenn sie angeblich nur mit besten Absichten handeln…
Meine Grüße an alle von Ihnen – und führen Sie den guten Kampf fort!
Willis Eschenbach
AKTUALISIERUNG: Für all jene, die ein wenig mehr Informationen über die Verbindungen zwischen Armut und Umwelt haben möchten, die zum Foto in der Abbildung oben rechts geführt haben: Im Jahr 1960 hatten Haiti und die Dominikanische Republik (DR) etwa ein gleich hohes Bruttoinlandsprodukt (GDP). Die klimatischen und physikalischen Bedingungen waren ebenfalls gleich, teilten sich beide Länder doch die gleiche Insel.
Bis zum Jahr 2012 jedoch ist das GDP in der DR auf etwa 9600 Dollar pro Jahr gestiegen, während es in Haiti auf etwa 1200 Dollar gesunken ist, also niedriger lag als im Jahr 1960. Und als Folge dessen, dass die Haitianer fast überhaupt kein Geld haben und nur ein Achtel des GDP der DR, haben sowohl die Menschen als auch die Umwelt in Haiti schwer gelitten.
Nur so zum Vergleich: In Norwegen beträgt das Bruttosozialprodukt etwa 60000 Dollar und in den USA etwa 49000 Dollar. Am anderen Ende der Skala stehen die Solomon-Inseln, von der UN klassifiziert als eines der „Least Developed Countries“. Dort beträgt das Bruttosozialprodukt etwa das Doppelte wie in Haiti (und ein Viertel desjenigen in der DR), also etwa 2500 Dollar.
Willis Eschenbach
2. AKTUALISIERUNG von Anthony Watts: Ich wollte eine unabhängige Bestätigung des Photos in der Abbildung oben rechts einholen, weil auf dem Photo vielleicht nur ein kleiner, nicht repräsentativer Ausschnitt abgebildet sein könnte. Also habe ich das mittels Google Earth mal untersucht. Zwar sieht es nicht an der gesamten Grenze zwischen Haiti und der Dominikanischen Republik so aus wie in der Abbildung oben, doch gibt es weite Gebiete im nördlichen Teil, die dieses Phänomen zeigen, zum Beispiel:

Anthony Watts
Link: http://wattsupwiththat.com/2013/06/25/how-environmental-organizations-are-destroying-the-environment/
Übersetzt von Chris Frey EIKE




Klimasensitivität zerlegt

Bild rechts (Abbildung 1): Was passiert, wenn ich  mir den Kopf zu sehr hinsichtlich der Klimamodelle zerbreche
Vor drei Jahren machte eine für mich sehr überraschende Entdeckung. Sie wurde inspiriert durch das ultra-simple Klimamodell von Lucia Liljegren, das sie „Stückwerk“ nannte, und mit der unentbehrlichen Assistenz der mathematischen Fähigkeiten der Kommentatoren Paul K. und Joe Born. Das GISSE-Klimamodell konnte genau nachgebildet werden durch eine One-Line-Gleichung. Mit anderen Worten, die Rechenergebnisse des GISSE-Modells bzgl. der globalen Temperatur werden fast exakt durch eine lineare Transformation des Inputs in die Modelle (die „Antriebe“ in der Klimasprechweise, von Sonne, Vulkanen, CO2 und so weiter) beschrieben. Die Korrelation zwischen den aktuellen GISSE-Modellergebnissen und meiner Nachbildung dieser Ergebnisse beträgt 0,98… viel besser als das ging es nicht. Nun kann man es aber tatsächlich noch besser machen, fand ich doch heraus, dass man eine Korrelation von 99+% erreicht, wenn man berücksichtigt, dass sie irgendwie den Antrieb durch Vulkane vermindert haben. Wie auch immer, es war ein überraschendes Ergebnis für mich. Ich hätte nie gedacht, dass das Ergebnis der unglaublich komplexen Klimamodelle so sklavisch den Eingaben folgt.
Seitdem hat Isaac Held das Ergebnis unter Verwendung eines dritten Modells nachgestellt, dem CM2.1-Klimamodell. Ich habe die Antriebe und Daten dieses Modells erhalten und seine Ergebnisse reproduziert. Der gleichen Analyse wurde das GDFL-Modell unterzogen, mit dem gleichen Ergebnis. Und ich habe die gleiche Analyse mit den Forster-Daten durchgeführt, welche aus einem Mittel von 19 Antrieben und Temperatur-Outputs bestehen. Das ergibt vier individuelle Modelle plus dem Mittel aus 19 Klimamodellen, und alle Ergebnisse waren immer gleich. Daher ist die überraschende Schlussfolgerung unausweichlich: Die Ergebnisse der globalen, von den Klimamodellen berechneten Mitteltemperatur können mit einem Vertrauensintervall von 99% reproduziert werden, egal ob individuell oder in der Masse.
Allerdings war das Ergebnis meiner jüngsten Analyse der Klimamodelle vom Typ „Black Box“ für mich sogar noch überraschender und auch weitreichender.
Folgendes war geschehen: Ich habe eine Kalkulations-Tabelle erstellt, um es einfach zu machen, die verschiedenen Antriebe und die Temperatur-Datensätze zu vergleichen und ihre Eigenschaften zu berechnen. Mit dem „Solver“-Tool habe ich schrittweise die Werte von Tau (die Zeitkonstante) und Lambda (die Sensitivitäts-Konstante) ausgewählt, um die beste Anpassung an das vorhergesagte Ergebnis zu bekommen. Nach dem Blick auf einige der Ergebnisse mit breit variierenden Sensitivitäten, fragte ich mich, was in den beiden Datensätzen es war (Modellantriebe und vom Modell vorhergesagte Temperaturen), dass die resultierende Sensitivität bestimmte. Ich fragte mich, ob es irgendeine einfache Beziehung zwischen der Klimasensitivität und den grundlegenden statistischen Eigenschaften gab (Trends, Standardabweichungen, Bandbreiten und so weiter). Ich sah auf die fünf Antriebs-Datensätze, die mir zur Verfügung standen (GISSE, CCSM3, CM2.1, Forster und Otto) zusammen mit den damit verbundenen Temperatur-Ergebnissen. Zu meiner totalen Überraschung betrug die Korrelation zwischen dem Trendverhältnis (Temperaturtrend im Datensatz dividiert durch den Antriebstrend im Datensatz) und der Klimasensitivität (Lambda) 1,00. Mir sackte der Unterkiefer ab. Pefekte Korrelation?  Gibt es so etwas überhaupt? Ich habe die Punktwolke geplottet.

Abbildung 2: Punktwolke, die die Beziehung zwischen Lambda und dem Verhältnis des Output-Trends zum Input-Trend zeigt. Forster ist das Mittel des Forster 19-Modells. Otto sind die Forster-Input-Daten, modifiziert von Otto einschließlich der Hinzufügung eines Trends von 0,3 W/m² über die zeitliche Länge des Datensatzes. Weil in dieser Analyse nur Strahlungsantriebe und keine Ozeanantriebe verwendet werden, ist Lambda die vorübergehende Reaktion des Klimas (transient climate response TCR). Fügt man den Daten die Ozean-Antriebe hinzu, wäre Lambda die Gleichgewichts-Klimasensitivität. Lambda ist dargestellt in Grad pro W/m² Antrieb. Um das in Grad pro Verdoppelung des CO2-Gehaltes zu konvertieren, muss man Lambda mit 3,7 multiplizieren.
Und siehe da, diese Art Korrelation sieht man nicht sehr oft, R² = 1,00 bis auf zwei Stellen nach dem Komma … das spricht für mich.
Lassen Sie mich den Vorbehalt wiederholen, dass wir hier nicht über reale Temperaturen reden. Dies ist ein weiterer „Schwarzkörper“-Vergleich der Modell-Inputs (vermutlich eine Art reale-Welt-„Antrieb“ von der Sonne und Vulkanen und Aerosole und Ruß und alles andere) und der Modellergebnisse. Ich versuche zu verstehen, was die Modelle machen, und nicht, wie sie es machen.
Nun standen mir nicht die von den Modellen verwendeten Daten des Ozean-Antriebs zur Verfügung. Aber ich habe die Levitus-Daten des ozeanischen Wärmegehaltes seit 1950, so wenig diese auch als Ersatz taugen. Also habe ich diese jedem Antriebs-Datensatz hinzugefügt, um neue Datensätze zu erstellen, die auch die Ozeandaten enthalten. Wie man sich vorstellen kann, wenn einiges der jüngsten Antriebe in den Ozean geht, fällt der Trend im Antriebs-Datensatz ab … und wie man erwarten würde, nimmt das Trendverhältnis (und folglich die Klimasensitivität) zu. Dieser Effekt ist dort am ausgeprägtesten, wo der Antriebs-Datensatz einen kleineren Trend aufweist (CM2.1) und weniger deutlich am anderen Ende der Skala (CCSM3). Abbildung 3 zeigt die gleichen fünf Datensätze wie Abbildung 2 plus den gleichen fünf Datensätzen mit den hinzu gefügten Ozean-Antrieben. Man beachte, dass Lambda die Gleichgewichts-Klimasensitivität ist, wenn der Antriebs-Datensatz den Wärmetransport in den und aus dem Ozean enthält. Wenn der Datensatz den Strahlungsantrieb allein enthält, ist Lambda die vorübergehende Klimareaktion. Also sind die blauen Punkte in Abbildung 3 ECS und die roten Punkte TCR. Die mittlere Änderung (ECS/TCR) beträgt 1,25, was zu der Schätzung von ~ 1,3 in der Otto-Studie passt.
 
Abbildung 3: Die roten Punkte zeigen die Modelle wie in Abbildung 2. Blaue Punkte zeigen die gleichen Punkte, jedoch verstärkt mit den Levitus-Daten des ozeanischen Wärmegehaltes in jedem Antriebs-Datensatz. Die sich ergebenden Sensitivitäten sind höher für die Gleichgewichts-Bedingung als für die kurzlebige Bedingung, was zu erwarten war. Blaue Punkte zeigen die Gleichgewichts-Klimasensitivität ECS, während die roten Punkte (wie in Abbildung 2) die korrespondierende kurzlebige Klima-Reaktion TCR zeigen.
Schließlich habe ich die fünf unterschiedlichen Antriebs-Datensätze durchlaufen lassen, mit und ohne Ozean-Antrieb, und mit drei aktuellen Temperatur-Datensätzen verglichen – HadCRUT4, BEST und GISS LOTI. Ich habe Daten aus allen diesen genommen, und die Ergebnisse der Analyse dieser 29 Modellläufe sehen so aus:
 
Abbildung 4: Große rote und blaue Punkte wie in Abbildung 3. Die hellblauen Punkte sind das Ergebnis der Berechnung der Antriebe und die Teilmengen der Antriebe, mit und ohne Ozean-Antrieb sowie mit und ohne Vulkan-Antrieb, im Vergleich mit aktuellen Datensätzen. Der gezeigte Fehler beträgt 1 Sigma.
Also lautet mein neues Ergebnis: Die Klimasensitivität der Modelle, sowohl individuell als auch im Mittel, ist gleich dem Verhältnis der Trends des Antriebs und der resultierenden Temperaturen. Dabei spielt es keine Rolle, ob Änderungen des ozeanischen Wärmegehaltes in die Berechnung mit einbezogen werden. Es gilt sowohl für den Vergleich Antriebe <-> Modell-Temperaturergebnisse als auch für Antriebe <-> aktuelle Temperatur-Datensätze. Es gilt auch für Teilmengen des Antriebs wie z. B. Vulkane allein, oder auch für Treibhausgase.
Und diese Beziehung habe ich nicht nur experimentell gefunden durch Betrachten der Ergebnisse der einzeiligen Gleichung für Modelle und Modellergebnisse. Dann fand ich heraus, dass man diese Beziehung mathematisch aus der One-Line-Gleichung ableiten kann (siehe Anhang D mit Details).
Das ist eine klare Bestätigung einer Beobachtung, die zum ersten Mal im Jahr 2007 von Kiehl gemacht worden ist, als er eine umgekehrte Beziehung zwischen Antrieb und Sensitivität vermutete.
Die Frage lautet: Wenn sich die Klimamodelle um einen Faktor 2 bis 3 hinsichtlich der Klimasensitivität unterscheiden, wie können sie allesamt den globalen Temperaturverlauf mit hinreichender Genauigkeit simulieren? Kerr (2007) und S. E. Schwartz et al. (Quantifizierung der Klimaänderung – ein zu rosiges Bild? hier) wiesen kürzlich darauf hin, wie wichtig es ist, die Antwort auf diese Frage zu verstehen. Tatsächlich hat sich Kerr (2007) auf die gegenwärtige Arbeit bezogen, und die jetzige Studie zeigt die „weithin zirkulierende Analyse“, auf die sich Kerr (2007) bezieht. Dieser Bericht untersucht die wahrscheinlichste Erklärung für ein solches Übereinkommen. Sie verwendet veröffentlichte Ergebnisse von einer Vielzahl von Modellsimulationen, um dieses offensichtliche Paradoxon zwischen Klimareaktionen des 20. Jahrhunderts im Modell und verschiedenen Klimamodell-Sensitivitäten zu verstehen.
Allerdings hat Kiehl die Variationen der Sensitivität einem Unterschied im Gesamtantrieb zugeschrieben und nicht einer Trendbeziehung, und als Ergebnis ist seine Graphik der Ergebnisse viel mehr verstreut.
 
Abbildung 5: Kiehl-Ergebnisse, Vergleich der Klimasensitivität ECS mit dem Gesamtantrieb. Man beachte, dass meine Ergebnisse anders als bei Kiehl sowohl die Gleichgewichts-Klimasensitivität (ECS) als auch die kurzlebige Klimareaktion (TCR) abdecken.
Wie auch immer, es gibt noch viel mehr, das ich zu diesem Ergebnis schreiben könnte, aber ich muss mir das jetzt einfach aus dem Kopf schlagen und zur Tagesordnung übergehen. Einen abschließenden Kommentar habe ich noch:
Seit ich mit dieser Untersuchung begonnen habe, hat Kommentator Paul K zwei herausragende Beiträge hierzu auf dem ausgezeichneten Blog von Lucia, The Blackboard (Part 1, Part 2) geschrieben. In diesen Beiträgen beweist er mathematisch, dass mit dem, was wir über die die Modelle reproduzierende Gleichung wissen, nicht… aber lassen wir ihn selbst zu Wort kommen:
Die Frage: Kann man oder kann man nicht die Gleichgewichts-Klimasensitivität (ECS) aus 120 Jahren Temperaturaufzeichnung und OHC-Daten abschätzen, (selbst) wenn man die Antriebe kennt?
Die Antwort lautet: Nein! Man kann nicht! Nicht, solange man nicht andere Informationen verwendet, um die Schätzung zu belegen.

Eine wichtige Folgerung daraus lautet: Die Tatsache, dass ein Klimamodell Temperatur- und Wärmedaten zueinander passend machen kann, sagt uns nichts über die Gültigkeit der Schätzung der Gleichgewichts-Klimasensitivität dieses Klimamodells.

Man beachte, dass dies nicht eine Einzelmeinung von Paul K ist. Es ist ein mathematisches Ergebnis der Tatsache, dass selbst wenn wir ein komplexeres „Zwei Kisten“-Modell benutzen, wir die Sensitivitäts-Schätzungen nicht belegen können. Dies ist eine erstaunliche und weitgehend unbeachtete Schlussfolgerung. Das essentielle Problem besteht darin, dass wir für irgendein gegebenes Klimamodell mehr Unbekannte haben als grundlegende Gleichungen, diese zu belegen.

Schlussfolgerungen
Nun, aus meinen früheren Arbeiten war hervorgegangen, dass die Modelle sowohl für die „Nachher“- als auch für die Vorhersage des Klimas nutzlos sind. Ihre Funktion ist von einer einfachen One-Line-Gleichung ununterscheidbar.
Und nun hat uns Paul K gesagt, dass sie uns nichts über die Sensitivität sagen können, weil die Gleichung selbst nur unzureichend belegt ist.
Schließlich habe ich in dieser Arbeit gezeigt, dass die Klimasensitivität „Lambda“, die die Modelle zur Schau stellen, nichts weiter ist als das Verhältnis der Trends zwischen Input und Output, egal ob sie die Gleichgewichts-Klimasensitivität (ECS) oder kurzlebige Klima-Reaktionen (TCR) repräsentieren. Die Auswahl der Antriebe, Modelle und Datensätze ist ziemlich unerheblich. Alle Modelle zeigen das gleiche Ergebnis für Lambda, und dieses Ergebnis ist das Verhältnis zwischen den Trends des Antriebs und der Reaktion darauf. Dieses jüngste Ergebnis erklärt vollständig die Unfähigkeit der Modellierer, die Bandbreite möglicher Klimasensitivitäten zu verkleinern, trotz dreißig Jahre Modellierungsarbeit.
Ich bin sicher, Sie können daraus eigene Schlussfolgerungen ziehen …
Willis Eschenbach
———————————————————————————-
Hinweis des Übersetzers: Eschenbach fügt hier einige Anhänge bei, die sehr mathematisch sind. Zum Nachrechnen sind diese auch dieser Übersetzung beigefügt, aber nicht übersetzt. Denn erstens würde das den fachlichen Hintergrund des Übersetzers sprengen, und zweitens geht der Übersetzer davon aus, dass Personen, die diese Rechnungen nachvollziehen können, auch des Englischen so mächtig sind, dass sie keine Übersetzung brauchen.
———————————————————————————
Appendix A : The One-Line Equation
The equation that Paul_K, Isaac Held, and I have used to replicate the climate models is as follows:

Let me break this into four chunks, separated by the equals sign and the plus signs, and translate each chunk from math into English. Equation 1 means:
This year’s temperature (T1) is equal to
Last years temperature (T0) plus
Climate sensitivity (λ) times this year’s forcing change (∆F1) times (one minus the lag factor) (1-a) plus
Last year’s temperature change (∆T0) times the same lag factor (a)
Or to put it another way, it looks like this:
T1 =                      <—  This year’s temperature [ T1 ] equals
    T0 +                  <—  Last year’s temperature [ T0 ] plus
    λ  ∆F1  (1-a) +    <— How much radiative forcing is applied this year [ ∆F1 (1-a) ],  times climate sensitivity lambda ( λ ), plus
    ∆T0  a                 <— The remainder of the forcing, lagged out over time as specified by the lag factor “a
The lag factor “a” is a function of the time constant “tau” ( τ ), and is given by

This factor “a” is just a constant number for a given calculation. For example, when the time constant “tau” is four years, the constant “a” is 0.78. Since 1 – a = 0.22, when tau is four years, about 22% of the incoming forcing is added immediately to last years temperature, and rest of the input pulse is expressed over time.
Appendix B: Physical Meaning
So what does all of that mean in the real world? The equation merely reflects that when you apply heat to something big, it takes a while for it to come up to temperature. For example, suppose we have a big brick in a domestic oven at say 200°C. Suppose further that we turn the oven heat up suddenly to 400° C for an hour, and then turn the oven back down to 200°C. What happens to the temperature of the big block of steel?
If we plot temperature against time, we see that initially the block of steel starts to heat fairly rapidly. However as time goes on it heats less and less per unit of time until eventually it reaches 400°C. Figure B2 shows this change of temperature with time, as simulated in my spreadsheet for a climate forcing of plus/minus one watt/square metre. Now, how big is the lag? Well, in part that depends on how big the brick is. The larger the brick, the longer the time lag will be. In the real planet, of course, the ocean plays the part of the brick, soaking up
The basic idea of the one-line equation is the same tired claim of the modelers. This is the claim that the changing temperature of the surface of the planet is linearly dependent on the size of the change in the forcing. I happen to think that this is only generally the rule, and that the temperature is actually set by the exceptions to the rule. The exceptions to this rule are the emergent phenomena of the climate—thunderstorms, El Niño/La Niña effects and the like. But I digress, let’s follow their claim for the sake of argument and see what their models have to say. It turns out that the results of the climate models can be described to 99% accuracy by the setting of two parameters—”tau”,  or the time constant, and “lambda”, or the climate sensitivity. Lambda can represent either transient sensitivity, called TCR for “transient climate response”, or equilibrium sensitivity, called ECS for “equilibrium climate sensitivity”.

Figure B2. One-line equation applied to a square-wave pulse of forcing. In this example, the sensitivity “lambda” is set to unity (output amplitude equals the input amplitude), and the time constant “tau” is set at five years.
Note that the lagging does not change the amount of energy in the forcing pulse. It merely lags it, so that it doesn’t appear until a later date.
So that is all the one-line equation is doing. It simply applies the given forcing, using the climate sensitivity to determine the amount of the temperature change, and using the time constant “tau” to determine the lag of the temperature change. That’s it. That’s all.
The difference between ECS (climate sensitivity) and TCR (transient response) is whether slow heating and cooling of the ocean is taken into account in the calculations. If the slow heating and cooling of the ocean is taken into account, then lambda is equilibrium climate sensitivity. If  the ocean doesn’t enter into the calculations, if the forcing is only the radiative forcing, then lambda is transient climate response.
Appendix C. The Spreadsheet
In order to be able to easily compare the various forcings and responses, I made myself up an Excel spreadsheet. It has a couple drop-down lists that let me select from various forcing datasets and various response datasets. Then I use the built-in Excel function “Solver” to iteratively calculate the best combination of the two parameters, sensitivity and time constant, so that the result matches the response. This makes it quite simple to experiment with various combinations of forcing and responses. You can see the difference, for example, between the GISS E model with and without volcanoes. It also has a button which automatically stores the current set of results in a dataset which is slowly expanding as I do more experiments.
In a previous post called Retroactive Volcanoes, (link) I had discussed the fact that Otto et al. had smoothed the Forster forcings dataset using a centered three point average. In addition they had added a trend fromthe beginning tothe end of the dataset of 0.3 W per square meter. In that post I had I had said that the effect of that was unknown, although it might be large. My new spreadsheet allows me to actually determine what the effect of that actually is.
It turns out that the effect of those two small changes is to take the indicated climate sensitivity from 2.8 degrees/doubling to 2.3° per doubling.
One of the strangest findings to come out of this spreadsheet was that when the climate models are compared each to their own results, the climate sensitivity is a simple linear function of the ratio of the trends of the forcing and the response. This was true of both the individual models, and the average of the 19 models studied by Forster. The relationship is extremely simple. The climate sensitivity lambda is 1.07 times the ratio of the trends for the models alone, and equal to the trends when compared to all the results. This is true for  all of the models without adding in the ocean heat content data, and also all of the models including the ocean heat content data.
In any case I’m going to have to convert all this to the computer language R. Thanks to Stephen McIntyre, I learned the computer language R and have never regretted it. However, I still do much of my initial exploratory forays in Excel. I can make Excel do just about anything, so for quick and dirty analyses like the results above I use Excel.
So as an invitation to people to continue and expand this analysis, my spreadsheet is available here. Note that it contains a macro to record the data from a given analysis. At present it contains the following data sets:
IMPULSES
Pinatubo in 1900
Step Change
Pulse
FORCINGS
Forster No Volcano
Forster N/V-Ocean
Otto Forcing
Otto-Ocean ∆
Levitus watts Ocean Heat Content ∆
GISS Forcing
GISS-Ocean ∆
Forster Forcing
Forster-Ocean ∆
DVIS
CM2.1 Forcing
CM2.1-Ocean ∆
GISS No Volcano
GISS GHGs
GISS Ozone
GISS Strat_H20
GISS Solar
GISS Landuse
GISS Snow Albedo
GISS Volcano
GISS Black Carb
GISS Refl Aer
GISS Aer Indir Eff
RESPONSES
CCSM3 Model Temp
CM2.1 Model Temp
GISSE ModelE Temp
BEST Temp
Forster Model Temps
Forster Model Temps No Volc
Flat
GISS Temp
HadCRUT4
You can insert your own data as well or makeup combinations of any of the forcings. I’ve included a variety of forcings and responses. This one-line equation model has forcing datasets, subsets of those such as volcanoes only or aerosols only, and the simple impulses such as a square step.
Now, while this spreadsheet is by no means user-friendly, I’ve tried to make it at least not user-aggressive.
Appendix D: The Mathematical Derivation of the Relationship between Climate Sensitivity and the Trend Ratio.
I have stated that the relationship where climate sensitivity is equal to the ratio between trends of the forcing and response datasets.
We start with the one-line equation:

Let us consider the situation of a linear trend in the forcing, where the forcing is ramped up by a certain amount every year. Here are lagged results from that kind of forcing.

Figure B1. A steady increase in forcing over time (red line), along with the situation with the time constant (tau) equal to zero, and also a time constant of 20 years. The residual is offset -0.6 degrees for clarity.
Note that the only difference that tau (the lag time constant) makes is how long it takes to come to equilibrium. After that the results stabilize, with the same change each year in both the forcing and the temperature (∆F and ∆T). So let’s consider that equilibrium situation.
Subtracting T0 from both sides gives

Now, T1 minus T0 is simply ∆T1. But since at equilibrium all the annual temperature changes are the same, ∆T1 = ∆T0 = ∆T, and the same is true for the forcing. So equation 2 simplifies to

Dividing by ∆F gives us

Collecting terms, we get

And dividing through by (1-a) yields

Now, out in the equilibrium area on the right side of Figure B1, ∆T/∆F is the actual trend ratio. So we have shown that at equilibrium

But if we include the entire dataset, you’ll see from Figure B1 that the measured trend will be slightly less than the trend at equilibrium.
And as a result, we would expect to find that lambda is slightly larger than the actual trend ratio. And indeed, this is what we found for the models when compared to their own results, lambda = 1.07 times the trend ratio.
When the forcings are run against real datasets, however, it appears that the greater variability of the actual temperature datasets averages out the small effect of tau on the results, and on average we end up with the situation shown in Figure 4 above, where lambda is experimentally determined to be equal to the trend ratio.
Appendix E: The Underlying Math
The best explanation of the derivation of the math used in the spreadsheet is an appendix to Paul_K’s post here. Paul has contributed hugely to my analysis by correcting my mistakes as I revealed them, and has my great thanks.
Climate Modeling – Abstracting the Input Signal by Paul_K
I will start with the (linear) feedback equation applied to a single capacity system—essentially the mixed layer plus fast-connected capacity:
C dT/dt = F(t) – λ *T                                                            Equ.  A1
Where:-
C is the heat capacity of the mixed layer plus fast-connected capacity (Watt-years.m-2.degK-1)
T is the change in temperature from time zero  (degrees K)
T(k) is the change in temperature from time zero to the end of the kth year
t is time  (years)
F(t) is the cumulative radiative and non-radiative flux “forcing” applied to the single capacity system  (Watts.m-2)
λ  is the first order feedback parameter (Watts.m-2.deg K-1)
We can solve Equ A1 using superposition.  I am going to use  timesteps of one year.
Let the forcing increment applicable to the jth year be defined as fj.   We can therefore write
F(t=k )  = Fk =  Σ fj       for j = 1 to k                                Equ. A2
The temperature contribution from the forcing increment fj at the end of the kth
year is given by
ΔTj(t=k) =  fj(1 – exp(-(k+1-j)/τ))/λ                                                     Equ.A3
where τ is set equal to C/λ   .
By superposition, the total temperature change at time t=k is given by the summation of all such forcing increments.  Thus
T(t=k) = Σ fj * (1 – exp(-(k+1-j)/τ))/ λ     for j = 1 to k                                   Equ.A4
Similarly, the total temperature change at time t= k-1 is given by
T(t=k-1) =  Σ fj (1 – exp(-(k-j)/τ))/ λ         for j = 1 to k-1                               Equ.A5
Subtracting Equ. A4 from Equ. A5 we obtain:
T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    +  ( [1 – exp(-1/τ)]/λ ) (Σfj*exp(-(k-j)/τ) for j = 1 to k-1)     …Equ.A6
We note from Equ.A5 that
(Σfj*exp(-(k-j)/τ)/λ for j = 1 to k-1)  =  ( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)
Making this substitution, Equ.A6 then becomes:
T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    + [1 – exp(-1/τ)]*[( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)]      …Equ.A7
If we now set α = 1-exp(-1/τ) and make use of Equ.A2, we can rewrite Equ A7 in the following simple form:
T(k) – T(k-1) = Fkα /λ   – α * T(k-1)                                          Equ.A8
Equ.A8 can be used for prediction of temperature from a known cumulative forcing series, or can be readily used to determine the cumulative forcing series from a known temperature dataset.  From the cumulative forcing series, it is a trivial step to abstract the annual incremental forcing data by difference.
For the values of α and λ, I am going to use values which are conditioned to the same response sensitivity of temperature to flux changes as  the GISS-ER Global Circulation Model (GCM).
These values are:-
α  = 0.279563
λ    = 2.94775
Shown below is a plot confirming that  Equ. A8 with these values of alpha and lamda can reproduce the GISS-ER model results with good accuracy.  The correlation is >0.99.

This same governing equation has been applied to at least two other GCMs ( CCSM3 and GFDL ) and, with similar parameter values, works equally well to emulate those model results. While changing the parameter values modifies slightly the values of the fluxes calculated from temperature , it does not significantly change the structural form of the input signal, and nor can it change the primary conclusion of this article, which is that the AGW signal cannot be reliably extracted from the temperature series.
Equally, substituting a more generalised non-linear form for Equ A1 does not change the results at all, provided that the parameters chosen for the non-linear form are selected to show the same sensitivity over the actual observed temperature range. (See here for proof.)
Link: http://wattsupwiththat.com/2013/06/03/climate-sensitivity-deconstructed/




Warum die Daten einer Reanalyse keine Daten sind.


Original-Bildunterschrift: Abbildung 1: OHC integriert von 0 bis 300 m (grau), 700 m (blau) und Gesamttiefe (violett) von ORAS4, repräsentiert von seinen 5 Ensemble-Gliedern. Die Zeitreihen zeigen monatliche Anomalien, geglättet mit einem über 12 Monate gleitenden Mittel mit Berücksichtigung der Basisperiode 1958 bis 1965. Die Schraffierung geht über die Bandbreite der Ensemble-Glieder hinaus, so dass der Spread eine Angabe hinsichtlich der Ungenauigkeit von ORAS4 ist (der nicht alle Quellen von Unsicherheit abdeckt). Die vertikalen farbigen Balken zeigen ein zweijähriges Intervall, die den Vulkanausbrüchen 6 Monate zuvor folgen (wegen des 12-monatigen gleitenden Mittels) sowie dem El Niño-Ereignis von 1997/98, ebenfalls mit 6 Monaten auf beiden Seiten. Unten rechts wird die lineare Steigung eines Satzes globaler Erwärmungsraten in W/m² gezeigt.
Ich habe mir das angeschaut und gesagt „Waaas???“ Ich habe noch nie derartige vulkanische Signale in den Daten des ozeanischen Wärmegehalts gesehen. Was war mir entgangen?
Nun, mir war entgangen, dass Trenberth et al. etwas benutzen, was sie lächerlicherweise „Reanalyse-Daten“ nennen. Aber wie die Überschrift schon zeigt, Reanalyse-„Daten“ sind keinerlei Daten im Wortsinne. Es handelt sich dabei um das Ergebnis eines Computer-Klimamodells, die als Daten verkleidet werden.
Nun ist der grundlegende Gedanke einer „Reanalyse“ kein schlechter Gedanke. Wenn man Daten mit „Lücken“ darin hat, oder wenn Informationen aus bestimmten Zeiten und/oder an bestimmten Orten fehlen, kann man eine Art „Best Guess“-Algorithmus benutzen, um die Lücken zu füllen. Im Bergbau ist diese Prozedur allgemein üblich. Man hat Einzel-Punkttdaten darüber, was im Untergrund los ist. Also verwendet man eine Kriging-Prozedur mit allen verfügbaren Informationen, und man bekommt den Best Guess [= beste Abschätzung?] darüber, was in den datenfreien Lücken passiert. (Man beachte jedoch: wenn man behauptet, dass die Ergebnisse des Kriging-Modells reale Beobachtungen sind; wenn man sagt dass die Ergebnisse des Kriging-Prozesses „Daten“ sind, kann man wegen Fehlinterpretation ins Gefängnis wandern … aber ich schweife ab, das ist die reale Welt und das ist Klima-„Wissenschaft“ in reinster Form).
Die Probleme tauchen auf, sobald man anfängt, immer komplexere Prozeduren durchzuführen, um die Lücken in den Daten zu füllen. Kriging ist reine Mathematik, und man erhält Fehlerbereiche um die Schätzungen. Aber ein globales Klimamodell ist ein horrend komplexes Erzeugnis und gibt überhaupt keine Fehlerschätzung irgendwelcher Art.
Nun, worauf Steven Mosher mit Stolz hinweist, es sind alles Modelle. Selbst so etwas Einfaches wie
Kraft = Masse mal Beschleunigung
ist ein Modell. In dieser Hinsicht hat Mosher also recht.
Das Problem ist, das es solche und solche Modelle gibt. Einige Modelle wie das Kriging sind gut verstanden und verhalten sich wie erwartet. Wir haben das „Kriging“ genannte Modell analysiert und getestet, bis zu dem Punkt, an dem wir seine Stärken und Schwächen verstanden haben, und wir können es mit vollem Vertrauen verwenden.
Dann gibt es noch eine andere Modellklasse mit sehr unterschiedlichen Charakteristiken. Diese nennt man „iterative“ Modelle. Sie unterscheiden sich von Modellen wie Kriging oder F = M x A, weil sie bei jedem Zeitschritt das vorhergehende Modellergebnis als neue Eingangsgröße für das Modell verwenden. Klimamodelle sind iterative Modelle. Ein Klimamodell beispielsweise beginnt mit dem gegenwärtigen Wetter und sagt voraus, wohin sich das Wetter beim nächsten Zeitschritt entwickeln wird (normalerweise eine halbe Stunde).
Dann wird dieses Ergebnis, die Vorhersage für eine halbe Stunde von jetzt an, als Eingangsgröße für das Klimamodell verwendet, und die nächste halbe Stunde wird berechnet. Man mache das 9000 mal, und man hat ein Jahr Wetter simuliert … waschen, spülen und genügend oft wiederholen, und – voila! Jetzt hat man das Wetter vorhergesagt, von halber Stunde zu halber Stunde, die ganze Zeit bis zum Jahr 2100.
Es gibt zwei sehr, sehr große Probleme bei iterativen Modellen. Der erste ist, dass Fehler dazu tendieren, sich zu akkumulieren. Falls man eine halbe Stunde auch nur ein wenig ungenau berechnet, beginnt die nächste halbe Stunde mit schlechten Daten, so dass die Ergebnisse noch stärker abweichen; und so weiter, bis das Modell vollständig von der Rolle ist. Abbildung 2 zeigt eine Anzahl von Modellläufen des Klimavorhersage-Klimamodells…
 
Abbildung 2: Simulationen von www.climateprediction.net. Man beachte, dass eine signifikante Anzahl von Modellläufen weit unter die Eiszeit-Temperaturen zurück gehen… schlechtes Modell, keine Cookies!
Sehen Sie, wie viele der Modellläufe von der Rolle springen und entweder in eine Schneeball-Erde münden oder Temperaturen der Stratosphäre anzeigen? Das ist das Problem der akkumulierten Fehler in Reinform.
Das zweite Problem mit iterativen Modellen besteht darin, dass wir oftmals keine Ahnung haben, wie das Modell zu seiner Antwort gekommen ist. Ein Klimamodell ist so komplex und wird so oft wiederholt, dass die internen Prozesse des Modells oftmals total undurchsichtig sind. Man stelle sich vor, dass man als Ergebnis von drei verschiedenen Modellläufen drei sehr verschiedene Antworten erhält. Wir haben keinerlei Handhabe zu sagen, dass die eine Lösung wahrscheinlicher ist als die andere … außer der einen versuchten und echten Methode, die oft in der Klimawissenschaft verwendet wird, nämlich:
Wenn die Ergebnisse unseren Erwartungen entsprechen, handelt es sich um einen guten, brauchbaren, soliden Goldmodell-Lauf. Und wenn es den Erwartungen nicht entspricht, können wir es offensichtlich mit Sicherheit ignorieren.
Wie viele „schlechte” Reanalyse-Läufe enden also im Abfalleimer, weil der Modellierer das Ergebnis nicht mag? Viele, sehr viele, aber niemand weiß wie viele.
Damit als Einführung schauen wir jetzt auf die Reanalyse-„Daten“ von Trenberth, die natürlich alles andere als Daten sind … Abbildung 3 vergleicht die ORAS4-Reanalyse-Modellergebnisse mit den Levitus-Daten [?]:

Abbildung 3: ORAS4-Reanalyse-Ergebnisse für die Schicht zwischen 0 und 2000 m (blau) im Vergleich zu den Levitus-Daten für die gleiche Schicht. Die ORAS4-Ergebnisse wurden aus Abbildung 1 digitalisiert. Man beachte, dass die OSAR4-„Daten“ vor etwa dem Jahr 1980 Fehlerbalken vom Boden bis zur Decke haben und daher wenig brauchbar sind (siehe Abbildung 1). Die Daten sind an ihren Startpunkt 1958 angeglichen (1958 = 0)
In Abbildung 3 treten die Schwächen des Reanalyse-Modells klar hervor. Die Computermodelle sagen einen großen Rückgang des OHC durch Vulkane voraus… was offensichtlich nicht geschehen ist. Aber anstatt diese Realität keiner OHC-Änderung nach den Ausbrüchen einzubringen, hat sich das Reanalyse-Modell die Daten einfach zurecht gebogen, so dass es nun den vermeintlichen Rückgang nach den Eruptionen zeigen konnte.
Und das ist das zugrunde liegende Problem, wenn man Reanalyse-Daten wie reale Daten behandelt – sie sind nichts dergleichen. Alles, was das Reanalyse-Modell tut ist, den effektivsten Weg zu finden, die Daten so zu verändern, dass sie den Phantasien, den Vorerwartungen und den Fehlern der Modellierer entsprechen. Hier möchte ich noch einmal den Plot zeigen, den ich schon in meinem vorigen Beitrag gezeigt habe. Dieser zeigt alle Arten der verschiedenen Messungen der Ozeantemperatur, von der Oberfläche bis hinab zu den tiefsten Tiefen, die wir extensiv vermessen haben, zwei Kilometer tief.


Abbildung 4: Messungen der ozeanischen Temperaturen. Es gibt zwei Messungen an der Oberfläche, nämlich von ERSST und ICOADS, zusammen mit individuellen Schicht-Messungen für drei separate Schichten von Levitus. ACHTUNG! Abbildung 4 ist aktualisiert worden, nachdem Bob Tisdale darauf hingewiesen hatte, dass ich aus Versehen geglättete Daten für die Oberflächentemperaturen verwendet hatte.
Was mich angeht – jeder, der Abbildung 4 betrachtet und dann behauptet, dass man die Auswirkungen der Eruptionen des Pinatubo und des El Chichon sowie des Agung in diesen tatsächlichen Daten erkennen kann, halluziniert. Es gibt keinen sichtbaren Effekt. Ja, es gibt einen Rückgang der SST im Jahr nach Pinatubo … aber die voran gegangenen beiden Rückgänge waren größer, und es gibt keinen Rückgang im Jahr nach El Chichon oder Agung. Außerdem waren die Temperaturen in den beiden Jahren vor Pinatubo stärker gestiegen als sie danach zurückgegangen sind. Nimmt man all das zusammen, sagt es mir, dass es nicht einmal den Hauch einer Chance gibt, dass Pinatubo einen kleinen Rückgang nach sich gezogen hätte.
Aber die armen Klimamodellierer sind gefangen. Die einzige Möglichkeit, dass sie behaupten können CO2 werde zum befürchteten Thermageddon besteht darin, die Klimasensitivität sehr hoch anzusetzen.
Das Problem ist Folgendes: wenn die Modellierer eine sehr hohe Sensitivität ansetzen wie 3°C pro Verdoppelung des CO2-Gehaltes, führt das zu einer starken Überschätzung der Auswirkungen durch Vulkanausbrüche. Man kann dies eindeutig in Abbildung 3 erkennen, die die Reanalyse-Modellergebnisse zeigt, die Trenberth trügerisch „Daten“ nennt. Verwendet man das berühmte Bett des Procustes [?] als das zugehörige Beispiel, hat das Modell einfach die realen Daten modifiziert und angepasst, um den Phantasien der Modellierer hinsichtlich einer hohen Klima-Sensitivität gerecht zu werden. Kurz gesagt, das Reanalyse-Modell hat die realen Daten einfach so lange vermischt, bis sie die starken Rückgänge nach den Ausbrüchen zeigen … und das soll Wissenschaft sein?
Aber bedeutet das jetzt, dass alle Reanalyse-„Daten“ Schwindel sind?
Nun, das wirkliche Problem ist, dass wir auf diese Frage die Antwort nicht kennen. Die Schwierigkeit ist, dass es wahrscheinlich erscheint, dass einige der Reanalyse-Ergebnisse gut sind und andere nutzlos, aber im Allgemeinen haben wir keine Möglichkeit, zwischen den beiden zu unterscheiden. Dieser Fall von Levitus et al. ist eine Ausnahme, weil die Vulkane das Problem haben hervor treten lassen. Aber in vielen Anwendungen von Reanalyse-„Daten“ gibt es keine Möglichkeit zu erkennen, ob sie gültig sind oder nicht.
Und wie Trenberth et al. bewiesen haben, können wir uns definitiv nicht von Wissenschaftlern abhängig machen, die die Reanalyse-„Daten“ verwenden, um auch nur den Hauch einer Andeutung einer Untersuchung zu machen, ob sie gültig sind oder nicht …
(Übrigens, lassen Sie mich einen Grund nennen, warum Klimamodelle sich mit Reanalysen schwertun – die Natur weist allgemein Ecken und Kanten auf, während die Klimamodelle allgemein Glättungsverfahren durchführen. Ich habe einen großen Teil meines Lebens auf dem Ozean verbracht. Ich kann versichern, dass man selbst mitten auf dem Ozean oft eine ausgeprägte Linie zwischen zwei verschiedenen Wasserarten erkennt, wobei die eine signifikant wärmer ist als die andere. Wolken haben ausgeprägte Kanten, und sie bilden sich und vergehen wieder ohne viel „dazwischen“. Der Computer ist nicht sehr gut in der Verarbeitung dieses Ecken-und-Kanten-Zeugs. Wenn man es dem Computer überlässt, die Lücke zwischen zwei Beobachtungen zu füllen, sagen wir 10°C und 15°C, kann der Computer das perfekt – wird es aber generell graduell und glatt machen, also 10, 11, 12, 13, 14, 15.
Aber wenn die Natur diese Lücke füllt, ist es viel wahrscheinlicher, dass es so aussieht: 10, 10, 10, 14, 15, 15 … die Natur macht zumeist nichts „graduell“. Aber ich schweife ab…)
Heißt das, dass wir niemals Reanalysen benutzen sollten? Nein, keinesfalls. Kriging ist ein exzellentes Beispiel eines Typs von Reanalyse, der wirklich wertvoll ist.
Was diese Ergebnisse wirklich bedeuten: Wir sollten aufhören, die Ergebnisse von Reanalyse-Modellen „Daten“ zu nennen, und wir sollten DIE REANALYSE-MODELLERGEBNISSE EXTENSIV TESTEN, bevor wir sie verwenden. [Blockschrift im Original]
Diese Ergebnisse bedeuten auch, dass man extrem vorsichtig sein sollte, wenn Reanalyse-„Daten“ als Eingabegrößen für ein Klimamodell verwendet werden. Wenn man das tut, benutzt man die Ergebnisse eines Klimamodells als Eingabegrößen für ein anderes Klimamodell … was allgemein eine Very Bad Idea™ aus einer ganzen Reihe von Gründen ist.
Außerdem sollte man in allen Fällen, in denen man Reanalyse-Ergebnisse verwendet, genau die gleiche Analyse unter Verwendung der realen Daten durchführen. Das habe ich in Abbildung 3 oben getan. Hätten Trenberth et al. diese Graphik zusammen mit ihren Ergebnissen gezeigt … nun … falls sie das getan hätten, wäre ihre Studie wahrscheinlich überhaupt nicht veröffentlicht worden.
Was vielleicht der Grund gewesen sein könnte oder auch nicht, diese vergleichende Analyse nicht zu präsentieren, und warum sie versucht haben zu behaupten, dass die Ergebnisse von Computer-Modellen „Daten“ sind…
Willis Eschenbach
Anmerkung: Die Studie von Trenberth et al. identifiziert als tiefste Schicht als von der Oberfläche bis in die „totale Tiefe“ reichend. Allerdings zeigt die Reanalyse keinerlei Änderungen unter 2000 m, so dass dies ihre „totale Tiefe“ ist.
DATEN:
The data is from NOAA , except the ERSST and HadISST data, which are from KNMI.
The NOAA ocean depth data is here.
The R code to extract and calculate the volumes for the various Levitus layers is here.
Link: http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/
Übersetzt von Chris Frey EIKE




Gefälschte Ergebnisse bei Untersuchungen des Proxys „Schichtdicke“

Ihre Behauptung aus dem Abstract lautet folgendermaßen:
Mittels einer hierarchischen Bayesianischen Analyse [?] von Thermometerablesungen, Baumringen, Eisbohrkernen und Sedimenten aus Seen zeigen wir hier, das Magnitude und Frequenz jüngster Warm-Extreme der Temperatur in hohen nördlichen Breiten während der letzten 600 Jahre ohne Beispiel sind. Die Sommer der Jahre 2005, 2007, 2010 und 2011 waren wärmer als alle Sommer zuvor bis zum Jahr 1400 (Waharscheinlichkeit P > 0,95), jedenfalls im Flächenmittel. Der Sommer 2010 war der wärmste Sommer der letzten 600 Jahre in Westrussland (P >0,99) und möglicherweise der wärmste in Westgrönland und der kanadischen Arktis (P > 0,90). Diese und andere Extreme aus jüngster Zeit liegen deutlich weit oberhalb der in einem stationären Klima zu erwartenden Extreme, können aber verstanden werden als resultierend aus konstanter Raum-Zeit-Variabilität über eine gestiegene Mitteltemperatur.
[Der letzte Satz lautet im Original: probably the warmest in western Greenland and the Canadian Arctic as well (P > 0.90). These and other recent extremes greatly exceed those expected from a stationary climate, but can be understood as resulting from constant space–time variability about an increased mean temperature.]
Inzwischen hat Steve McIntyre bei ClimateAudit einige liebenswerte Probleme in ihren Behauptungen gefunden. Ich überlegte mir, einmal einen Blick auf ihre Aufzeichnungen aus Sedimenten in Seen zu werfen. Die Rohdaten vor jedweder Analyse sehen so aus:


Abbildung 1: alle Schichtdicken-Aufzeichnungen aus TH2013. Die Einheiten wechseln und sind so wie vom Original-Forscher berichtet.
Was also stimmt hier nicht? Nun, eine ganze Menge!
Zu Beginn ist da die infame Korttajarvi-Aufzeichnung. Eine gute Beschreibung hiervon gibt Steve McIntyre:
In Übereinstimmung mit der totalen und vollständigen Sturheit der Paläoklima-Gemeinschaft verwenden sie die berühmteste Reihe von Mann et al. 2008: die kontaminierten Korttajarvi-Sedimente. Die Probleme dieser Reihe sind in Skeptiker-Blogs nur allzu bekannt, und Ross und ich haben darüber in einem Kommentar bei PNAS berichtet. Die Original-Autorin, Mia Tiljander, warnte vor der Verwendung des jüngsten Teils dieser Daten, waren doch die Sedimente durch modernen Brückenbau und die Landwirtschaft kontaminiert worden. Obwohl die Schwächen dieser Reihe als Proxy Lesern „skeptischer“ Blogs gut bekannt sind, haben die Begutachter bei Nature offenbar keine Einwände gegen die Berücksichtigung dieses Proxy für eine Temperaturrekonstruktion gehabt.
Hier möchte ich einen Moment innehalten und über Proxies aus Seen sprechen. Auf dem Grund nahezu jeden Sees wird in jedem Jahr eine neue Sedimentschicht abgelegt. Dieses Sediment enthält einen sehr informativen Mix von allem, was jemals während eines bestimmten Jahres in den See gespült worden ist. Man kann Änderungen der lokalen Vegetation beispielsweise durch Pflanzenpollen identifizieren, die als Teil des Sediments abgelagert worden sind. Es gibt eine Menge Informationen, die man aus dem Schlamm am Seegrund gewinnen kann.
Eine Informationsquelle, die wir betrachten können, ist die Rate, mit der sich das Sediment akkumuliert. Das nennt man „Schichtdicke“ [varve thickness], wobei eine „Schicht“ [varve] ein Paar dünner Schichten in dem Sediment bedeutet, eine für Sommer und eine für Winter, die zusammen ein einzelnes Jahres-Sediment ausmachen. Offensichtlich kann diese Dicke ziemlich variieren. Und in einigen Fällen ist es in gewisser Weise mit der Temperatur korreliert.
Allerdings unterscheiden sich See-Proxies in einem entscheidenden Punkt von Proxies aus Eisbohrkernen. Die täglichen Aktivitäten der Menschen ändern nicht die Dicke der Eisschichten, die sich jedes Jahr bilden. Aber alles vom Straßenbau bis zu Änderungen der landwirtschaftlichen Methoden kann die Sediment-Menge in lokalen Gewässern radikal verändern. Und genau das ist das Problem bei Korttajarvi.
Zusätzlich können auch Änderungen der natürlichen Landschaft das Sediment-Niveau verändern. Viele Dinge, vom Verbrennen lokaler Vegetation über Insektenvernichtung bis hin zu Änderungen des lokalen Wasserabflusses können die Sediment-Ablagerungen in einem bestimmten Teil eines bestimmten Sees verändern.
Man betrachte hierzu beispielsweise die Soper-Daten in Abbildung 1. Mehr als offensichtlich werden einige signifikante Änderungen während der ersten Hälfte des 20. Jahrhunderts  erkennbar. Nach vier Jahrhunderten eines bestimmten Regimes ist etwas geschehen. Wir wissen nicht was, aber es erscheint zweifelhaft, dass eine graduelle Temperaturänderung eine so plötzliche Änderung der abgelagerten Sedimentmenge in Kombination mit einer Änderung der Variabilität ausgelöst haben kann.
An genau dieser Stelle möchte ich innehalten und betonen, dass allein die Erwähnung dieses Proxys, wenn man die offensichtliche Unsinnigkeit ignoriert, auch Korttajarvi zu betrachten, ausreicht, die ganze Studie total zu disqualifizieren. Es gibt keinerlei Rechtfertigung für die Behauptung, dass diese Änderungen mit der Temperatur zusammenhängen. Ja, ich weiß, später in der Studie wird darauf noch eingegangen, aber bleiben wir realistisch: Dies ist keine Repräsentation der Temperatur.
Aber Korttajarvi und Soper sind nicht das einzige Problem. Man betrachte Iceberg, drei separate Aufzeichnungen. Es ist wie eine zweitrangige Quizfrage: „Welcher dieser drei Aufzeichnungen ist anders als die beiden anderen?“ Wie kann man so etwas nur als stichhaltige Proxy betrachten?
Wohin führt die Betrachtung all diesen Mülls? Die Autoren erklären es so:
Alle Schichtdicken-Aufzeichnungen, die öffentlich beim Paleolimnology Data Archive der NOAA öffentlich zugänglich sind (Stand Januar 2012) werden betrachtet unter der Voraussetzung, dass sie folgenden Kriterien genügen:
• sie reichen mindestens 200 Jahre zurück,
• sie zeigen eine jährliche Auflösung
• sie werden in Längeneinheiten dargestellt
• die Original-Veröffentlichungen oder andere Referenzen sprechen für eine positive Verbindung mit der Sommertemperatur.
Nun, das klingt alles sehr gut, aber diese Kerle sind so klassisch … man betrachte den Devon Lake in Abbildung 1, es ist DV09. Sehen Sie, wie weit diese Reihe zurück reicht? Bis 1843, also bis vor 170 Jahren … so viel zu ihrem 200-Jahres-Kriterium.
Wollen Sie den spaßigen Teil erfahren? Fast hätte ich es übersehen, aber als ich die Kriterien gelesen habe dachte ich „warum gerade 200 Jahre?“ Das schien mir eine Besonderheit zu sein, also betrachtete ich sehr genau die einzige Reihe, auf die es passte, und … nanu? Das sieht nicht wie 200 Jahre aus. Also untersuchte ich die Daten hier … 1843, nicht vor 200, sondern vor 170 Jahren.
Mann, je mehr ich schaue, umso mehr finde ich. In dieser Hinsicht haben Sawtooth und Murray wenige kurze separate Abschnitte zum Ende ihrer Hauptdaten. Vielleicht ist es Zufall, aber beide werden den wie auch immer gefälschten Hockeyschläger von Korttajarvi und Soper stützen.
Soviel also zum ersten Blick auf die Rohdaten. Jetzt wollen wir betrachten, was sie tatsächlich mit diesen Daten machen. Aus der Studie:
Wie allgemein üblich werden die Schichtdicken vor der Analyse logarithmisch transformiert, was zu Verteilungen führt, die normalverteilter sind und mit der Hypothese in Einklang stehen, die unsere Analyse charakterisiert (siehe folgenden Abschnitt).
Ich kann mich mit dieser Transformation nicht ganz abfinden. Ich verstehe die zugrunde liegende Rechtfertigung oder Logik nicht, das zu tun. Falls die Schichtdicke in irgendeiner Weise proportional zur Temperatur ist, und das kann gut sein, warum sollte sie proportional zum Logarithmus der Dicke sein?
Wie auch immer, schauen wir, über wie viel „normalverteilter“ wir reden. Hier folgen die Verteilungen der gleichen Aufzeichnungen nach der Log-Transformation [?] und Standardisierung. Ich habe einen „Violin-Plot“ verwendet, um das Aussehen der Verteilung zu untersuchen. Die Entfernung an irgendeinem Punkt steht für die geglättete Zahl der Datenpunkte um diesen Wert. Der weiße Punkt zeigt den Medianwert der Daten. Der schwarze Kasten zeigt die interquartile Bandbreite, die die Hälfte der Daten enthält. Die vertikalen „Schnurrhaare“ [whiskers] erstrecken sich 1,5 mal so weit wie die interquartile Distanz an der Ober- bzw. der Unterseite des Kastens.


Abbildung 2: Violin-Plots der Daten aus Abbildung 1, aber nach der Log-Transformation und Standardisierung. Die Randwert-Normalverteilung unten rechts dient Vergleichszwecken.
Man beachte die sehr großen Unterschiede zwischen den verschiedenen Datensätzen der Schichtdicke. Man kann die Probleme beim Soper-Datensatz erkennen. Einige Datensätze sind nach der Log-Transformation ziemlich normalverteilt, wie Big Round und Donard. Andere wie DV09 und Soper sind selbst nach der Transformation noch weit von der Normalverteilung entfernt. Viele von ihnen sind stark asymmetrisch mit Ausreißern von vier Standardabweichungen, die in positiver Richtung allgemein sind. Im Gegensatz dazu variieren sie nur halb so stark in negativer Richtung, zwei Standardabweichungen. Und wenn man sie mit einschließt, beeinflussen die Unterschiede, mit denen sie aus dem Normalzustand schwingen (die positiven Ausreißer übertreffen die negativen bei Weitem), sowohl die Ergebnisse als auch deren Unsicherheiten.
In jedem Falle sind die Datensätze nach der Log-Transformation und Standardisierung zu einem Mittel von Null und einer Standardabweichung von eins in Abbildung 3 gezeigt:
 
Abbildung 3: Schichtdicken-Aufzeichnungen nach Log-Transformation und Standardisierung.
Wie man sieht, ändert die Log-Transformation nichts an den Problemen von z. B. Soper oder Iceberg. Sie sind immer noch nicht intern konsistent. Als Ergebnis der Mitbetrachtung dieser problematischen Reihen, die allesamt sichtbare Unregelmäßigkeiten in den jüngsten Daten enthalten, zeigt selbst ein einfacher Mittelwert einen vollkommen gefälschten Hockeyschläger.
Tatsächlich zeigt das Mittel die typische Form für diese Art gefälschten Hockeyschläger. Im „Schaft“ des Hockeyschlägers scheinen sich die Rand-Variationen der gewählten Proxies einander wegzumitteln. Im „Blatt“ mitteln sich die Rand-Proxies ebenfalls heraus, und alles was übrig bleibt, sind die wenigen Proxies, die im jüngsten Abschnitt einen Anstieg zeigen.
Meine Schlussfolgerungen lauten (in beliebiger Reihenfolge):
• Man muss den Autoren hinsichtlich der Eindeutigkeit ihrer Datenquellen gratulieren. Sie lassen eine einfache Analyse ihrer Arbeit zu.
• Man muss ihnen auch zu den klaren Definitionen der Kriterien gratulieren, die sie an die Berücksichtigung der Proxies anlegen.
• Traurigerweise folgen sie nicht ihren eigenen Kriterien.
• Die wesentliche Schlussfolgerung jedoch lautet: Klare, eindeutige Kriterien von der Art, wie sie sie verwendet haben, sind ein notwendiger, aber kein ausreichender Teil des Prozesses. Es müssen noch mehr Schritte unternommen werden!
Der zweite Schritt besteht in der Verwendung von Quellen-Dokumentationen und der Literatur um zu sehen, ob es Probleme mit der Verwendung einiger Teile der Daten gibt. Hier Korttajarvi mit einzubeziehen ist ein besonders ungeheuerliches Übersehen. Michael Mann hat es in seiner Analyse aus dem Jahr 2008 umgekehrt verwendet. Er hat anschließend gesagt, dass „das keine Rolle spielt“. Es erscheint hier wieder umgekehrt, und die ursprünglichen Forscher sagten, man verwende es nicht nach 1750 oder so. Es ist absolut erbärmlich, dass nach all den Diskussionen in der Literatur und im Internet einschließlich eines veröffentlichten Briefes an PNAS Korttajarvi wieder einmal in einer Proxy-Rekonstruktion verwendet wird, und wieder einmal wird es umgekehrt verwendet. Das ist unentschuldbar.
Der nächste Schritt bei der Auswahl der Proxies muss in der Verwendung des Mark I eyeball [?] bestehen um zu sehen, ob es Lücken, Sprünge der Amplitude, Änderungen der Variabilität oder andere Anzeichen von Problemen in den Daten gibt.
Als nächstes müssen die Auswirkungen der fragwürdigen Daten auf das Endergebnis untersucht werden.
Und schließlich müssen noch die Gründe dargelegt werden für den Ein- oder Ausschluss der fragwürdigen Daten sowie deren Auswirkung auf das Ergebnis der Studie.
Unglücklicherweise haben sie nur dem ersten Teil Genüge getan, indem sie klare Kriterien formuliert haben.
Sehen Sie, man kann nicht einfach ein Bündel Proxies nehmen und diese mitteln, egal ob man Bayesianische Methoden anwendet oder nicht. Die Menge [crowd] der Paläo-Proxy-Forscher hat wieder und immer wieder gezeigt, dass man damit einen Hockeysachläger konstruieren kann, wenn man nur die richtigen Proxies dafür auswählt…
Und jetzt? Alles, was es beweist, ist: ja, wirklich; wenn man Müll hineinsteckt, wird man vermutlich auch Müll herausbekommen. Wenn man sorgfältig den Auswählprozess der Proxies durchführt, kann man jedes gewünschte Ergebnis bekommen.
Mann, wie sehr ich es satt habe, mich durch diese Art von Müll zu wühlen; künstliche Studien von künstlichen Wissenschaftlern.
Willis Eschenbach
Link: http://wattsupwiththat.com/2013/04/13/spurious-varvology/
Übersetzt von Chris Frey EIKE




Konventionelle Weisheit, unkonventionelles Öl

Bild rechts: Konventionelles Öl sickert nahe McKittrick in Kalifornien aus dem Boden.
Ein Aspekt der Diskussion über Peak Oil, der mich immer beschäftigt hat, ist die Unterscheidung zwischen „konventionellem Öl“ und „unkonventionellem Öl“. Hier möchte ich darlegen, warum diese Unterscheidung bzgl. Peak Oil sinnlos ist.
Ich habe den ganzen Peak Oil-Deal lange verfolgt, der inzwischen, so weit ich das sagen kann, zu einem ein halbes Jahrhundert dauernden Tauziehen geworden ist. Während der früheren Jahre haben die Leute gerufen, das Öl würde uns ausgehen, dass der Höhepunkt [der Förderung] sehr bald erreicht werden wird und – du liebe Zeit – von da an wird würde alles schlimmer werden. Natürlich ist das immer noch nicht passiert. Also wurden die Peak Oil-Rufer mit der Frage zurück gelassen, die von verhinderten Untergangspropheten während der ganzen Menschheitsgeschichte gestellt worden ist, nämlich:
Wie in aller Welt kann ich die Aushöhlung meiner Position erklären und trotzdem noch einige Bruchstücke meines Rufes behalten?
Für die Peak Oil-Leute kam die Erlösung in gestalt des „unkonventionellen Öls“. Jetzt versichert man uns, dass das Öl immer noch ausgeht, dass sie also die ganze Zeit über recht hatten… Sehen Sie, man sagt, King Hubbert hatte recht, das konventionelle Öl geht wirklich zur Neige, aber währenddessen wird es nahtlos ersetzt durch „unkonventionelles Öl“. Soll heißen, wir haben immer noch Öl, obwohl uns das Öl ausgeht. Verstehen Sie?
Das Seltsame daran ist folgendes: wenn man ein Barrel unkonventionelles Öl öffnet, um zu sehen, welche Konventionen bei seiner Herstellung gebrochen worden sind, findet man heraus, dass es von konventionellem Öl gar nicht zu unterscheiden ist.
Was ist unkonventionelles Öl? Nun, wir können mit der Betrachtung der Konventionen hinsichtlich des Öls anfangen. Für buchstäblich Milliarden von Jahren lautete die Konvention, dass man Öl in kleinen Tümpeln und Löchern findet wie in dem Bild oben rechts. Tatsächlich war die Entdeckung von Öl in Oil Creek [= „Ölbach“] in Pennsylvania, der ersten Erdölbohrung in den USA, eine Folge des dort seit unzähligen Jahrhunderten austretenden Erdöls. Das war den ersten asiatischen Immigranten bekannt, und sie haben es in dem Gebiet genutzt, bevor später die bleichgesichtigen Massen eintrafen.
Also wird demnach konventionelles Öl, durch die historische ausgerufene, durch die Millenien weiter gereichte Konvention in Teersümpfen und Öl-Löchern an der Erdoberfläche gefunden. Das bedeutet, dass so unbedacht nach Öl bohren der Definition nach „unkonventionelles Öl“ nach oben pumpen ist… aber natürlich ist das alles nicht so einfach.
Als Ergebnis wird „konventionelles Öl” nicht durch die konventionelle Methode gefördert, es mit einem Eimer aus einem Loch abzuschöpfen, sondern durch eine entschieden unkonventionelle und zu jener Zeit noch nie gehörte Methode, ein Loch in die Erde zu bohren und es heraus fließen zu lassen…
Jahrelang lief es auf diese Weise einfach gut. Dann kamen „sekundäre Fördermethoden“ ins Spiel. Sie bestehen aus einer Anzahl physikalischer und chemischer Methoden, um noch mehr Öl aus bestehenden Feldern herauszuholen, einschließlich des Brechens von Felsen, damit das Öl noch leichter heraus fließt.
Etwa zu dieser Zeit begann sich die ganze Peak Oil-Geschichte nach Süden zu verlagern, weil – egal wie viele Peak Oil-Schreihälse aufheulten – in jedem Jahr noch mehr Öl entdeckt wurde. Jedes Jahr wuchsen die nachgewiesenen Ressourcen immer weiter. Und dieser Prozess setzt sich bis zum heutigen Tag fort, mit größeren nachgewiesenen Reserven als jemals zuvor. Wie erklären sich die Peak Oil-Leute das? Hey, da kommt „unkonventionelles Öl“ als Rettung!
 
Zum Beispiel sind dünnflüssigere Öle „konventionell”, aber zähere, mehr teerige Ablagerungen „unkonventionell“, obwohl sie von den Menschen seit Jahrhunderten genutzt werden. Also waren sie hinsichtlich Peak Oil nicht mitgezählt worden.
Wirklich lächerlich allerdings wird es, wenn man die „Konventionen“ über das Brechen des Gesteins mit einbezieht, um mehr Öl zu fördern, was wir „Fracking“ nennen. Die Fracking-Technologie wurde vor etwa vierzig Jahren entwickelt und ist seitdem benutzt worden, meistens für sekundäre Förderungen. Und alle diese Jahrzehnte lang war das aus den gebrochenen Felsen strömende Öl „konventionelles Öl“. Aber inzwischen hat man gelernt, horizontal zu bohren und das Gestein zu brechen… und jetzt plötzlich, nach 40 Jahren Felsen brechen, liefert das Fracking nur noch „unkonventionelles Öl“, nachdem es zuvor aus den senkrechten Bohrlöchern „konventionelles Öl“ gewesen war – einfach weil das Bohrloch jetzt horizontal und nicht mehr vertikal verläuft… Sieht irgendjemand einen Sinn darin?
Die Klassifizierung von „unkonventionellem Öl” durch Fracking zeigt klar die lächerliche Natur der Trennungslinie, wenn wir über Peak Oil reden. Hinsichtlich des vermeintlichen Peaks, warum ist Öl aus einer horizontalen Bohrung „unkonventionell“ und aus einer vertikalen Bohrung „konventionell“? Es ist immer die Technologie, und keine der Technologien ist „unkonventioneller“ als das Bohren des ersten Loches, ein höchst unkonventioneller Akt…
Die Bezeichnung von Öl aus horizontalen Bohrlöchern als „unkonventionell“ ist für die Peak Oil-Leute allerdings entscheidend. Wenn man nämlich das durch Fracking geförderte Öl konventionell nennen würde, würden die Behauptungen über „Peak Oil“ und Peak Gas“ einfach untergehen…
Sehen Sie, die hässliche Wahrheit ist, dass die Welt in fossilen Treibstoffen schwimmt. Als Erstes ist da die größte einzelne Konzentration fossiler Energie des Planeten, die Powder River Kohleformation in den nördlichen USA zu nennen. Die Welt verfügt noch viele hundert Jahre lang über Kohle. Die Kanadier haben große Ölvorräte… natürlich werden auch diese „unkonventionell“ genannt, weil das allein schon ausreicht, die „Peak Oil“-Behauptungen in die Tonne zu treten. Plus, dass wir inzwischen auch über „festsitzendes [tight] Öl“ verfügen, also Öl im Gestein, das natürlich unkonventionell ist.
Dann gibt es da noch die Entdeckung der Schiefergasvorkommen in der ganzen Welt. Selbst in Israel gibt es endlich einige heimische Energiequellen. Wie unkonventionell ist das? Australien hat gerade einen gewaltigen Fund bekannt gegeben. China verfügt über massive Gas-Ressourcen. Einer vorläufigen Schätzung zufolge haben wir einschließlich Schiefergas genug Gas für die nächsten paar Jahrhunderte im Vorrat.
Und schließlich haben wir als Freikarte [wild card] noch die Methanhydrate, das „brennende Eis“. Schätzungen von deren Menge gehen über alle Grenzen hinaus, aber alle haben eines gemeinsam – die Vorräte sind sehr, sehr groß, in einer Größenordnung von Quadrillionen Kubikfuß.  Dies addiert sich noch zu den globalen Erdgasreserven…

Und schließlich, die meisten Formen dieser fossilen Treibstoffe kommen in Kombination vor und können gegenseitig konvertiert werden. Kohle zum Beispiel kann man verflüssigen oder vergasen.
Und nun, weil es niemals jemanden gegeben hat, der über „Peak Coal“ gebrüllt hat, gibt es so etwas wie „unkonventionelle Kohle“ nicht, trotz gewaltiger Veränderungen beim Bergbau. Der Kohlebergbau hat sich genauso oder sogar noch stärker gewandelt als das Bohren nach Öl… warum also gibt es keine „unkonventionelle Kohle“?
Aber in diesem Fall, da die gesamten Kohlevorräte der Erde „konventionell“ zu sein scheinen und wir Kohle in Öl umwandeln, stellen wir dann „konventionelles“ oder „unkonventionelles Öl“ her? Vermutlich würde es eine Rolle spielen, wenn wir Kohle horizontal oder vertikal in Öl umwandeln würden…
Zusammengefasst: Wenn man einmal den Blödsinn der Unterscheidung zwischen „konventionellem“ und „unkonventionellem Öl“ überwunden hat, zeigt sich, dass es genug Kohle und Gas für viele hundert Jahre gibt, allein mit dem, was wir heute wissen. Dabei sind die Methanhydrate noch nicht einmal mitgezählt. Das ist der Grund, warum ich den Peak Oil-Alarmisten genauso wie den Klima-Alarmisten keinerlei Aufmerksamkeit mehr schenke. Eine Gruppe behauptet, wir haben zu viel Öl, und wir werden es alles verbrennen; die andere Gruppe behauptet, dass wir bald zu wenig Öl zum Verbrennen haben. Ich behandle diese beiden Schwindler genau gleich.
War die Trennung zwischen „konventionellem” und „unkonventionellem“ Öl dazu gedacht, das Scheitern der Peak Oil-Leute zu verschleiern? Keineswegs. Die Unterscheidung ist auf verschiedene Weise sinnvoll, wenn man die Welt der Ölressourcen analysiert. Ich glaube, dass das Konzept von den Peak Oil-Leuten einfach übernommen worden ist, weil es für sie sehr nützlich war, hat es doch das Scheitern ihrer Peak Oil-Vorhersagen komplett verschleiert. Für mich ist Öl gleich Öl gleich Öl, und falls man behauptet, dass der Welt das Öl ausgehen wird, kann man später nicht sagen, dass man die Dinge neu definiert hat, und dass das Öl, dass die Vorhersagen als falsch entlarvt, irgendeine Art Spezialöl ist, das nicht als Öl zählt, sondern nur wie Öl aussieht und die gleichen Eigenschaften wie Öl hat…
Willis Eschenbach
Link: http://wattsupwiththat.com/2013/02/02/conventional-wisdom-unconventional-oil/#more-78653
Übersetzt von Chris Frey EIKE