Keine Steuern auf Entwicklung, es tut den Armen weh!

Einer ihrer Testfälle ist die Suche nach einer Beziehung zwischen Größenordnungen globaler Indikatoren. Hier folgt eine Liste der Ergebnisse durch die MIC-Methode:

Abbildung 1: Signifikante Beziehungen, gekennzeichnet durch den maximalen Informationskoeffizienten. Auf herkömmliche Art wird diese Beziehung durch den Pearson-Koeffizienten gemessen.
Der seltsamste Wert in dieser Liste ist der MIC auf Rang drei, die Beziehung zwischen dem Ölverbrauch und dem Einkommen, jeweils pro Person. Mit dem Pearson-Koeffizienten lag diese Beziehung an 207. Stelle, der MIC an 3. Stelle. Das motivierte mich zu einem weiteren Blick auf den Zusammenhang zwischen Energie und Entwicklung.
Um dies zu tun, benutzte ich “Gapminder World”, ein faszinierendes Online-Tool, um Daten zu visualisieren. Abbildung 2 zeigt davon ein Beispiel, und zwar einen Vergleich zwischen mittlerem Energieverbrauch und Einkommen, jeweils pro Kopf. Jedes Land wird in den Diagrammen durch eine „Blase“ symbolisiert.
 
Abbildung 2: Blasendarstellung des Zusammenhangs von Pro-Kopf-Verbrauch von Energie, unterteilt nach Ländern (vertikale Achse) und Einkommen pro Kopf (horizontale Achse). Man beachte, dass beide Achsen logarithmisch sind. Die Größe einer individuellen Blase kennzeichnet die Gesamtenergieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. Der Energieverbrauch wird in Tonnen pro Öläquivalent (TOE) angegeben. Quelle
Wie man erkennen kann, gibt es eine klare und lineare Beziehung zwischen dem Energieverbrauch und dem Einkommen. Dies führt zu einer unerbittlichen Schlussfolgerung: Man kann aus der Armut ohne Zugang zu erschwinglicher Energie nicht heraus kommen. Abbildung 3 unten zeigt die gleichen Daten mit Identifikation der größten Energieproduzenten.

Abbildung 3: Wie Abbildung 2, nur diesmal mit der Kennzeichnung der größten Energieproduzenten  Quelle.
Die Größe der Blasen zeigt, dass China und die USA hinsichtlich der Gesamtenergieerzeugung etwa gleichauf liegen. Russland liegt an dritter, die Saudis an vierter und – überraschend für mich – Indien an fünfter Stelle. Die Farben zeigen, dass für die Russen und die Saudis die meiste Energie aus Öl erzeugt wird (rot), während in China und den USA auch die Kohle eine Hauptquelle dafür ist. Indien gewinnt seine Energie hauptsächlich aus Kohle.
Abbildung 4 (unten) zeigt die gleiche Vergleichskarte zwischen Energie und Einkommen, aber in unterschiedlicher Weise. Die Größe der Blasen in Abbildung 4 zeigt die Energieerzeugung pro Kopf und nicht die gesamte Energieerzeugung. Alle Blasen liegen an der gleichen Stelle, und nur deren Größe hat sich verändert.

Abbildung 4: Wie die oberen beiden, nur das die Größe der Blasen hier für die Energieerzeugung pro Kopf steht. Quelle
Aus den Abbildungen 3 und 4 kann man einige neue Schlussfolgerungen ziehen. Eine lautet, dass man nicht viel Energie erzeugen muss, weder pro Kopf noch insgesamt, um eine moderne, industriell entwickelte Wirtschaft zu haben (die Menge der kleinen Blasen oben rechts). Die Niederlande und Japan sind hierfür Beispiele. Die zweite lautet, wenn man eine hohe Energieerzeugung pro Kopf hat, kommt man leichter zu einem hohen Pro-Kopf-Einkommen (Überlegenheit der großen Blasen oben rechts).
Die Website Gapminder erlaubt uns auch, einen Blick auf die Geschichte der verschiedenen Länder zu werfen. Hier folgt die Entwicklung in einigen Ländern mit der Zeit. Das Niveau, auf dem die Namen der Länder stehen, zeigt jeweils den Beginn der Aufzeichnung.


Abbildungen 5 und 6: Wie in Abbildung 3, jedoch jetzt mit der Entwicklung einiger Länder von 1971 bis 2007. Die Größe der Blasen steht für die Pro-Kopf-Energieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. „Spurlinien“ zeigen die Werte Jahr für Jahr. Beide Skalen sind logarithmisch. Abb. 5  Quelle1, Abb. 6: Quelle2*.
[*Im Original steht in der letzten zeile der Bildunterschrift Fig. 4 bzw. Fig. 5. Dies halte ich für ein Versehen des Autors, da sich ja beides auf die Abbildungen 5 und 6 bezieht. A. d. Übers.]
Einige Bemerkungen zu den historischen Abbildungen. Zunächst wird die Richtung, die Sie für Ihr Land sehen möchten, eine Bewegung nach unten und nach rechts sein. Dies würde für weniger Energieverbrauch und mehr Einkommen stehen. Ganz allgemein bewegt sich jedoch fast kein Land in dieser Richtung.
Die schlechte Richtung wäre nach oben und nach links. Dies stünde für einen größeren Energieverbrauch, um weniger Geld zu verdienen. Hässlich! Die Saudis haben sich während der letzten Jahre in diese Richtung bewegt.
Einige Länder liegen im ungünstigsten Quadranten links unten. Hier wird weniger Energie verbraucht und auch weniger Geld verdient. Zimbabwe und die „demokratische“ Republik Kongo stehen dort. Schlechtes Zeichen! Es bedeutet Rück-Entwicklung und schließt in der Regel ein, dass sowohl die Menschen dort als auch die Umwelt leiden.
Bleibt der vierte Quadrant rechts oben. Hier wird mehr Energie verbraucht und mehr Geld verdient. Gemeinhin nennt man das „Entwicklung“ alias aus der Armut herauskommen. Man verdient genug Geld, um sich den Schutz der Umwelt leisten zu können.
Die Spielregel lautet, sich so weit wie möglich nach rechts (zunehmendes Geld) und sich so wenig wie möglich nach oben (zunehmender Energieverbrauch) zu bewegen. Bangladesh beispielsweise steht nicht so gut da wie Indien, da es sich steiler nach oben bewegt. In den siebziger und achtziger Jahren China war genauso gut wie Indien, aber während des letzten Jahrzehnts der Aufzeichnung ging es steiler nach oben. Man beachte, dass Indien seine Energie hauptsächlich aus Kohle erzeugt.
Russland bewegte sich Anfang der neunziger Jahre nach unten und nach links, hat sich aber seitdem erholt und das Einkommen fast verdoppelt, ohne wesentliche Zunahme des Energie[verbrauchs]. Es ist kurios, dass das Einkommen jetzt auf dem Niveau von 1990 liegt, aber der Energieverbrauch geringer ist. Das Gleiche gilt für Usbekistan und viele andere frühere Mitglieder der Sowjetunion. Zu ihren Gunsten [muss gesagt werden], dass sie sich aus dem Zusammenbruch der Sowjetunion heraus gekämpft haben und zu einer effizienteren Form zurück gekehrt sind. Tatsächlich haben sich die Usbeken während der vergangenen Dekade nach unten und nach rechts bewegt, und das ist der Heilige Gral der Entwicklung, mehr zu produzieren mit weniger Energieverbrauch.
Die armen Saudis andererseits bewegen sich inzwischen fast senkrecht nach oben (sie brauchen mehr Energie, um das gleiche Einkommen zu erzielen) und haben sogar etwas an Boden verloren. Und Senegal hat sich nirgendwohin bewegt.
In Japan, China, Mexiko und Australien hat sich die Pro-Kopf-Energieerzeugung während der Periode erhöht (Blasengröße), während sie in den USA und Russland in etwa gleich geblieben ist. Die Gesamtölproduktion in den USA ist zurück gegangen (Blasenfarbe), während sie in China zugenommen hat. Die russische Ölerzeugung ist erst zurück gegangen, hat sich aber wieder erholt.
In USA und UK tat sich etwas Merkwürdiges. Der Pro-Kopf-Energieverbrauch in beiden Ländern lag jeweils 2007 etwa gleich hoch wie 1979. Aber das Einkommen hat sich erhöht. In beiden Ländern hat sich das Pro-Kopf-Einkommen fast verdoppelt, praktisch ohne jede Erhöhung des Pro-Kopf-Energieverbrauchs. Ich weiß nicht, was sie richtig machen, aber wir sollten es herausfinden und kopieren…
Schlussfolgerungen und –bemerkungen:
1. Entwicklung ist Energie, und Energie ist Entwicklung. Obwohl einem Effizienz und Konservierung helfen können, muss man im Allgemeinen den Energieverbrauch steigern, um das persönliche Einkommen so zu erhöhen, dass man aus der Armut herauskommt. Verteuert man die Energie, ist das erheblich rückschrittlich, da sich die armen Länder und die armen Leute das einfach nicht leisten können. Kohlenstoffsteuern, „Zertifikatehandel“ oder andere Energiesteuern sind ein Verbrechen gegen die weniger begünstigten Bewohner unseres Planeten.
2. Große Länder mit höheren Transportkosten werden pro Dollar Einkommen mehr Energie verbrauchen als kleine Länder.
3. Innerhalb der „Wolke” von Ländern in Abbildung 3 ist es möglich, die Energieeffizienz zu steigern und mehr Geld mit der gleichen Menge verbrauchter Energie zu verdienen.
4. Länder mit hoher Energieerzeugung tendieren dazu, mehr davon zu verschwenden als andere Länder mit geringer Energieerzeugung.
5. Die bevorzugte Stelle für jedes gegebene Einkommensniveau befindet sich am unteren Rand der „Wolke“ der Länder mit diesem Einkommen. Hier bekommen Sie das meiste Geld für Ihre Arbeit. Viele europäische Länder liegen an dieser Stelle. Die USA und Kanada liegen etwa in der Mitte der Wolke. Allerdings sind sie wie erwähnt viel größer als die europäischen Länder.
6. China, Indien und Bangladesh wiesen 1971 in etwa das gleiche Pro-Kopf-Einkommen auf, circa 700 Dollar pro Jahr. Die Unterschiede ihrer jetzigen Position sind groß, hat doch Bangladesh ein solches Einkommen von 1400 Dollar, Indien von 2600 Dollar und China von 6000 Dollar pro Jahr.
7. Leider reichen die Datensätze nur bis 2007… es wäre interessant zu sehen, in welche Richtung sich sowohl der Energieverbrauch als auch das Einkommen im Zuge der globalen Finanzkrise bewegen.
8. Zum Schluss: wenn jemand das Wort „Technologie“ in den Mund nimmt, denken viele Umweltaktivisten sofort an „Bulldozer“. Sie sollten lieber an „Energieeffizienz“ denken! Schließlich leistet Technologie mehr mit weniger. Es ist die Technologie, die es uns gestattet, weniger Benzin pro Meile zu verbrauchen. Durch eine gewisse Kombination von Konservierung und technologischer Fortschritte waren die USA und UK in der Lage, ihr Einkommen bei gleichem Energieverbrauch zu verdoppeln. Von diesem technologischen Fortschritt profitieren sowohl jeder Einzelne als auch die Umwelt.
P.S.: Die Links zu den Quellen unter jeder Abbildung verweisen auf die korrespondierenden Abbildungen auf der Website Gapminder. Dort kann man mit den Variablen spielen oder die Geschichte der Länder verfolgen, die ich hier nicht erwähnt habe.
Weitere Beiträge des Autors: Willis Eschenbach
Link zum Artikel, auf den sich Eschenbach ganz oben bezieht: “Detecting Novel Associations in Large Data Sets
Link: http://wattsupwiththat.com/2011/12/19/dont-tax-development-it-hurts-the-poor/
Übersetzt von Chris Frey für EIKE




Was die BEST-Daten tatsächlich sagen

Nachdem die BEST-Leute ihre 15 Minuten Ruhm eingefordert und auch bekommen haben, bevor ihre Ergebnisse begutachtet worden waren; nachdem sie erfolgreich viele Leute davon überzeugt haben, dass Muller ein Skeptiker ist und BEST irgendwie ‚bewiesen hat, dass die Skeptiker unrecht haben’; nachdem sie zu ihrer Wildnis der natürlichen wissenschaftlichen Umgebung zurückgefunden haben, weit entfernt von der Reichweite der Photographen von National Geographic und Leuten, die wirkliche Fragen stellen; nach all dem dachte ich mir, dass ich mir selbst mal die Daten ansehen sollte. Medienenten sind immer vorhersagbar und langweilig, aber Daten sind immer für Überraschungen gut. Sie können hier heruntergeladen werden, aber bitte übersehen Sie nicht, dass sie nicht die aktuellen Daten dort zeigen, sondern geglättete Daten. Ihre nicht geglätteten monatlichen Daten sehen so aus:

Abbildung 1 (rechts): Schätzungen der globalen Temperatur durch BEST. Graue Balken zeigen die 95%-Bandbreite für jeden Datenpunkt.

Ich weiß nicht, wie es Ihnen geht, aber Abbildung 1 ließ mich sofort an die wiederholten Behauptungen von Michael Mann denken, wonach die Temperaturen der neunziger Jahre die wärmsten seit eintausend Jahren waren.

Was ich aus den BEST-Daten herauslese

Ungewissheit

Ich stimme William Briggs und Doug Keenan zu, dass die “Unsicherheitsgrenzen zu klein sind”. Lesen Sie hierzu, was die beiden geschrieben haben (hier, auf Deutsch bei EIKE hier)

Mir kamen Manns Behauptungen in den Sinn, weil ihre Ergebnisse selbst mit der engen Unsicherheitsgrenze zeigen, dass wir nur sehr wenig wissen über relative Temperaturen während der letzten zwei Jahrhunderte. Zum Beispiel können wir mit Sicherheit nicht sagen, dass die gegenwärtigen Temperaturen höher liegen als je vor 1945. Die Unsicherheitsgrenzen überlappen sich, daher wissen wir nicht, ob beispielsweise das Jahr 2010 wärmer war als 1910. Es scheint so zu sein, aber um sicher zu gehen… aber wir haben keine Beweise, um das zu stützen.

Und das bedeutet natürlich, dass Manns Behauptungen über ‚das Wärmste seit Millionen Jahren’ oder was auch immer, bis heute in keiner Weise stichhaltig sind. Wir können mit Hilfe von Thermometeraufzeichnungen nicht sagen, ob es jetzt wärmer ist als ein Jahrhundert zuvor. Wie können ein paar Bäume und Muschelschalen uns mehr sagen als Dutzende von Thermometern?

Diskrepanzen mit Satellitenbeobachtungen

Die BEST-Leute sagen, dass in ihrer Analyse kein städtischer Wärmeinseleffekt (UHI) erkennbar ist. Ihre tatsächliche Behauptung lautet: „städtische Erwärmung verzerrt die Schätzungen über kürzliche globale Temperaturänderungen nicht“. Hier folgt ein Kommentar von der NASA, der darauf hindeutet, dass es sehr wohl eine Verzerrung gibt. Hervorhebung von Eschenbach.

Die eng bebaute Stadt Providence zum Beispiel weist Temperaturen auf, die um 12,2°C höher liegen als in der ländlichen Umgebung, während die ähnlich große, aber wesentlich aufgelockerter bebaute Stadt Buffalo lediglich eine Wärmeinsel von etwa 7,2°C erzeugt, jedenfalls nach Satellitenbeobachtungen (QUELLE).

Eine 12°C-Erwärmung in Providence, und BEST sagt, es gäbe keinen UHI-Effekt… und das ist lediglich eine Stadt.

Sollte es keinen UHI-Effekt geben, dann würde sich die Atmosphäre (allen gängigen akzeptierten Theorien zufolge) mehr erwärmen als der Untergrund. Sollte es den UHI doch geben, hätten die Bodenstationen einen aufwärts gerichteten Bias und würden sogar auf noch mehr Erwärmung hinweisen als die Atmosphäre.

Nach einer Anzahl von Anpassungen sind die beiden Satellitenaufzeichnungen von RSS und UAH ziemlich ähnlich. Abbildung 2 zeigt diese Aufzeichnungen für Temperaturen der unteren Troposphäre nur über Festland:

Abbildung 2: UAH und RSS-Temperaturaufzeichnungen aus Satellitenmessungen. Die Anomalieperiode 1979 bis 1984 = 0.

Da sie sich so ähnlich sind, habe ich sie zusammen in Abbildung 3 gemittelt, um Diskussionen zu vermeiden. Sie können die eine mit der anderen substituieren, falls gewünscht. Abbildung 3 zeigt eine Gauss-Mittellung der Daten um drei Jahre. Die letzten beiden Jahre wurden abgeflacht, um Randeffekte zu vermeiden.

Man erinnere sich, was wir zu finden erwarten würden, wenn alle Bodenmessungen korrekt wären. Sie würden alle auf oder nahe der gleichen Linie liegen, und die Temperaturdaten der Satelliten würden schneller steigen als die gemessenen Temperaturen. Hier folgen die tatsächlichen Ergebnisse, und zwar nach BEST, Satelliten, GISS, CRUTEM und GHCN:

Abbildung 3: Schätzungen der globalen Temperatur über dem Festland nach BEST, mittleren Satellitendaten und anderen Schätzungen während der Satelliten-Ära. Die Anomalieperiode von 1979 bis 1984 = 0.

In Abbildung 3 zeigt sich das Gegenteil dessen, was wir erwartet hatten. Die Landtemperaturen steigen schneller als die Temperaturen in der Atmosphäre, was im Gegensatz zur Theorie steht. Außerdem sind die BEST-Daten die schlechtesten in dieser Hinsicht.

Diskrepanzen mit anderen auf Messungen basierenden Aufzeichnungen

Die nicht vorhandene Übereinstimmung zwischen den vier Ergebnissen verlangt auch nach einer Erklärung. Man beachte, dass die Aufzeichnungen mit einer Rate von etwa 0,2°C innerhalb von dreißig Jahren divergieren, d. h. 0,7°C pro Jahrhundert. Angesichts dessen, dass dies die geschätzte Größenordnung der Erwärmung im letzten Jahrhundert ist, ist diese Differenz keineswegs trivial.

Meine Schlussfolgerung? Wir haben immer noch nicht das UHI-Problem gelöst, und zwar in keinem der Datensätze vom Festland. Ich bin froh, alternative Erklärungen der Ergebnisse aus Abbildung 3 diskutieren zu können. Sehr viele fallen mir nicht ein. Bezüglich der Bodenaufzeichnungen hat niemand die Analyse des jeweils anderen kritisch und aggressiv unter die Lupe genommen. Sie sind alle ihrem eigenen Weg gefolgt, und sie haben nicht viel miteinander geredet. Die Algorithmen der Satellitendaten jedoch wurden genauestens untersucht durch zwei sehr kompetente Arbeitsgruppen, UAH und RSS, und zwar in stark wissenschaftsfeindlicher Manier. Wie es in der Wissenschaft üblich ist, haben beide in den Arbeiten der jeweils anderen Gruppe Fehler gefunden, und nach der Korrektur derselben ähnelten sich die beiden Aufzeichnungen ziemlich genau. Es ist möglich, dass beide falsch sind, aber das erscheint unwahrscheinlich. Wenn die Leute, die sich mit den Bodenmessungen befasst hatten, das getan hätten, könnten wir noch bessere Übereinstimmung erzielen. Aber wie das mit Klimamodellen und Klimamodellierern so ist, sind sie alle zu gut erzogen, um die Arbeit der jeweils anderen in ernsthafter Weise zu untersuchen. Aber was soll’s, wenn sie das den Anderen antun würden, könnten ja die anderen Fehler in der eigenen Arbeit monieren; diese Hässlichkeiten mögen wir gar nicht – kollegiale Beziehungen – können wir nicht einfach Freunde sein und nicht zu genau hinschauen? …

P.S. – Ich erinnere noch einmal daran, dass der Hype um BEST, das zeigt, dass die Skeptiker falsch liegen, genau das ist: ein Hype. Die meisten Leute wissen schon, dass es auf der Welt seit hunderten von Jahren allgemein wärmer wird, und dass die BEST-Ergebnisse in dieser Hinsicht keine Überraschung sind. BEST zeigte nichts darüber, ob die Menschen das Klima beeinflussen und könnte das auch nie tun. Es gibt nach wie vor große ungelöste Fragen, die BEST nicht geklärt oder gelöst hat. Die Jury befasst sich mit den BEST-Ergebnissen, und das auch nur teilweise, weil sie noch nicht begutachtet worden sind.

PPS. – Oh, und noch etwas: Ganz oben beim BEST-Datensatz steht eine Note mit folgendem Inhalt:

Geschätzte absolute Temperatur von 1950 bis 1980: 7,11°C +/- 0.50.

Sieben Grad Celsius? Die Leute beim GISS geben nicht einmal ein Mittel, sie sagen nur dass es global um 14°C sind.

Die Daten von HadCRUT zeigen in etwa die gleiche Temperatur, 13,9°C, und zwar mit einem Datensatz absoluter Temperaturen im Flächenraster. Schließlich zeigt die globale Bilanz nach Kiehl/Trenberth eine Schwarzkörperstrahlung von 390 W/m², was übertragen 14,8°C ausmacht. Also dachte ich, dass dies geklärt sei, dass die mittlere Temperatur der Erde (sicher ein schwer fassbares Modell) um 14 oder 15°C liegt.

Ohne dass ein  einziges kommentierendes Wort von BEST darüber, dass BEST lediglich einen Wert von 7,1°C zeigt… was soll das? Hat irgendeiner eine Erklärung dafür? Ich weiß, dass die BEST-Temperaturen nur für das Festland gelten. Aber wenn der Globus eine Mitteltemperatur von etwa 14°C aufweist und das Land 7°C, dann bedeutet dies, dass die Temperatur über den Ozeanen um 17°C liegen muss.

Und das nehme ich nicht ab, dass der Ozean im globalen Mittel zehn Grad Celsius wärmer ist als das Festland. Da fangen meine Alarmglocken zu läuten an.

Willis Eschenbach

Den Originalbeitrag finden Sie hier

Übersetzt von Chris Frey für EIKE




Schneller Anstieg des Meeresspiegels: Paper von Rahmstorf, Kemp & Mann erneut zweifelhaft

Also was gefällt uns nicht an diesen jüngsten Erkenntnissen von Kemp and Michael Mann?

Figure 1. Kemp Fig. S2 (A) (Zur Quelle
Ich habe den Teil der Grafik von 1650 weiter digitalisiert, um ihn mit jüngeren Beobachtungen zu vergleichen. Abb. 2 zeigt die Ergebnisse:

Abb. 2. Der von Kemp 2011 rekonstruierte Anstieg des Meeresspiegels, 1650-2000 
Zunächst erscheint merkwürdig, dass sie behaupten, es hätte global ein Meeresspiegelanstieg von 200 mm in den vergangenen fünfzig Jahren (1950-1999) gegeben. Ich kenne niemanden sonst, der das behauptet. Church and White schätzen den Anstieg von 1950-2000 auf 84 mm, und Jevrejeva sagt 95 mm. Also, ihre Rekonstruktion beträgt mehr als das Doppelte der allgemein akzeptierten Schätzungen.
Das nächste Problem zeigt sich, wenn man die Rate des Anstiegs betrachtet. Abb. 3 zeigt die Ergebnisse aus der Kemp (2011) Studie, zusammen mit dem durchschnittlichen Meeresspiegelanstieg wie von Jevrejeva und Church & White aufgrund weltweiter Pegelanzeigen geschätzt.

Abb. 3. Die von Kemp 2011 rekonstruierte Rate des globalen Meeresspiegelanstiegs von 1650-2000. Dazu die Beobachtungen von Jevrejeva (rote Kreise) und Church and White (violette Quadrate).
Kemp et al. sagen, dass die globale Rate des Meeresspiegelanstiegs seit 1870 ständig höher geworden sei, dass sie 1950 mehr als 3 mm pro Jahr betragen und seitdem ständig zugenommen hätte. Im Jahre 2000 wären es fast 5 mm/Jahr gewesen.
Jevrejeva und Church & White dagegen sagen, dass sie niemals über 3 mm/Jahr gelegen hätte und dass sie im zeitlichen Verlauf rauf und runter ginge. Im Jahre 2000 hätte sie ~ 2 mm/Jahr betragen. Mit anderen Worten, die Behauptungen stimmen überhaupt nicht mit den Beobachtungen überein.
Darüber hinaus zeigen die Ergebnisse von Kemp 2011 eine Zunahme der Rate des Meeresspiegelanstiegs, beginnend etwa 1700 … Wieso denn das? Und die Anstiegsrate hätte sich seitdem ohne Pause erhöht.
Daher können wir mit diesen beiden Hauptpunkten anfangen — die Schätzungen von Kemp et al. für die Höhe und den Anstieg des Meeresspiegels sind sehr verschieden von den Schätzungen der auf diesem Forschungsfeld anerkannten Experten. So etwas haben wir schon einmal erlebt, als Michael Mann behauptete, dass die Temperatur-Geschichte der vergangenen tausend Jahre ganz anders als die damalige anerkannte Meinung gewesen wäre. In keinem der Fälle gab es irgendwelche Hinweise auf außergewöhnlicher Belege, um die merkwürdigen Behauptungen zu stützen.
Mit dem Papier gibt es noch weitere Probleme, nachfolgend nicht in besonderer Reihenfolge aufgeführt:
1. Ungewissheiten. Wie sind sie berechnet? Sie [die Autoren] behaupten eine Gesamtgenauigkeit bei der Abschätzung des Meeresspiegels bei Tump Point von ± 40 mm. Sie sagen, dass ihre “Transferfunktion” eine Fehlerbreite von ± 100 mm hat. Weil die Transferfunktion nur ein Teil ihrer gesamten Transformation ist, wie kann das Endprodukt so genau sein?
2. Ungewissheiten. Die Ungewissheiten in ihrer Abb. S2 (A) (schattiert dunkel und hellrosa in obiger Abb. 1) sind über der Zeit konstant. Mit anderen Worten, sie sagen, dass ihre Methode zur Vorhersage des Meeresspiegels von vor 2000 Jahren so gut ist, wie für heute … das scheint zweifelhaft zu sein. 
3. Ungewissheiten. In Abb. 4(B) des Hauptpapiers zeigen sie die Zusammenfassung ihrer Rekonstruktion nach GIA-Anpassung [Glacial-Isostatic Adjustment] mit den gleichen Fehlerbändern (dunkelschattiert und hellrosa) wie in der oben gezeigten Abb. S2 (A). Aber getrennt davon zeigen sie in Abb. 4(B) eine viel größere Weite von Unsicherheiten wegen der GIA-Anpassung. Sicher, diese beiden Fehler addieren sich mit der Quadrierung und ergeben schließlich ein weitere Gesamtbandbreite für die Fehler.
4. Tidenhub. Wenn der Tidenhub sich mit der Zeit verändert hat, müsste er sich in ihre Berechnungen als ein Nebenanstieg oder Fall in den Ergebnissen zeigen. Sie sehen das mögliche Problem, aber sie meinen, es könnte nicht eintreten aufgrund der Computer-Modellierung. Sie wären dennoch besser beraten gewesen, auf die Daten zu achten, anstatt närrischerweise den auf Sand gebauten Modellen zu vertrauen. Der Tidenhub bei der Oregon Inlet Marina, in kaum 16 Km Abstand von ihrer Sand Point Hauptörtlichkeit, ist mit einer Rate von 3 mm pro Jahr angestiegen. Das ist schneller als der von Kemp rekonstruierte Meeresspiegel-Anstieg in Sand Point. Weil wir mit Sicherheit wissen, dass Änderungen im Tidenhub stattfinden, klingt ihre computerisierte Zusicherung von der Unmöglichkeit mehr als nur ein wenig hohl. Das gilt ganz besonders angesichts der großen Veränderungen in der örtlichen Unterwasser-Geographie bei Sand Point. Abb. 4 zeigt einige dieser Veränderungen:

Bild 4. Die Veränderungen im Kanal zwischen Roanoke Island und dem Festland, von 1733 bis 1990.
Man beachte die Untiefen zwischen dem Festland und der Südspitze von Roanoke Island 1733, die bis 1870 auf Karten verzeichnet sind. Sie sind seitdem langsam verschwunden. Man sieht auch zwei Zuflüsse durch die meerseitig vorgelagerten Barriere-Inseln (Roanoke Inlet und Gun Inlet), die sich seit 1733 völlig aufgefüllt haben. Die Veränderungen an diesen Zuflüssen könnten für die Veränderungen der Tiefen südlich Roanoke Island ursächlich sein, weil das bedeutet, dass die Fläche zwischen Roanoke und dem Festland sich nicht mehr wir früher durch den Roanoke Inlet an der Nordspitze der Insel entleeren kann. Ihre [der Autoren] Behauptung, dass Veränderungen in dieser Größenordnung den Tidenhub nicht verändern würden, erscheint höchst unwahrscheinlich. 
5. Unterschiedliche Auffassungen in Bezug auf lokale Trends beim Meeresspiegelanstieg. Die nächstgelegene Pegelmessstation in Wilmington zeigt keine statistisch signifikante Änderung beim Trend der mittleren Meereshöhe (Mean Sea Level – MSL) seit 1937. Kemp et al. behaupten, der Anstieg sei in diesem Zeitraum von 2 mm/Jahr auf 4,8 mm pro Jahr hochgegangen. Wenn dem so wäre, warum hat sich das nicht in Wilmington (oder in anderen benachbarten Orten) gezeigt?
6. Und wieder Ungewissheiten, wenn man genau auf die Rechnungen schaut. Sie sagen, der Fehler der mittleren Quadratwurzel RMS (root mean square) ihrer Transferfunktion betrüge 26% des gesamten Tidenhubs. Sie haben aber nicht den gesamten Tidenhub angegeben. Darauf komme ich gleich zurück.  Wenn 26% der durchschnittlichen Quadratwurzelfehler ist, dann ist der 2-Sigma-Fehler doppelt so groß, oder 50% des Tidenhubs. Das halte man sich kurz vor Augen. Die Transferfunktion ist auf die Ansammlung von Foraminfera auf mittlere Meereshöhe bezogen, aber der Fehler beträgt die Hälfte des Tidenhubs. Daher kann ihre Methode im besten Falle noch nicht einmal sagen, ob die Ansammlung von oberhalb oder unterhalb der mittleren Meereshöhe stammt…
Weil die Gezeiten innerhalb der Barriere-Inseln so komplex und so schlecht dokumentiert sind benutzen sie das VDatum-Werkzeug von der NOAA, um den mittleren Tidenhub an ihren Örtlichkeiten abzuschätzen. Das Werkzeug wird aber in der Dokumentation für das Gebiet innerhalb des Pamlico SOund als ungenau bezeichnet. Laut Dokumentation beruhen die Schätzungen für Pamlico SOund auf einem „hydrodynamischen Modell“, anders als bei allen anderen Stationen, wo der Tidenhub anhand von Pegelstandsmessungen abgeschätzt wird.
Sie behaupten auch, dass ihre Transferfunktion für jede Abschätzung „unter 100 mm“ die “speziellen vertikalen Fehler” angäbe. Das bedeutet, dass ihr 2-Sigma-Fehler 100 mm betrug. Verbindet man das mit der Vorstellung, dass ihr VLSI Fehler bei 50% des Tidenhubs liegt, so impliziert das einen Tidenhub von nur etwa 200 mm an der SAND POINT Örtlichkeit. Das stimmt mit der Abschätzung des VDatum überein. Er beträgt fast genau 200 mm.
Die Gezeiten im Gebiet sind extrem ortsabhängig. Der Tidenhub kann innerhalb weniger Meilen um 100% schwanken. Und das bedeutet, dass sich die Spannweite der örtlichen Tidenhube (er ist stark ortsbezogen und extrem abhängig von der lokalen Geographie) sehr wahrscheinlich im Laufe der Zeit  verändert hat. Unglücklicherweise werden derartige lokale Variationen nicht vom VDatum-Werkzeug erfasst. Dieses kann man von hier zusammen mit den Daten herunterladen. Beim Vergleich mehrerer Örtlichkeiten wird man feststellen, dass VDatum im PAMLICA SOUND ein sehr grobes Instrument ist.
Für die gleiche VDatum-Örtlichkeit im Pamlico Sound ergeben sich 2-Sigma-Fehler (mit 95% Zuverlässigkeitsintervall) beim Umrechnen von mittlerer Meereshöhe auf mittlere obere Fluthöhe mit 84 mm, und für mittlere untere Ebbe mit 69 mm. Die Schwierigkeit ergibt sich weil die Spanne des Tidenhubs so klein ist. Alle ihre Daten sind auf einen Standardisierten Wasserhöhen-Index (Standardized Water Level Index – SWLI) umgerechnet. Dieser drückt die Meereshöhe als einen Prozentsatz vom Tidenhub aus, von 0 bis 100. Null bedeutet, dass die Höhe auf der Höhe von mittlerer unterer Ebbe liegt, 100 bedeutet, dass sie auf der Höhe der mittleren oberen Flut liegt. Der Tidenhub wird mit 200 mm angegeben… weil er klein ist und die Fehler groß sind, beträgt das Zuverlässigkeitsintervall bei diesem Tidenhub 90 mm bis 310 mm, eine Spannweite der Veränderung von mehr als drei zu eins.
Sie berechnen den Standardisierten Wasserhöhen-Index (SWLI) wie folgt:
SWLI = (Sample Elevation – MLLW) / (MHHW – MLLW) x 100     (Gleichung 1)
[Standardized Water Level Index    -> standardisierter Wasserhöhen-Index
 Mean Lower Low Water (MLLW)    -> mittlere Höhe der Ebbe
 Mean Higher High Water (MHHW) -> mittlere Höhe der Flut]
Beim Addieren und Subtrahieren von Werten addieren sich die Fehler quadratisch. Der Höhenfehler beim Beispiel (aus der Transferfunktion) ist ± 100 mm. Die MLLW und MHHW 2-Sigma-Fehler sind jeweils 69 mm and 84 mm.
Nun denn … wir können ein paar Zahlen in die Gleichung 1 einsetzen. Zur Vereinfachung des Berechnens nehmen wir einmal an, für ein Beispiel sei die Höhe 140 mm, MLLW sei 0 mm, und MHHW sei 200 mm. Die mittlere Meereshöhe sei halbwegs zwischen Hoch und Niedrig, also etwa 100 mm. Die Fehler berücksichtigen wir (als “±” Werte dargestellt). Beim Einsetzen der Werte (in mm) in Gleichung 1 erhalten wir den Zähler:
(Sample Elevation – MLLW) = (140 ± 100 – 0 ± 69) 
Die Fehler addieren sich quadratisch (der zusammengefasste Fehler ist die Quadratwurzel der Summe der Quadrate der einzelnen Fehler). Wir erhalten als Nenner 140 ± 122 mm
Der Nenner ist beim Einsetzen der quadrierten Fehler von Gleichung 1:
(MHHW – MLLW) = (200 ± 84 – 0 ± 69) = 200 ± 109 mm
Beim Dividieren oder Multiplizieren von mit Fehlern behafteten Zahlen muss man zuerst die Fehler in Prozent des Betrags des Bezugswerts angeben, und diese dann im Quadrat addieren. So erhalten wir:
(140 ± 87%) / (200 ± 55%) *100
Das ist gleich (.7 ± 103 %) x 100, oder 70 ± 72, wobei beide Zahlen Prozentwerte des Tidenhubs mal 100 sind. Da der Tidenhub 200 mm beträgt, bedeutet das für unser Beispiel eine Gesamt-Ungewissheit von etwa 72 Prozent, oder ± 144 mm. Am Schluss all ihrer Transformationen ist die Ungewissheit bei der Höhe des Beispiels (± 144 mm) größer als die Höhe des Beispiels selbst (140 mm).
Bei all dem ist natürlich die Annahme, dass ich ihre sehr unklaren Aussagen über die Ungewissheiten in ihrer Studie richtig interpretiere. Auf alle Fälle ist ein großes Geheimnis, wie sie für Tump Point einen 2-Sigma-Fehler von etwa 40 mm aus all dem erhalten.
Das sind die Probleme, die ich mit der Studie habe. Sowohl der Umfang wie auch die Rate ihres rekonstruierten Meereshöhen-Anstiegs während der vergangenen Jahre sind viel größer als die Beobachtungen; die Gezeitenhöhen schwanken in dem betroffenen Gebiet ständig, sie haben auch sehr wahrscheinlich in der Vergangenheit geschwankt, trotz der Behauptung der Autoren, dass dem nicht so gewesen wäre. Schließlich unterschätzen ihre Methoden zur Abschätzung der Fehler die Gesamt-Ungewissheit grob.
Weitere Punkte. In Bezug auf die C14 Datierung sagen sie:
C14-Altersdaten mit hoher Genauigkeit (8) wurden erhalten durch Bildung von doppelten oder dreifachen Proben aus dem gleichen Tiefenintervall und durch Benutzung eines „gepoolten Mittelwerts“ („pooled mean“ (Calib 5.0.1 software program)) für die Kalibrierung.
Das klang wie ein völlig logisches Verfahren … bis ich auf die Daten schaute. Abb. 5 ist ein Plot der einzelnen Daten, er zeigt Alter versus Tiefe, aus Supplementary Tables DR3 und hier. Sie haben das  “pooled mean” von drei Proben aus 60 cm Tiefe benutzt und drei Proben aus 80 cm Tiefe.
 
Abb. 5. Alter und Tiefe für die Sand Point Proben im oberen Meter des Bohrkerns. Rote Quadrate zeigen C14 Daten. Horizontale schwarze Balken zeigen die 2-Sigma Ungewissheit (95% Zuverlässigkeits-Intervall).
Sehen Sie sich die 60-cm-Tiefe an. Die drei getesteten Proben beziehen sich auf 1580, 1720, und 1776. Keiner der Fehlerbalken überlappt, also haben wir es klar mit drei Proben zu tun, die nachprüfbar unterschiedliche Alter haben.
Also, bevor wir deren Mittelwerte bilden und sie zur Kalibrierung der Alters/Tiefen-Kurve benutzen würde es da nicht Sinn machen, kurz nachzudenken, warum zwei Proben aus der genau gleichen 1-cm-dicken Scheibe des Bohrkerns nahezu zweihundert Jahre im Alter auseinander sind?
Das gleiche gilt für die 80-cm-Tiefe, wo das Alter von 1609 bis 1797 geht. Das sind wieder beinahe zweihundert Jahre Zeitunterschied.
Was übersehe ich hier? Macht es Sinn, diese ungleichartigen Daten zu mitteln, ohne zuvor darüber nachgedacht zu haben, was damit los ist?
Beitrag von Willis Eschenbach vom 26. Juni 2011
Die Übersetzung besorgte Hellmut Jäger EIKE

 (1) Reduce your CO2 footprint by recycling past errors!
(2) “Climate related sea-level variations over the past two millennia




Science Magazin: Verwechslung von Zahlenkunde mit Mathematik

Einem Online-Bericht auf ‚Nature Climate Change’ vom 29. Mai zufolge werden 1.211.287 Quadratkilometer arktischer Gebiete, die nur über Eisstraßen zugänglich sind, bis 2050 unerreichbar sein, ein Rückgang um 14%.
Ich habe laut aufgelacht. Manchmal sind die Versuche der AGW-Befürworter, den Klimaalarmismus wieder aufzublasen, eine absurde Burleske der wissenschaftlichen Methode.
Man kann dieses Zeug nicht wirklich ernst nehmen. Ich liebe es, wenn sie behaupten, mit einer Genauigkeit von einem Quadratkilometer zu wissen, a) die gegenwärtige Größe der über Eisstraßen zu erreichenden arktischen Gebiete und b) wie sich diese Größe während der nächsten 40 Jahre verändern wird.
Die Leute wundern sich weiterhin, dass das, was sie die „wissenschaftliche Botschaft der Gefahren der Klimaänderung“ nennen, nicht die US-amerikanische Öffentlichkeit erreicht. Wieder und immer wieder wird das auf ein Kommunikationsproblem geschoben… was, wie ich annehme, sogar stimmen könnte, aber nur, wenn man „Kommunikation“ als das Kurzwort ansieht für „versuchen, uns zum Schlucken einer weiteren unglaublichen Behauptung zu bringen“.
Der Gedanke, dass eine hypergenaue Behauptung wie diese nicht nur in einem begutachteten Journal erscheint, sondern auch in einem anderen begutachteten Journal erwähnt wird, enthüllt nur, wie niedrig die Schranke der Klimawissenschaft dieser Tage liegt. Frau Henniger, meine Wissenschaftslehrerin an der High School, hätte vor dem ganzen Klassenraum laut gelacht über eine solche Behauptung. „Aussagekräftige Ziffern!“ würde sie gerufen haben. „Was sagen eure Bücher über aussagekräftige Ziffern?“
 „Das Ergebnis einer mathematischen Operation kann keine aussagekräftigeren Ziffern haben als die kleinste Anzahl aussagekräftiger Ziffern in irgendeiner der Eingangsgrößen“, würde jemand sagen, und die Klasse würde grinsen.
Dieses Winken mit unechter Akkuratesse ist jedoch in einer Hinsicht nützlich. Wenn jemand das tut, ist es ein wertvoller Hinweis darauf, die Brieftasche zu untersuchen – man kann ziemlich sicher sein, dass man versucht, Ihnen etwas zu verkaufen.
Weil wissenschaftliche Studien gezeigt haben, dass wenn jemand mit solchen hyperakkuraten Zahlen als Ergebnis aufwartet,  in 94,716% aller Fälle das, was sie verkaufen wollen, genauso schwindlerisch ist wie die von ihnen behauptete Genauigkeit.
Willis Eschenbach
Link: http://wattsupwiththat.com/2011/06/28/mistaking-numerology-for-math/
Übersetzt von Chris Frey für EIKE




Leben ist wie eine Schokoladen-Blackbox

Eine „Blackbox”-Analyse könnte es uns gestatten, das „funktionale Äquivalent” dessen, was auch immer in der Blackbox vor sich geht, zu entdecken. Mit anderen Worten, wir könnten in der Lage sein, eine simple Funktion zu finden, die den gleichen Output ergibt wie aus der Blackbox. Ich dachte, dass es interessant ist, wenn ich erkläre, wie ich darauf kam, dies mit dem Klimamodell CCSM3 zu tun.

Als Erstes sammelte ich die Variablen des Inputs. Sie sind alle in der Form von
„ncdf“-Dateien, einem Standardformat, das sowohl Daten als auch Metadaten enthält. Ich habe diese in Excel geöffnet und in einer Datei zusammen gefasst. Diese Daten habe ich dann hier als Excel-Arbeitsblatt veröffentlicht.

Als Nächstes brauchte ich den Output. Am einfachsten ließ sich dieser aus der Graphik hier entnehmen. Ich habe diese Daten digitalisiert [?] mit Hilfe eines Digitalisierungsprogramms (und zwar des Programms „GraphClick“ auf einem Mac-Computer).

Meine erste Prozedur in diesem Verfahren war es, die verschiedenen Datensätze zu „normalisieren“ oder zu „standardisieren“. Dies bedeutet, sie so zu adjustieren, dass das Mittel Null ergibt und die Standardabweichung 1. Ich habe zu diesem Zweck die Excelfunktion ‚STANDARDIZE‘ verwendet. Dies erlaubt es mir, alle Daten in einem allgemeinen Größenformat zu sehen. Abbildung 2 zeigt jene Ergebnisse.

Abbidlung 2. Standardisierte Antriebskräfte, die vom Klimamodell CCSM 3.0 verwendet wurden, um eine Rückschau der Temperaturen des 20. Jahrhunderts zu erhalten. Dunkle schwarze Linien zeigen den Temperaturverlauf, wie ihn das Modell CCSM 3 sieht.

Ich kann viele Dinge erkennen, wenn ich das betrachte. Erstens, die Daten von CO2 haben das gleiche allgemeine Aussehen wie Schwefel, Ozon und Methan (CH4). Außerdem waren die Auswirkungen solarer Daten und vulkanischer Aktivitäten klar im Output der Temperaturen zu erkennen. Dies führte mich zu der Annahme, dass die GHG-Daten zusammen mit den solaren und vulkanischen Daten ausreichend seien, um das Temperaturoutput des Modells nachzuvollziehen.

Und tatsächlich zeigte sich, dass genau das der Fall war. Mit der Excelfunktion SOLVER verwendete ich die Formel, die (wie oben erwähnt) durch die Analyse des GISS-Modells entwickelt worden war. Diese Formel lautet*:

 T(n+1) = T(n)+lambda x delta F(n+1) / tau + deltaT(n) exp(-1 / tau)

Nun gut, lassen Sie uns diese Gleichung in unsere Sprache übersetzen. Sie sieht kompliziert aus, ist es aber nicht.

T(n) ist die Temperatur „T” zum Zeitpunkt „n”. Also ist T(n+1) die Temperatur der nachfolgenden Zeitspanne. In unserem Falle rechnen wir mit Jahren, so dass hier die Temperatur des nächsten Jahres gemeint ist.

F ist die Antriebskraft (forcing) in Watt pro Quadratmeter. Dies ist die Summe aller Antriebe, die hier betrachtet werden. Die Zeitkonvention ist die Gleiche, so dass F(n) den Antrieb F zum Zeitpunkt n bedeutet.

Delta, bedeutet „Änderung nach…”. Also ist deltaT(n) die Temperaturänderung seit der voran gegangenen Zeitspanne, oder T(n) minus der vorherigen Temperatur T(n-1). Korrespondierend dazu ist delta F(n) die Änderung der Antriebskraft seit der vorherigen Zeitspanne.

Lambda, ist die Klimasensitivität. Und schließlich ist tau, die Zeitverzögerugnskonstante (the lag time constant). Diese Zeitkonstante legt die Zeitspanne fest, bis das System auf den Antrieb reagiert. Und zu guter letzt, der Terminus „exp(x)“ bedeutet e hoch x, oder 2,71828… hoch x.

Also im Klartext: Die Temperatur im nächsten Jahr oder T(n+1) ist gleich der Temperatur dieses Jahres T(n) plus der sofortigen Temperaturzunahme wegen der Änderung der Antriebskraft delta F(n+1)/tau plus dem Verzögerungsterm {lag term} deltaT(n) exp(-1 /tau ) aus dem vorangegangenen Antrieb. Dieser Verzögerungsterm ist notwendig, weil die Auswirkungen einer Änderung des Antriebs nicht sofortiger Natur sind.

Abbildung 3 zeigt das Endergebnis dieser Rechnung. Ich habe nur eine Teilmenge der Antriebe verwendet, nämlich den Antrieb durch Treibhausgase (GHGs), den solaren und den vulkanischen Input. Die Größenordnung der übrigen Kräfte ist hinsichtlich des Antriebspotentials so gering, dass ich sie in der Rechnung nicht berücksichtigt habe.

Abbildung 3. Gleichung zum funktionalen Äquivalent des CCSM3-Klimamodells im Vergleich zum aktuellen Output von CCSM3. Beide sind etwa identisch.

Verglichen mit dem GISSE-Modell ergibt sich, dass CCSM3-Modell ebenfalls sklavisch dem verzögerten Input folgt. Sie passen ebenfalls exzellent zusammen mit einem Korrelationsfaktor von 0,995. Die Werte für Lambda und Tau sind auch ähnlich denen, die man während der GISSE-Untersuchung gefunden hatte.

Was bedeutet das alles nun?

Nun, erst einmal bedeutet es, dass die Output-Temperatur des CCSM3-Modells ebenso wie beim GISSE-Modell funktional äquivalent zu einer einfachen, eindimensionalen zeitlich verzögerten linearen Transformation der Input-Antriebskräfte ist.

Sollten die Modelle GISSE und CCSM3 in gleicher Weise funktionieren, bedeutet es, dass man sehr wahrscheinlich die gleiche lineare Abhängigkeit des Outputs vom Input auch in anderen Klimamodellen finden wird

 (Lassen Sie mich hinzufügen, dass das CCSM3-Modell nur sehr schlecht den historischen Temperaturrückgang von ~1945 bis ~1975 abbilden kann … genau wie auch das GISSE-Modell).

Wenn Sie glauben, dass die Temperatur unseres Planeten eine einfache lineare Transformation durch die eingehenden Antriebskräfte ist, glaube ich, dass diese Modellergebnisse vernünftig klingen, zumindest theoretisch.

Ich selbst empfinde den Gedanken eines linearen Zusammenhangs zwischen Input und Output in einem komplexen, vielfach wechselwirkenden, chaotischen System als eine lächerliche Fantasie. In keinem anderen komplexen System, das ich kenne, ist das so. Warum sollte das Klima so einfach und mechanistisch vorhersagbar sein, wenn es alle anderen, vergleichbaren Systeme nicht sind?

Dies alles stellt nach meiner Ansicht den Kern des Missverständnisses des gegenwärtigen Standes der Klimawissenschaft dar. Das aktuelle Klima-Paradigma, wie es in den Modellen zum Ausdruck kommt, lautet, dass die globale Temperatur eine lineare Funktion der Antriebe ist. Ich finde das extrem unwahrscheinlich, sowohl vom theoretischen als auch vom praktischen Standpunkt. Diese Behauptung ist das Ergebnis der schlechten Mathematik, die ich detailliert in “The Cold Equations“ aufgelistet habe [auf Deutsch bei EIKE hier]. Also: falsche Substitutionen gestatten es ihnen, alles außer Antrieb und Temperatur aus den Gleichungen herauszuhalten … was zu der falschen Behauptung führt, dass bei einer Zunahme der Antriebskräfte die Temperatur linear und sklavisch folgen muss.

Wie man sieht, scheitern sowohl das GISSE- als auch das CCSM3-Modells damit, die Abkühlung nach 1945 abzubilden. Die Behauptung eines linearen Zusammenhangs zwischen den Antriebskräften und der Temperatur scheitert am Praxistest der realen Welt genauso wie am gesunden Menschenverstand.

Willis Eschenbach

TECHNISCHE BEMERKUNGEN ZUR KONVERSION IN WATT PRO QUADRATMETER

Viele der in das CCSM3-Modell eingehenden Antriebskräfte werden in anderen Einheiten als Watt/Quadratmeter angegeben. Viele Konversionen wurden benutzt.

Die Werte von CO2, CH4, NO2, CFC-11 und CFC-12 wurden in w/m² umgerechnet, und zwar mit Hilfe der verschiedenen Formeln von Myhre in Tabelle 3.

Der solare Antrieb wurde mit Hilfe der Division des äquivalenten mittleren Antriebs durch 4 umgerechnet.

Für die vulkanischen Auswirkungen, die im CCSM3-Modell als die gesamte ausgeworfene Masse in Tonnen angegeben wird, gibt es keine Standardumrechnung in W/m². Daher wissen wir nicht, welchen vulkanischen Antrieb das CCSM3-Modell benutzt. Folglich passte ich diese Daten an die gleichen W/m²-Werte des GISSE-Modells an. Danach adjustierte ich die Werte schrittweise, um sie passend zu machen. Das Ergebnis zeigt das „Volcanic Adjustment“ oben in Abbildung 3.

Den Originalartikel von Willis Eschenbach finden Sie hier:

Übersetzt von Chris Frey für EIKE

* Leider werden in diesem Editor mathematische Sonderzeichen nicht abgebildet