Sogar Alarmisten sehen Hansens Warnung als Farce an

Die neue Ausarbeitung von Hansen und 16 Co-Autoren, bei letzteren ist das vielleicht die erste für "Klimaforschung", wird von einer PR / Lobbying Firma Glover Park, komplett mit einer Pressemitteilung gefördert. Die Ausarbeitung wurde von einigen der weniger vorsichtigen Medien angepriesen, noch bevor es der Fachzeitschrift- Atmospheric Chemistry and Physics Discussions – zur Verfügung gestellt wurde. Noch wichtiger ist, das die gesamte PR stattfindet, bevor die Ausarbeitung durch ein Peer Review gelaufen ist- ein Prozess der im Gange ist und wahrscheinlich noch Monate dauert. Hansen hat die Umgehung des normalen Peer-Review-Prozess eingestanden, um den im Dezember in Paris erwarteten internationalen Klimavertrag zu beeinflussen.
Hansen und seine Koautoren argumentieren, dass das IPCC und andere Anhänger der anthropogenen Treibhaustheorie zu vorsichtig gewesen seien. Eine Erwärmung von 2 Grad Celsius, oft als "Limit" wie viel Erwärmung die Erde und ihre Bewohner vertragen können, ist "sehr gefährlich". Im Gegensatz zur IPCC-High-End-Schätzung des Meeresspiegelanstiegs von 2,7 Meter bis 2100, projizieren Hansen und seine Kollegen 10 Meter Anstieg bis 2100 mit einem Anstieg von 1,80 m mehr in wenigen Jahrzehnten danach. Die Ausarbeitung suggestiert, künftiger Klimawandel könnte sich in Superstürmen verheerend auf tief liegende Inseln, Küsten und sogar weit im Landesinneren auswirken.
Klingt wie ein vielversprechender Katastrophenfilm, nicht wahr? Ein unternehmungslustiger Regisseur würde es "der Tag vor dem Day After Tomorrow" nennen (mit einem Anklang an South Park [Kinder Komik]).
Die interessanteste Sache bei der neuen Veröffentlichung von Hansen, ist die Reaktion seiner Alarmisten Kollegen.
Die Washington Post zitierte Mann:

"Ihr Klimamodell-Szenario, bei dem das Schmelzwasser von Grönland und der Antarktis durch die Erwärmung der Pole verursacht ist, führt zu einer fast vollständigen Abschaltung des Wärmetransport der Ozeane in höhere Breiten, kühlt die meisten Teile der Welt (vor allem die mittleren Breiten oberhalb der Tropen) und scheint eher weit hergeholt zu sein."
Trenberth schrieb:

"Die Frage ist, wie relevant [die Schätzungen von Hansens et al.] in der realen Welt sind und was geschieht, wenn die globale Erwärmung fortschreitet? Sie scheinen mir überhaupt nicht realistisch. Es gibt viel zu viele Annahmen und Hochrechnungen für alles hier, um ernst genommen zu werden, außer um weitere Studien zu fördern." Er fuhr fort:" Die neue Hansen et al. Studie ist provokant und interessant, aber voll von Spekulationen und "was wäre wenn" -Szenarien. Es hat viele Vermutungen und riesige Hochrechnungen auf der Basis ganz fadenscheiniger Beweise … "

In Bezug auf die Beweise für drohende Superstürme setzt Hansen in erster Linie auf eine einzige umstrittene Ausarbeitung unter Verwendung von Methoden, "die selten in Quaternary Sciences [1] verwendet werden und in der Regel nicht ohne Überprüfung durch andere Verfahren akzeptiert werden.“ so der Geologe Max Engels, Uni Köln, der zusammenfasst: "… meiner Meinung nach, ist Kapitel 2.2 [der Abschnitt über Superstürme] eine etwas einseitige Perspektive auf geologische Beweise für … Mega-Stürme.”

"Das Beste was die Freunde von Hansen in der Verteidigung seiner Veröffentlichung aufbringen können ist“ meint Dr. Mann: „Unabhängig davon, ob all die Besonderheiten der Studie sich als richtig erweisen, haben die Autoren eine absolut kritische Diskussion ausgelöst. "

Lange bevor er die NASA verlies, hörte Hansen auf, ein neutraler Klimaforscher zu sein und wurde ein Umweltaktivist. Mit seiner neuen Veröffentlichung, hat er seinen Titel "Climate Chicken Little in Chief." [etwa: wenig gefragter Chef der Klima Hühner] weiter verteidigt. Er fährt fort, ein unübertroffener Klima Sonderling zu sein.
Erschienen auf Heartland, 31.Juli 2015
Übersetzer Andreas Demmig
http://news.heartland.org/newspaper-article/2015/07/31/even-alarmists-view-hansen-warning-farce
[1] Quelle Wiki.org
Quaternary Science ist ein interdisziplinäres Forschungsgebiet mit Schwerpunkt auf dem Quartär, das die letzten 2.600.000 Jahre umfasst. Die Feldstudien der letzten Eiszeit und des jüngsten Interstadial, das Holozän, nutzen Proxy-Beweise, um die Umgebungen in dieser Zeit der Vergangenheit zu rekonstruieren und die Klima- und Umweltveränderungen die aufgetreten sind.




Über diese 30.000 Dollar-Wette, um die globale Erwärmung zu widerlegen

Diese Art Herausforderung taucht immer wieder auf; hier z. B. hinsichtlich Kreationismus.
Das Problem mit der Herausforderung des Klimawandels ist, dass kein Mensch leugnet, dass es wahrscheinlich ein anthropogenes Signal gibt. Die Frage lautet lediglich, wie groß dieses Signal ist.
Dieser Artikel in der Washington Post bringt vielleicht eine der besten Übersichten zu diesem Thema.
Man kann in einem Laboratorium zeigen, dass CO2 IR-Wellen absorbiert, und zwar innerhalb der gleichen Bandbreite, wie sie von der Erde ausgehen. Die Daten zeigen, dass es auf der Nordhemisphäre eine Verschiebung der mittleren Temperatur seit Beginn der industriellen Revolution gegeben hat.
Die weitaus meisten Menschen, die dieses Thema propagieren, versuchen die Skeptiker einzuengen, indem sie das Thema als Alles-oder-Nichts-These präsentieren, und all jene, die skeptische Statements nicht lesen, glauben daran. In der Realität gibt es auf Seiten der Skeptiker eine viel größere Bandbreite von Standpunkten zu diesem Thema; im Folgenden habe ich versucht, diese in Fettdruck hervorzuheben. Es gibt einige Leute, die lächerlich dumme Behauptungen von sich geben, dass es kein anthropogenes Signal gibt, aber das ist nur eine sehr kleine Minderheit. Viele Skeptiker sehen diese Leute als Internet-Trolle, die wir nicht füttern wollen.
Ein besserer Weg, die [Aussagen der] Skeptiker zu untersuchen ist es, sie als wissenschaftliche Kritiker zu betrachten und spezifischer diese Kritik zu evaluieren als Gegenstand, der mit jedem Schritt der wissenschaftlichen Methode folgt. Diese wissenschaftliche Standard-Methode geht so:
Beobachtungen à Hypothese à Experiment à Analyse. Würden wir bis in die neunziger Jahre zurückgehen, könnten wir feststellen, dass dies sparsam ausgeteilt worden ist als…
Beobachtungen: Eine Korrelation zwischen Erwärmung und CO2 und dass CO2 Infrarot absorbiert. In Eisbohrkernen existierte der gleiche Trend,
Hypothese: Emissionen verursachen globale Erwärmung
Experiment: Das Klimamodell
Analyse: eine genaue Untersuchung als Nachhersage, statistisch signifikanter Erwärmungen, Hockeyschläger usw. Die von Ende der neunziger Jahre bis zu Beginn dieses Jahrhunderts ausgerufene Schlussfolgerung, dass die globale Erwärmung real sei, war wissenschaftlich akzeptierbar. Der nächste Schritt wäre normalerweise die Begutachtung und die Sorgfalt, und ab hier geriet die Theorie in Schwierigkeiten.
Die Probleme:
Die Beobachtungen sind vor Ende der siebziger Jahre nicht besonders gut und werden immer schlechter, wenn man bis zu den ersten Aufzeichnungen zurückgeht. Wir haben nicht nach Trends in Zehntelgrad Celsius gesucht und wir haben unsere Instrumente dazu nicht kontrolliert. Stationen wurden verlagert, Städte sind gewachsen usw. All das würde eine Warm-Verzerrung an jenen Stationen hervorrufen. Klar gesagt, die Daten sind von schlechter Qualität. Aber auch andere Probleme tauchten auf. Die Daten aus Eisbohrkernen, gewonnen mit besseren Instrumenten, zeigen in der Tat, dass CO2-Änderungen Temperaturänderungen hinterher laufen (hier). Noch wichtiger, in allen Datensätzen hat die Temperatur aufgehört zu steigen, wohingegen das CO2-Niveau seinen Aufwärtstrend unvermindert fortsetzt. Auch haben wir noch nicht den „Hot Spot“ entdeckt, der ein sicherer Beweis für den anthropogenen Beitrag sein sollte.
Unsere Hypothese, wie das Klimasystem funktioniert, ist im Wesentlichen in den Klimamodellen kodiert. Es gibt davon 114, die vom IPCC benutzt werden, und in allen zeigt sich ein Aufwärtstrend, und zwar schneller als die Messungen hergeben, und die meisten von ihnen sind falsifiziert worden. Aber die Arbeit, sie zu falsifizieren, machte man erst vor sehr kurzer Zeit.
In dieser Studie werden die letzten 20 Jahre Simulationen mit einem Vertrauensintervall bei 90% falsifiziert. Innerhalb des Blogs gibt es eine andere Studie, in der Simulationen mit einem Vertrauensintervall bei 98% falsifiziert werden (hier). Jene Studie verweist auf eine dritte Studie, wo Gleiches beim 95%-Vertrauensintervall gemacht wird. Das bedeutet, die Chance, dass die Wahrscheinlichkeit, dass die Modelle lediglich zufällig falsch liegen, 10%, 2% oder 5% beträgt.
Da die Modelle mathematische Repräsentationen dessen sind, was wir über die Funktionsweise des Klimasystems zu wissen glauben, bedeutet dies, dass die Klimawissenschaftler falsch lagen. Als Reaktion gab es hektische Aktivitäten, mit denen versucht worden ist, den Stillstand mit irgendetwas zu begründen und zu erklären, aber die Erklärung eines Problems mit mathematischen Modellen im Nachhinein und der Behauptung, dass unsere Hypothese immer noch gültig ist, erfordert einen eigenen Zeitraum zur Validierung.
Es gibt bis heute deutlich über 10 unterschiedliche Erklärungen für den Stillstand, wobei die meisten davon ihn einfach hinweg erklären. Dies bedeutet, dass der Stillstand in seinem gegenwärtigen Stadium übererklärt ist und dass mehr als eine jener Studien falsch sein muss. In der Wissenschaft ist es unsere Absicht, zu höchstens 5% falsch zu liegen, aber offensichtlich gilt das nicht für die Klimawissenschaft.
Diese Divergenz hat auch die unter dem Begriff Klimasensitivität bekannte Metrik beeinflusst. Klimasensitivitäten weisen eine thermische Zunahme von 1,2 bis 1,5°C pro Verdoppelung des CO2-Gehaltes auf, das heißt, falls wir von einer Verdoppelung des gegenwärtigen Wertes von 400 ppm ausgehen, würden die Temperaturen etwa um 1,2 bis 1,5°C steigen. Klimasimulationen erzeugen jedoch viel höhere Ergebnisse, nehmen sie doch typischerweise eine Erwärmung zwischen 3 und 4,5°C pro Verdoppelung an [siehe Bild oben rechts]
Schaut man noch tiefer, gibt es weitere wesentliche Probleme um die Modelle, nämlich unsere Experimente selbst. Abhängig vom Compiler, von Betriebssystemen und sogar Hardware kann sich der Modelloutput durch Rundungsfehler verändern (hier). Sie können keine Wolken vorhersagen. Auch haben sie nicht die Auflösung, um viele der Wärme transportierenden Prozesse in der Atmosphäre abzubilden. Aber das sind nur die Klimamodelle selbst. Die beeinflussenden Modelle [impact models] oder integrierte Modelle der Zustandsbeschreibung [integrated assessment models] verfügen über fast keine Daten, auf denen sie ihre Behauptungen basieren können. Das ist der Grund für die Feststellung des IPCC, dass die Kosten der Klimaänderung für eine Erwärmung um 2,5°C etwa 0,2% bis 2% des globalen BIP ausmachen. Auch dies gilt für Vorhersagen für fast 100 Jahre in der Zukunft, die derzeit weder getestet noch falsifiziert werden können.
Wenn man die Kosten der Emission von einer Tonne CO2 evaluiert, hängen die ‚integrated assessment models‘ sehr stark vom Zinsfaktor [discount rate] ab. Die gegenwärtige Administration nennt einen Zinsfaktor von 3% bei 37 Dollar pro Tonne, aber der angemessenste Zinsfaktor, der auch der langzeitliche ist, liegt vermutlich bei 7%. Das bedeutet, die tatsächlichen sozialen Kosten von Kohlenstoff betragen etwa 4 bis 5 Dollar pro Tonne. Wie in einer EPW-Senatsanhörung diskutiert worden ist, hat es die gegenwärtige Administration nicht vermocht, den Zinsfaktor von 7% zu erschaffen, wie es erforderlich ist, sondern stattdessen Raten von 5%, 3% und 2.5% erschaffen. Der Grund für diese so stark variierenden Kosten ist teilweise der Unsicherheit der integrated assessment models geschuldet, denen man die Ergebnisse der GCMs eingibt. Eine allgemein verbreitete Redensart hierzu ist GIGO (Garbage in, Garbage out [zu deutsch MRMR – Müll rein, Müll raus]).
Aber am schlimmsten ist es um die Analyse bestellt. Als Teil der Versuche, die Theorie zu retten, hatte man hier einige sehr grobe statistische Praktiken und Daten-Vergewaltigungen durchgeführt. Die erste hier zu nennende Monstrosität war Michael Manns Hockeyschläger. Er verwendete einen speziellen Algorithmus, um seine Baumringdaten auszuwerten. Dies wurde von Steve McIntyre zerlegt, einem Statistiker, der nicht nur die völlig falsche Wichtung nachweisen konnte, sondern auch den Zeitpunkt der Nahtstelle herausgefunden hatte, an dem die Thermometer- und die Baumringdaten auseinanderliefen.
Seitdem hat es viele weitere Hockeyschläger gegeben, die allesamt als riesige Müllhaufen zugrunde gingen. Trenberths Hockeyschläger, ebenfalls aus Baumringdaten, verschwand in der Versenkung, als offenbar wurde, dass er eine ganz spezielle Auswahl von nur 12 Bäumen herangezogen hatte und dass bei Verwendung des gesamten Datensatzes der Hockeyschläger verschwinden würde. Im Jahre 2013 haben Marcott et al. einen Hockeyschläger veröffentlicht, der multiple Proxydaten gemittelt hatte, außer dass beim Blatt des Hockeyschlägers nur drei dieser Proxys Verwendung fanden. Diese waren statistisch völlig unsicher und wiesen einige Proxy-Re-Arrangements auf, die zufällig mit der industriellen Revolution zusammenfielen.
Man hat die 97% Konsens-Studien erwähnt, die es wirklich gibt, die aber grauenhaft sind. Cook et al. wurden schon sehr oft widerlegt, und tatsächlich empfehle ich dringend, auch einige der Dinge zu lesen, auf die Brandon Schollenberger hingewiesen hat, obwohl dies nicht begutachtet ist. Die frühere 97%-Studie von Doran und Zimmerman war genauso dumm. Das wallstreet journal hat beide angesprochen, aber ich empfehle diese Site für eine ausgewogene Kritik. Tatsächlich ist die Anzahl der Abstracts und Methoden, die ich gelesen habe und die komplett Müll sind, so erstaunlich, dass ich sie hier nicht alle verlinkt habe.
So wird die Frage immer ultimativer: Welcher Beweise bedarf es, bevor man einräumt, dass das Klima nicht so sensitiv auf anthropogene Emissionen reagieren könnte wie ursprünglich gedacht?
Unabhängig von den Problemen ihrer wissenschaftlichen Methodik scheinen auch einige ethische Tatbestände aufzutauchen. Einem Statistiker in Diensten einer linksgerichteten Denkfabrik wurde jüngst gekündigt, nachdem er etwas über die statistischen Schwächen hinsichtlich der anthropogenen Erwärmung geschrieben hatte. Etwa einen Monat zuvor hat der Klimawissenschaftler Lennart Bengtsson versucht, einer konservativeren und klimaskeptischen Denkfabrik beizutreten. Er musste sich bald darauf aber wieder zurückziehen aufgrund von Drohungen, seine Arbeiten zu entfernen und allgemein seiner Sicherheit und seines Wohlbefindens.
Eine seiner Studien, die sich auf die Diskrepanzen zwischen Modellen und Messungen bezog, wurde zurückgewiesen mit der Begründung, dass sie nur teilweise empfohlen werden könnte, weil man das Gefühl hatte, dass andere Teile schädlich seien. Die Begutachter erwähnten auch, dass man Klimamodelle nicht mit beobachteten Daten validieren sollte. Einige Jahre zuvor war es Klimagate.
Eine psychologische Studie versuchte, Skeptiker als Verschwörungstheoretiker hinzustellen, als man angeblich aus ethischen Gründen einen Rückzieher machte. Die Forscher und ihre Gemeinschaft betrachteten das als vollkommen in Ordnung, um Gegner zu erniedrigen, und dass der Rückzieher aufgrund juristischer Einsprüche erfolgt ist. Die wüste Verteidigung geriet so antagonistisch, dass der Herausgeber die Zurückweisung als aufgrund der Verletzung der Ethik in diesen Studien erfolgt begründen musste. Weitere vermeintliche Gründe sollen der Tonfall und der Unwillen oder die Unfähigkeit der Autoren gewesen sein, Änderungen vorzunehmen. Und es gibt die Studie, der zufolge Lügen und Übertreibungen hinsichtlich der Ergebnisse in Ordnung seien.
Falls man bei Skeptical Science hineinschaut, kann man sehen, dass man dort versucht, skeptische Behauptungen zu widerlegen, aber in neun von zehn Fällen benutzt man dafür Strohmänner, Beleidigungen oder Trugschlüsse. Nehmen wir zum Beispiel das gute Argument, dass billige fossile Energie die ärmsten Nationen der Welt erheblich voranbringen könnte und dass es sehr schädlich ist, ihnen den Zugang dazu zu verweigern. Sie bestreiten das mit dem Hinweis, dass projizierte Klimaschäden die ärmsten Länder am meisten betreffen würden. Das kann zwar stimmen, ist aber nicht das gleiche Argument. Wenn man armen Ländern die Energie vorenthält, die sie zum Wachstum brauchen und die sie unabhängiger von Energieimporten macht, damit diese Länder von weniger Stürmen in der Zukunft betroffen werden, ist das schlicht idiotisch.
Aber nehmen wir an, man ist nicht skeptisch hinsichtlich der Ethik oder ihrer methodischen Schummeleien. Nehmen wir an, man beschließt, ab jetzt das Risiko in der Zukunft verhindern zu wollen. Dann kann man immer noch skeptisch sein hinsichtlich der vorgeschlagenen Lösungen. Schauen wir zum Beispiel auf die Energiepolitik. Die billigste, effektivste und einfachste Energiepolitik wäre eine Kohlenstoff-Steuer. 4 Dollar pro Tonne sind genau der Preis für zukünftige Schäden. Sie erlaubt es den Ländern und Märkten auch zu arbeiten anstatt darauf zu hoffen, dass die Bürokraten nicht alles durcheinanderbringen. Im Wesentlichen bestraft eine Kohlenstoff-Steuer den Kohlenstoff für seine aktuellen Kosten anstatt nicht gewählten Funktionären enorme Macht zu verleihen wie jüngst der EPA.
Aber vielleicht glauben Sie nicht an Märkte, vielleicht glauben Sie, dass die Regierung nicht ganz so inkompetent ist, wie sie ständig zu beweisen versucht. Das ist in Ordnung, kann man doch dann immer noch skeptisch sein, wie das Geld ausgegeben wird. In den USA bekommen Solarpaneele eine unglaubliche Markt-Bevorzugung in Gestalt eines Steuernachlasses von 40% auf jede Installation. Außerdem, während alle Sektoren ihre Kapital-Investitionen durch das Abschreiben von Gewinnen mit der Zeit ausgleichen, gleichen sich die Kosten für Solarpaneele innerhalb von 5 Jahren zu 100% aus, das ist weniger Zeit als für einen Bürosessel. Mit diesen Vergünstigungen ist Solarenergie immer noch die teuerste Form der Stromerzeugung (hier).
Wenn man den Anstieg der Kosten für Solarenergie nur um die Steuernachlässe korrigiert, kommt man auf Kosten in Höhe von 140 Dollar pro Megawattstunde für Standard-Installationen. Die gleiche Korrektur angebracht hinsichtlich der Windenergie würde dessen Kosten auf 88 Dollar pro Megawattstunde steigen lassen. Die Periodizität für das Netz ist ein externer Effekt, den man ins Kalkül ziehen sollte. Davon ausgehend muss man den Faktor Abwertung von Wind und Solar als Kostenfaktor berücksichtigen. Integriert man diesen in die Lebensspanne von Wind und Solar, multiplizieren sich die Kosten um fast das 4,5-fache.
Kernkraft mit Kosten von näherungsweise 96 Dollar pro Megawattstunde ist substantiell billiger, bringt viel weniger Kohlenstoff-Emissionen, hat eine längere Lebensdauer und ist sicherer. Aber wir hören ausschließlich von den Beiträgen durch Erneuerbare, obwohl diese buchstäblich in jeder Hinsicht schlechter sind.
All dies sind Dinge, die uns hinsichtlich der Authentizität der Theorie begegnen. Der nächste Schritt wäre die Falsifikation, aber es ist schwierig, ein falsifizierendes Beweisstück zu finden. Egal was derzeit oder in Zukunft hinsichtlich globaler Erwärmung bzw. Klimaänderung passiert – man scheint es vorhergesagt zu haben. Wir erleben sowohl wärmere als auch kältere Frühjahre/Sommer/Herbst/Winter. Es gibt Dürren und Überschwemmungen, kalt und heiß. Im Winter 2009/2010 haben wir gehört, wie der Klimawandel insgesamt zu mehr Schnee im Winter führen wird, wohingegen wenige Jahre zuvor das Ende von winterlichem Schneefall verkündet worden war. Zum Teufel, das war vor vier Jahren, und dennoch macht man in diesem Jahr immer noch immer wildere crappy [hier steht beim LEO die Übersetzung!] Behauptungen zur globalen Erwärmung, wobei man vollständig ignoriert [leugnet?], dass die mittlere Temperatur in jenem Teil Russlands im Februar während des gesamten Aufzeichnungs-Zeitraumes über dem Gefrierpunkt liegt [?]
Inzwischen sind fast zwei Jahrzehnte ohne Temperaturtrend vergangen, und seit etwas über einem Jahrzehnt ist der Trend sogar leicht negativ. Das reicht offensichtlich noch nicht. Es gibt Perioden innerhalb dieser Zwischeneiszeit, in denen es wärmer war, und solche, in denen es kälter war. Was also ist die Referenzperiode für ein klimatisches Normal? Vor ein paar hundert Jahren erreichte die Temperatur eine Wärmespitze ohne Treibhausgas-Emissionen, der Zeitraum von 1914 bis 1940 zeigte einen ähnlichen Trend wie der Zeitraum von 1980 bis 2000 – warum ist letzterer anthropogen und ersterer nicht? Wie kann das CO2 diesmal die treibende Kraft sein, wenn es kaum oder gar keine Beweise gibt, dass es jemals in der Vergangenheit der Haupttreiber war?
Warum sollten wir den Erklärungen oder Korrekturen des Stillstands glauben, wenn die gleichen Individuen noch vor ein paar Jahren darauf verwiesen, wie perfekt die Modelle seien? Es gibt keinen Mechanismus, der Wärme aus der unteren Troposphäre auf magische Weise in die Tiefsee absinken lässt. Messungen aus der Tiefsee haben wir erst seit ein paar Jahren, und sie sind immer noch nicht zuverlässig. Außerdem wird diese Zone begrenzt durch wärmere obere Ozeanschichten und ist außerdem Schauplatz geothermische Erwärmung. Wie soll die Wärme dorthin gelangen, ohne in der oberen, der unteren Atmosphäre oder den oberen Ozeanschichten aufspürbar zu sein? Auch gibt es keinen Mechanismus, der beschreiben könnte, warum sich die gesamte Wärme in der Arktis konzentrieren soll, von wo wir auch keine Messungen haben.
Wo ziehen wir die wissenschaftliche Grenze zwischen natürlichen und künstlichen Trends, und woher wissen wir, dass diese Grenze akkurat ist? Warum ist es in der Klimawissenschaft nicht erforderlich, validiert zu werden? Was falsifiziert die Beweise? Angesichts des Berges von Problemen um die Unsicherheiten, die mangelhafte Methodik und schrecklicher Analysen  bezeichnen die meisten Skeptiker einschließlich ich selbst das ganze Theater als Bullshit.
Link: http://wattsupwiththat.com/2014/07/06/about-that-30000-to-disprove-global-warming-contest/
Übersetzt von Chris Frey EIKE




Ozean-Versauerung? Welche Ozean-Versauerung?

Es sind die Beweise, die mir auf der Warmisten-Seite des Streits fehlen, wir haben einfach keine Temperaturaufzeichnung, die lang genug oder genau genug ist, um irgendeinen anthropogenen Effekt da herauszulesen. Proxys bieten eine vernünftige langzeitliche Sicht, sind aber kaum geeignete Analogien für klimatologische Variationen der letzten 200 Jahre oder so. Jeder, der einmal mit Computermodellen gearbeitet hat, sollte wissen, dass diese eher das zeigen, was man gerne sehen möchte, und man sollte sie mit einer Prise Salz betrachten. Glücklicherweise muss ich diese Dinge nicht selbst vertreten, es gibt viele andere Kommentatoren mit besseren Referenzen, um diese Argumente für mich geltend zu machen. Ich bin lediglich ein Student des chemischen Ingenieurswesens.
Während der letzten Wochen erschien ein Beitrag, der mehr den Autor lächerlich zu machen schien als die Behauptungen zu widerlegen. Ich war geschockt und wartete, zunächst ein paar Tage, dann eine Woche. All jene, die ich als viel kompetenter angesehen habe als mich selbst, blieben still. Sicher gab es einen Kommentar zu Henry’s Law [Henry’s Law: Berechnung der Konzentration eines Gases in Lösung in Abhängigkeit von der Temperatur], aber nichts, was ausreichend genug in die Tiefe ging, um die Untergangs-Szenarien zu widerlegen, die hinsichtlich der Versauerung der Ozeane entworfen worden waren. Unglücklicherweise ist es eine Widerlegung, was wir brauchen. Die Ozean-Versauerung ist die Trumpfkarte der Kohlenstoff-Kontrolleure, das Ass in ihrem Ärmel oder irgendeine ähnliche Gewinnkarte.
Es ist leicht, die globale Erwärmung und den damit in Verbindung gebrachten Untergang zu widerlegen aufgrund der zahlreichen, diesen Behauptungen widersprechenden Beweise. Im Falle der Ozean-Versauerung ist das damit entworfene Untergangs-Szenario viel schwieriger zu widerlegen. Um es damit aufzunehmen, braucht man Verständnis der Chemie; pH, Alkalinität, Puffer, starke bzw. schwache Säuren. Man muss sich aber auch in der Mathematik auskennen; Henry’s Law, pH und Gleichgewichts-Konstanten. Darum taucht die Ozean-Versauerung erst als letzte Bastion der Rechtfertigung der Kohlenstoff-Kontrolleure auf. Sie, [die Leser], mögen das nicht verstehen, aber sie verstehen es auch nicht.
Bevor ich anfange, möchte ich ein paar Punkte klarstellen:
1. Die Ozeane versauern.
2. Das bedeutet gar nichts.
Falls Sie mit dieser Materie nicht vertraut sind, schauen Sie dieses von NOAA produzierte Video:
http://www.youtube.com/watch?v=xuttOKcTPQs
Das ist ein ausgezeichneter Bezugspunkt für uns; es zeigt die Argumentation klar und prägnant. Allerdings übertreibt man ein wenig mit visuellen Demonstrationen [Original: However it waves a hand over the how in favor of visual demonstrations.] Damit möchte ich mich später befassen. Zunächst möchte ich über die der Ozean-Versauerung zugrunde liegenden Prozesse sprechen.
Ich habe viele Laborexperimente mit CO2 und Wasser durchgeführt. Erstes Ziel war, eine Probe Flusswasser mit (normaler) CO2-Atmosphäre zu mischen. Mit dieser Methode wären wir eventuell in der Lage, die Puffer-Kapazität von Wasser zu überwinden und haben einen pH-Wert von 6,3 erreicht. In einem anderen Experiment ließen wir Wasser und Luft mit einem variablen CO2-Anteil in einer Extraktions-Kolonne gegeneinander strömen, das Wasser von oben nach unten und die Luft von unten nach oben. Dieses Experiment war bereits viele Male während des Semesters durchgeführt worden, ohne das Wasser zu wechseln. Deswegen haben mein Laborpartner und ich höhere CO2-Konzentrationen beim Ausströmen als beim Einströmen gesehen, da CO2 bei allem unter 19% ausgasen würde, was geringfügig unter dem Maximum lag, mit dem wir das Wasser in unserer Säule versetzen konnten.
Um die Versauerung zu verstehen, muss man ein wenig von Massentransporten verstehen. Innerhalb einer homogenen Flüssigkeit, die sich im Gleichgewicht befindet, sorgt und erhält die Diffusion eine wirklich gleichmäßig verteilte Konzentration. Wann immer es eine Nahtstelle wie zum Beispiel Luft – Flüssigkeit gibt, wird die Diffusion an der Nahtstelle auftreten in Abhängigkeit von den Partialdrücken. Ein Partialdruck in der Atmosphäre kann bestimmt werden durch den Druck im System multipliziert mit dem Prozentanteil der atmosphärischen Zusammensetzung [?].
Wenn Gase, selbst wenn sie gelöst sind, erhitzt werden, steigt ihr Druck, was den Partialdruck des gelösten Materials in der Flüssigkeit steigen lässt. Bei festen Konzentrationen wird die Erwärmung das Ausgasen zunehmen lassen, und Abkühlung wird umgekehrt wirken. Wir wissen, dass die Beziehung zwischen der in einer Flüssigkeit gelösten Gasmenge direkt mit dem Partialdruck zusammenhängt. Daher kennen wir auch die Beziehungen zwischen Flüssigkeit und Gaskonzentrationen im Gleichgewicht, die linear verlaufen mit einer Modifikation der auf der Temperatur basierenden Koeffizienten. Dies wird repräsentiert durch Henry’s Law
p.a=k.ha*x.a Gleichung 1.
mit einer Korrektur für den Henry-Koeffizienten, angegeben in Gleichung 2:
K.h(t)=K.h(t.0) *e^(-c*(1/t-1/t.0)) Gleichung 2
Natürlich sagt uns dies nichts über den pH-Wert, wohl aber die Chemie. pH wurde erstmals im Jahr 1909 von S. P. L. Sørensen konzipiert. Er wurde 1924 überarbeitet, um ihn im Zusammenhang mit elektrochemischen Zellen benutzen zu können. pH repräsentiert den negativen Logarithmus der Wasserstoff-Ionenkonzentration in Lösung. Bei einem pH von 7 enthält unser Wasser in etwa 1*10^-7 mol Wasserstoff-Ionen pro Liter. Bei einem pH von 8 sind darin 1*10^-8 mol Wasserstoff-Ionen enthalten. Im Allgemeinen reicht die Bandbreite von 0 bis 14, allerdings kann pH in den negativen Bereich wechseln und auch den Grenzwert von 14 überschreiten. Wir messen pH mittels elektrochemischer Zellen unter Verwendung der Nernst-Gleichung. In Gleichung 3 ist R die Gaskonstante, T die Temperatur und F die Faraday-Konstante.
E=E0-2.303*RT/F *(pH) Gleichung 3
pH-Messgeräte sind keine einfachen Geräte. Im Wesentlichen messen sie nach der Nernst-Gleichung ein elektrisches Potential und stellen es graphisch als pH-Wert dar. Um diese Instrumente ideal zu kalibrieren, messen wir die Voltzahl bei zwei bekannten pH-Werten, einem primären und einem sekundären pH, um die Steigung der Grafik zu korrigieren. Allerdings gibt es so viele Dinge, die bei einer pH-Messung schief gehen können, dass es angebrachter ist, das pH-Konzept zu verstehen als den pH-Messwert  für das Evangelium zu halten.
Vor allem muss der Glaskörper des pH-Messgerätes immer in einer Flüssigkeit gelagert werden, sonst wird der pH-Wert falsch angezeigt. Dann muss diese Flüssigkeit periodisch ersetzt werden, damit die Ionenstärke der Flüssigkeit immer korrekt bleibt; anderenfalls wird das pH-Meter wahrscheinlich zu wenig empfindlich sein. Ferner sollten die Eich-Lösungen  zu dem pH passen, den man zu messen versucht, da die lineare Eichkurve lediglich eine sinnvolle Approximation innerhalb weniger pH-Einheiten ist. Falls man Temperatur und pH sowohl in den Puffern als auch in der gewünschten Temperatur der Flüssigkeit nicht gleichzeitig misst, kann man Korrekturen vergessen [corrections can be off]. Kurz gesagt, es ist viel einfacher, eine Einheitsänderung von 1 pH zu messen als eine Zunahme um 0,1 und 0,01 oder kleiner, weil es nahezu unmöglich ist, dies zuverlässig zu messen.
Wie also gehen wir vor hinsichtlich der versauernden Ozeane durch CO2? Hierfür müssen wir das chemische Gleichgewicht betrachten. Alles im Wasser gelöste CO2 wird im Wesentlichen Kohlensäure bilden, und sofern genügend Zeit dafür zur Verfügung steht, wird sich vieles davon wieder in CO2 zurück verwandeln. Die Rate, mit der CO2 in Kohlensäure konvertiert wird und diese wieder zu CO2 wird, gleicht sich irgendwann wieder aus. Wenn wir also unsere CO2-Konzentration kennen, kennen wir auch die Konzentration von Kohlensäure. Die Menge Kohlensäure in Frischwasser beträgt etwa 1.7*10^-3 in reinem Wasser und 1.2*10^-3 in Meerwasser. Es gibt substantiell weniger Kohlensäure im Meerwasser. Warum also machen wir uns Sorgen hinsichtlich der Ozean-Versauerung, wenn Flüsse und Ströme mehr CO2 halten können? Ihnen wird auch direkt Kohlensäure durch Regen zugeführt. In Gleichung 4 wird die Konversion gezeigt.
CO2+H2O → H2CO3–> CO2 + H2O Gleichung 4
Nun macht Kohlensäure das Wasser nicht einfach saurer. Man vergesse nicht, dass pH die Konzentration von Wasserstoff-Ionen in Lösung misst. 1,2*10^-3 Mol Kohlensäure entsprechen nur 2,5*10^-4 Mol Wasserstoff-Ionen [Anmerkung: Die Wasserstoffionen sind für den pH-Wert relevant, nicht die Kohlensäure-Moleküle!]. Daraus bildet sich das Bikarbonat-Ion.
H2CO3- → H+ + HCO3- → H2CO3 Gleichung 5
Weil schwache Säuren und schwache Basen im Gleichgewicht hin und her variieren, bilden sie exzellente Puffer. Ein Puffer ist eine Lösung, die aus einer oder mehreren schwachen Säuren und Basen besteht, die verwendet werden, um einen bestimmten pH-Wert stabil zu erhalten. Weil sich die schwachen Säuren häufiger in einer in der Lösung präsenten Base lösen und schwache Basen mit einer Säure, kann man den pH einer Lösung relativ stabil halten. Die pH-Puffer werden sich nur ändern, wenn man die gesamte schwache Säure oder Base verbraucht hat.
Das Bikarbonat-Ion kann sich noch weiter dissozieren [Anmerkung: Das heißt, in Ionen zu spalten], aber nur 4.69*10^-11 dieser Ionen tun das auch. Der Knackpunkt für die Ozean-Versauerung = Kollaps des Ökosystems stammt aus einer dritten Reaktion, die Gleichung 6 beschreibt:
Ca(CO3)2 + 2 H+ → Ca2+ +2HCO3- Gleichung 6
Für Einige mag das nach nichts Besonderem aussehen, aber lassen Sie mich das Komische daran erklären. Von Kalziumkarbonat nimmt man an, dass es mit Wasserstoffatomen reagiert und ein freies Kalzium-Ion und 2 Bikarbonat-Ionen formt. Aber Moment, die Gleichgewichts-Konzentrationen bleiben immer noch erhalten. Wenn also das CO2 zunimmt, werden auch die Karbonat-Ionen, die von der Ozean-Versauerung angegriffen werden, IMMER IN IHRER KONZENTRATION ZUNEHMEN!!!! [Hervorhebung im Original!]
Aber was bewirkt dies bei biologischen Organismen? Kurz gesagt, alles, was Karbonat braucht, wird von dessen Zunahme profitieren. Aber auch hier gibt es wirkliche Mathematik. Man betrachte die Monod-Gleichung für die Kinetik von Mikroorganismen. U ist die spezifische Wachstumsrate, umax ist die maximale Wachstumsrate, s ist die Konzentration des begrenzenden Substrats und ks ist der Wert von u, wo u/umax 0,5 ist.
u=umax*(s/(k+s)) Gleichung 7
Im Wesentlichen sagt dies aus, dass das Wachstum eines Organismus’ an die begrenzenden Nährstoffe gebunden ist. Also können wir folgern, dass bei zunehmendem CO2 auch die Karbonat-Ionen zunehmen. Das bedeutet, dass der begrenzende Nährstoff für die Muschelschalen nicht Karbonat sein kann. Wäre das so, dann würde eine CO2-Zunahme mit einer ähnlichen Zunahme des Wachstums von karbonat-abhängigen Spezies korrelieren. Im Falle dass Karbonat gesteigert vorhanden ist, gibt es keine vorstellbaren Mittel für die Spezies zum Überleben als alles wässrige Karbonat mit substantiell größerer Rate zu verbrauchen als CaCO3-Ausfällung.
All dies ignoriert die Puffer-Kapazität der Ozeane; diese ist immens und stark mit dem Karbonat-System gekoppelt. Während man die Menge Kohlensäure im Ozean zunehmen lassen kann, braucht man eine massive Menge davon, sowohl gelöst im Ozean als auch in hoher Konzentration darüber in der Atmosphäre, um CO2 dazu zu bringen, pH zu ändern. Es ist  chemisch wirklich unmöglich, karbonat-abhängie Spezies durch eine Ozean-Versauerung durch CO2 zu schädigen.
Bevor wir ein für allemal herausfinden können, ob CO2 ein Problem darstellt oder nicht, müssen wir die Rate kennen, mit der sich die Muschelschalen lösen und sie mit der Rate vergleichen, mit der sie sich neu bilden.
Großartig, jetzt verstehen wir einige der physikalischen, chemischen und biologischen Prozesse, die dem Ozean-Versauerungs-Argument = Untergang zugrunde liegen. Um den tatsächlichen Effekt zunehmender CO2-Konzentrationin der Atmosphäre zu bestimmen, müssen wir auf die CO2-Konzentration und die Temperatur an 2 Punkten gleichzeitig schauen, da beide sich ändern. Für mein Beispiel habe ich mich entschlossen, die Standard-Temperaturzunahme der EPA um 1,5°C seit 1917 zu nehmen sowie eine Zunahme von 280 ppm für meine Konzentration. Ich habe 10°C als meine gegenwärtige Wassertemperatur und 390 ppm als derzeitige CO2-Konzentration gewählt. Der atmosphärische Druck wurde mit 1 atm angenommen. Ich habe auch von einem präindustriellen pH-Wert von 8,2 gehört. Diese Berechnung erfolgt unter der Annahme, dass das präindustrielle pH-System stabil war und folglich die Zunahmen durch Emissionen wesentlich zu der bereits existierenden H+-Konzentration in der Lösung hinzuaddiert werden.
Unser Partialdruck CO2 stellt sich also heraus:
PreI=397.14 Pa
Modern=553.234 Pa
Der modifizierte Henry-Koeffizient
KhPreI=18.205L*atm/mol
Khmodern=19.191LAtm/mol
Was bedeutet, dass unsere Konzentrationen von CO2 in vorindustrieller und jetziger Zeit durch Gleichung 8 gegeben werden:
C=P/Kh
Und die Werte
PreI=2.153*10^-4 L/mol
Modern=2.845*10^-4 L/mol
Das gibt uns unsere H2CO3-Konzentrationen in beiden Szenarien.
PreI= 2.584*10^-7
Modern=1.476*10^-7
Ich habe lediglich die erste Dissoziations-Konstante verwendet, da die Konzentration bereits in 10^-11–Werten vorlag, so dass 10^-22–Werte nicht signifikant wären. Das führt zu einer gesamten Wasserstoff-Ionen-Konzentration (von CO2) von:
PreI= 6.46*10^-11
Modern=3.69*10^-11
Die Gesamtdifferenz zwischen diesen beiden Werten:
Modern-Prei=2.075*10^-11 H+-Ionen in Lösung
So the change in pH is equal to -log(H+new+1*10^-8.2)
Also ist die pH-Änderung gleich -log(H+new+1*10^-8.2). Folglich hat die Gesamtzunahme der Kohlenstoff-Emissionen den pH um grob 8,199 verändert.
Das ist nicht einmal messbar. Um die behauptete pH-Zunahme zu sehen, müsste die CO2-Zunahme in der Atmosphäre etwa 100 mal größer sein als sie tatsächlich war. Sicher kann man sagen, dass die Acidität, eine Maßzahl von H+-Ionen, um 30% zugenommen hat, aber das wird aus der Chemie garantiert und sagt uns nichts über die Qualität des Lebens in den Ozeanen.
Alles, was wir also tun müssen, ist ein Experiment durchführen und Daten sammeln. Anders als bei der globalen Klimaänderung sind diese Studien vergleichsweise einfach. Man nehmen einen Eimer und einen CO2-Tank, befülle ihn mit einigen Korallen und Austern und anderen Karbonat liebenden Kreaturen. Dann setze man den atmosphärischen CO2-Gehalt über das Wasser und warte ab, was passiert. Man wiederhole diese Studie für die präindustrielle Zeit, verdoppele die jetzigen und prähistorischen Levels von CO2, füge Nährstoffe hinzu und warte auf den Ionen-Austausch. In weniger als 5 bis 10 Jahren könnte jemand beweisen, dass CO2 schädlich ist.
Selbst wenn man nicht wirklich Daten sammeln möchte, gibt es da ein weiteres wissenschaftliches Prinzip, dass die Kohlenstoff-Kontrolleure verletzen. Das ist das Korrespondenz-Prinzip: wir können in der Historie zurückschauen und beobachten, was CO2-Trends bei fossilen Karbonat liebenden Kreaturen angerichtet hat. Wenn wir nur weit genug zurückschauen bis zu einer Zeit, in der die CO2-Konzentration auf diesem Planeten Spitzenwerte erreicht hatte, finden wir, dass sich die meisten Mollusken und von Karbonat abhängigen Organismen zur gleichen Zeit entwickelten, in der die CO2-Konzentration über 8000 ppm lag. Bevor irgendjemand behauptet, dass Karbonat-Organismen Schwierigkeiten haben, muss er die Frage beantworten, warum diese Organismen mit einer CO2-Zunahme um 30% nicht fertig werden, während ihre Vorgänger bei CO2-Konzentrationen aufblühten, die um 200% [Ich rechne für 8000 ppm zu 360ppm 2222%.] höher lagen. Das ist doch Quatsch!
Aber was ist mit jenem Video?
Die Versuchsperson beginnt mit 2 klaren und nicht kontroversen Statements, gefolgt von einem weiteren, dass zumindest mir kontrovers vorkommt. Speziell diese vermehrte Acidität macht es schwierig für von Kalziumkarbonat abhängige Organismen zu überleben.
Für ihre erste Demonstration lässt sie einen Klumpen Trockeneis in Wasser fallen und wir bekommen zu sehen, wie Bromothymol die Farbe wechselt von blau nach gelb. Ja, sie hat gezeigt, dass CO2 Wasser saurer macht. Aber sie hat genauso klar gesagt, dass das atmosphärische CO2 Auswirkung auf die Acidität der Ozeane hat. Indem man reines CO2 ins Wasser fallen lässt, erzeugt man im Wesentlichen ein System mit einem Partialdruck von 100% am Übergang zwischen flüssig und gasförmig. Tatsächlich lassen sie den atmosphärischen CO2-Gehalt um einen Faktor 3000 zunehmen.
Die zweite Demonstration war ein ähnlicher Schwindel. Zunächst teilten sie Essigsäure in drei Konzentrationen auf: 1 mit keiner, eine weitere mit der Hälfte und eine dritte mit der Gesamtkonzentration direkt aus der Flasche. Dann fügte sie etwas Kalziumkarbonat hinzu – es sprudelte. Ja, die Säure reagiert tatsächlich mit dem Muschelkalk und gast CO2 aus. Aber Scherz beiseite, was hat mit einem System Kohlensäure/Karbonat zu tun? Und das trübt den Blick darauf, dass ein CO2/Kohlensäure-System einen pKa-Wert von etwa 6,3 aufweist und  Essigsäure näher bei 4,8 liegt und sowohl eine substantiell höhere Dissoziations-konstante hat und keinen Karbonat-Komplex bildet. Im Wesentlichen zeigte die Demonstration gar nichts.
Aber dann kam der klassische herzerwärmende Moment. Die schwimmenden kleinen Kreaturen in den Ozeanen von morgen, herzzerreißend, ich weiß. Aber Moment, sie nahmen eine dünnwandige Muschelschale ohne Kreatur darin und platzierten sie in einer Lösung unbekannter Zusammensetzung, mit einem pH-Wert, wie er in den Ozeanen der Zukunft erwartet wird. Langsam löste sich die Muschelschale auf, wirklich langsam, nach vielen Tagen wurde die Schale transparent, oh wie traurig. Für diese gesamte Zeitspanne hätten sie zwei identische Schalen benutzen können; eine in derzeitigem Meerwasser und die andere in einem Tank mit einer kontrollierten CO2-Atmosdphäre. Stattdessen haben sie sich buchstäblich den bedeutungslosesten Weg gesucht, nichts zu zeigen, sie haben keine chemisch ähnliche Umwelt benutzt, keine derzeitigen Organismen, die ihre Schale regenerieren, und das ist faszinierend.
Wenn Sie es also bis hier geschafft haben und Ihr Kopf nicht mit Glückwünschen explodiert ist – hier kommen einige Schlüsselpunkte:
1. Es ist interessant zu bemerken, dass wir irgendwie eine akkurate Messung der Ozean-Acidität von vor 200 Jahren haben, wenn der Apparat zur pH-Messung erst 1924 erfunden worden ist und bis dahin gar keine Messung vorlag. Es sollte unmöglich sein, den tatsächlichen ozeanischen pH-Wert vor 200 Jahren auf 0,1 Einheiten genau zu bestimmen.
2. Die maximale mögliche Änderung des präindustriellen CO2-Gehaltes bis heute beträgt weniger als 0,001 pH-Einheiten und ist folglich unmöglich zu messen.
3. Selbst wenn wir 0,001 pH-Einheiten messen könnten, erheben sich viele Fragen hinsichtlich der Genauigkeit und Kalibrierungs-Techniken, die mit der Messung zusammenhängen.
4. Es ist dem CO2 unmöglich, Karbonat-Ionen in Lösung abzubauen.
5. Flüsse und Süßwasserseen sind anfälliger für Kohlensäure aus atmosphärischem CO2. Warum also sorgen wir uns um die Ozeane?
6. Es ist chemisch und biologisch wirklich unmöglich, dass von Karbonat lebende Organismen durch CO2-Zunahmen leiden.
7. Kohlensäure ist nicht das Gleiche wie Salz- oder Essigsäure.
8. pH aus Kohlensäure [Anmerkung: Der pH-Wert berechnet aus dem CO2-Gehalt] sagt uns nichts über das CO2/Karbonat-System [Anmerkung: über den im CO2/Karbonat-System messbaren pH-Wert].
9. Es gab keine Experimente, die Schädigungen gezeigt haben, nur Hypothesen und Modelle.
10. Die experimentellen Rahmenbedingungen zum Testen von Karbonat-Organismen mit zunehmendem CO2 sind einfach und trotzdem noch nicht durchgeführt.
11. Die am meisten durch Ozean-Versauerung infolge CO2 anfälligen Organismen haben sich zu einer Zeit entwickelt, in der die Konzentrationen 15 [Meine Rechnung 8000/360 = 22,2]  mal höher lagen als heute.
12. Die Ozean-Versauerung hat keine Bedeutung, falls die Rate, mit der sich CaCO3 bildet, die Rate übersteigt, mit der Kohlensäure CaCO3 verbraucht.
13. Die Puffer-Kapazität der Ozeane ist gewaltig und beruht auf Kohlensäure [Anmerkung: Die Puffer-Kapazität der Ozeane beruht eigentlich auf dem CO2/Karbonat-System.], eine weitere Demonstration, dass CO2 diesen Puffer überwindet, ist erforderlich.
Link: http://wattsupwiththat.com/2013/07/08/ocean-acidi-what/
Übersetzt von Chris Frey EIKE.
Danksagung: Ich bedanke mich bei Herrn Dr. Gerhard Stehlik für seine dringend notwendige fachliche Überarbeitung dieser Übersetzung. Die eingefügten Anmerkungen in eckigen Klammern stammen von ihm.