Die Realität überlässt eine Menge der Vorstellungskraft

Aber wenn Sie mich fragen, ist diese Evaluierung der Modelle, indem man sie mit der Realität vergleicht, nicht möglich. Ich glaube, dass die gegenwärtigen Unsicherheiten hinsichtlich der totalen solaren Strahlung (TSI) und des Antriebs durch Aerosole so groß sind, dass es sinnlos ist, die Ergebnisse von Modellrechnungen mit beobachteten globalen Temperaturänderungen zu vergleichen. Näheres zum Bild rechts hier

Wie komme ich auf die unbegründete Behauptung, dass die gegenwärtigen Unsicherheiten bei TSI und der Aerosole so groß sind? Und selbst wenn sie so groß sind, warum stelle ich die noch seltsamere Behauptung auf, dass die Größenordnung der Unsicherheiten den Vergleich von Modellergebnissen und Realität ausschließt?

Nun… eigentlich habe nicht ich diese Behauptung aufgestellt. Es waren die Fachidioten (boffins) bei der NASA und dort im Besonderen die guten Leute beim GISS einschließlich James Hansen et al., die das gesagt haben (Hervorhebung von mir)…

Die gesamte Solarstrahlung (TSL) ist der dominierende Faktor des globalen Klimas, während die natürlichen und anthropogenen Aerosole klimatisch wichtige Bestandteile der Atmosphäre sind die auch  auch die globale Temperatur beeinflussen. Obwohl man glaubt, dass die Klimaauswirkungen der solaren Variabilität nahezu vergleichbar mit denen der Treibhausgase sind (GHG’s; wie Kohlendioxid und Methan), bleiben sie schlecht quantifiziert und könnten die größte Unsicherheit repräsentieren, wenn man das globale Klima betrachtet. …

Die Analyse von Hansen et al. (2005) sowie andere Studien aus jüngster Zeit (siehe die Übersichtsbeiträge von Ramaswamy et al. 2001; Kopp et al. 2()05b; Lean et al. 2005; Loeb and Manalo-Smith 2005; Lohmann and Feichter 2005; Pilewskie et al. 2005; Bates et al. 2006; Penner et al. 2006) deuten darauf hin, dass die gegenwärtigen Unsicherheiten bzgl. der TSI und der Antriebe durch die Aerosole so groß sind, dass sie grundlegende Evaluierungen der Modellergebnisse im Vergleich mit beobachteten globalen Änderungen der Temperatur nicht gestatten. Diese Unsicherheiten müssen signifikant reduziert werden, um die Ungewissheit bei der Klimasensitivität angemessen zu beschränken (Schwartz 2004).

 „Grundlegende Evaluierungen der Modelle nicht gestatten…” hmmm. Natürlich geben sie das nicht immer zu. Sie sagen solche Dinge nur, wenn sie Geld für einen neuen Satelliten haben wollen. In der übrigen Zeit behaupten sie, dass ihre Modelle bis auf 0,15°C genau sind…

Nun, der Satellit, für den die Mitarbeiter bei NASA GISS (vernünftigerweise) Geld haben und mit der oben erwähnten Studie vorantreiben wollten, war die Glory Mission … welche ein weiterer unglücklicher Fehlschlag der NASA war.

Der Glory Satellit der NASA hat den Erdorbit nicht erreicht

WASHINGTON – Der Glory-Satellit der NASA, gestartet um 5.09:45 Uhr morgens  von der Luftwaffenbasis Vandenberg in Kalifornien hat den Orbit nicht erreicht.

Der Telemetrie zufolge hat sich der Schutzschild auf der Spitze der Rakete vom Typ Taurus XL nicht wie erwartet drei Minuten nach dem Start gelöst.

Aha… bedeutet dies, dass die Evaluierung der Modelle durch den Vergleich mit beobachteten Änderungen der globalen Temperatur nicht möglich ist, bis wir einen weiteren Glory-Satelliten bekommen?

Ich frage ja nur… aber der Vorgang macht klar, dass an diesem Punkt die Modelle unbrauchbar als Basis für Milliarden Dollar teure Beschlüsse sind.

Willis Eschenbach 

der Originalbeitrag erschien hier

Übersetzt von Chris Frey für EIKE




Wieviel Abkühlung würden Sie kaufen?

Es gibt zwei Zahlen, die interessant sind – wie viel wird es kosten, die CO2-Emissionen zu reduzieren, und um wie viel wird diese Reduzierung die Temperatur senken?
Zunächst zu den Kosten… Tatsache ist, dass niemand die Kosten kennt. Das ist sehr schwer abzuschätzen. Ich verwendete die Darstellungen der EPA. Dort heißt es, dass die neuen Regeln etwa 78 Milliarden US-Dollar pro Jahr kosten würden. Wenn man bedenkt, dass das lediglich etwa ein Zehntel des jüngsten „Anreizes“ [?] ist, scheint das nicht allzu viel zu sein. Andere Analysten haben viel höhere Kosten angesetzt, aber ich möchte bei der niedrigen Abschätzung der EPA bleiben.
Und um wie viel wird dadurch die Temperatur reduziert?
Und wieder: Niemand weiß das… Also verwende ich die EPA-Darstellungen aus der gleichen Quelle. Dort heißt es:

 „Gemäß der neuen Analyse wird geschätzt, dass die CO2-Konzentrationen im Mittel um etwa 2,9 ppm (vorher 3,0 ppm) gesenkt werden. Die globale Mitteltemperatur wird dadurch schätzungsweise bis zum Jahre 2100 um 0,006°C bis 0,0015°C reduziert.“

Mann, ist das aufregend! Nehmen wir ihre mittlere Schätzung, 0,00375°C Abkühlung (etwa vier tausendstel Grad) bis zum Jahr 2100.

OK, rechnen wir mal nach:

Gesamtkosten = 78 Milliarden Dollar pro Jahr multipliziert mit 90 = 7 Billionen Dollar, oder etwa die Hälfte des Bruttosozialproduktes in einem Jahr in den USA.
Gesamtabkühlung = 0,00375°C während der nächsten 90 Jahre.
Damit können wir jetzt die endgültige Rechnung durchführen…
7 Billionen US-Dollar geteilt durch 0,00375°C ergibt… warten Sie…

1.900 Billionen US-Dollar für jedes lumpige Grad Abkühlung!

Ich habe gehört, dass der Betrieb von Air Condition teuer ist, aber das schlägt dem Fass den Boden aus. Fast zwei Billiarden Dollar laufende Kosten für jedes Grad Abkühlung…
Die gewöhnliche Erklärung ist, dass dies daran liegt, dass diese Rechnung nur für die USA gilt. Wenn die restliche Welt mitziehen würde, wäre alles in Ordnung.
Allerdings werden sich die Kosten pro Grad nicht ändern, egal wie viele Länder teilnehmen. Es sind immer noch fast zwei Billiarden Dollar ($1.900.000.000.000. 000) pro Grad. Also ist diese Erklärung Unsinn. Zwar könnten die USA diese Summe vielleicht stemmen, aber sicher nicht Länder wie China und Indien. Dies sind Schätzungen der EPA, die Kosten könnten sehr gut höher sein. Schätzungen der Regierung über die Kosten der eigenen Projekte liegen grundsätzlich erheblich unter den später tatsächlich entstandenen Kosten.
Wie auch immer, meine Frage lautet (vorausgesetzt, die Schätzung der EPA, dass die Abkühlung 2 Billiarden Dollar pro Grad kosten würde, ist richtig): Wie viel Abkühlung würden Sie vorschlagen, dass wir sie zu diesem Preis kaufen?
Grüße an alle,
W.
PS – Wie groß ist eine Billion? Nahezu unvorstellbar groß. Wir glauben, dass eine Million Dollar sehr viel Geld sind, was ja auch stimmt. Nehmen wir an, meine Familie hätte im Jahre 0 mit einem Geschäft angefangen, vor ein paar tausend Jahren. Nehmen wir weiter an, wir haben das Geschäft wie eine Regierung geführt, und wir haben eine Million Dollar verloren.
Um es einer Regierung noch ähnlicher zu machen, nehmen wir an, der Verlust belaufe sich auf einer Million Dollar pro Tag.
Nehmen wir an, ich habe eine Million Dollar pro Tag verloren, jeden Tag der letzten 2011 Jahre. Generation nach Generation der Familie, sagen wir drei Generationen pro Jahrhundert, was insgesamt etwa 60 Generationen ausmacht. Und jede einzelne dieser Generationen hätte ihr ganzes Leben lang eine Million Dollar pro Tag verloren.
Falls das wirklich der Fall war, eine Million Dollar pro Tag zu verlieren, jeden einzelnen Tag seit biblischen Zeiten, ohne einen einzigen freien Tag dazwischen, hätten wir immer noch nicht eine Billion Dollar verloren. Wir hätten noch nicht einmal drei Viertel einer Billion verloren.
Link: http://wattsupwiththat.com/2011/03/13/how-much-would-you-buy/#more-35859
Übersetzt von Chris Frey für EIKE




„Nature“ präsentiert Wahnvorstellungen von Modellierern zur vermeintlichen Überflutungsgefahr in England

… in neun von zehn Fällen deutet unser Modell darauf hin, dass der im 20. Jh. vom Menschen verursachte  Treibhausgasausstoß das Risiko von Überschwemmungen in England und Wales im Herbst 2000 um mehr als 20% erhöht hat und in zwei von drei Fällen sogar um mehr als 90%

Zu Beginn meiner Analyse mußte ich erst einmal das Gesetz von der Güte wissenschaftlicher Autorenschaft zu Rate ziehen (Qualitative Law of Scientific Authorship). Es ist ein allgemeingültiges Gesetz und lautet:
Q ca = 1 / N^2
wobei Q die Güte der wissenschaftlichen Veröffentlichung ist, und N^2 das Quadrat der Anzahl der aufgelisteten Autoren. Noch wichtiger ist aber, dass wir uns erst einmal folgender Frage zuwenden: Wie viele historische englische Überschwemmungen haben die Autoren ausgewertet, um zu ihrem Urteil über das Überschwemmungsrisiko in England zu kommen?
Seltsamerweise haben sie überhaupt keine historischen Daten von Überschwemmungen ausgewertet. Kein Scherz, auch keine trickreiche Behauptung! Folgendermaßen sind sie vorgegangen:
Sie haben ein einzelnes Computer-Klima-Modell mit jahreszeitlicher Auflösung (HadAM3-N144) benutzt, um 2 268 Einzeljahre mit synthetischen Herbstwetter-Daten zu erzeugen. Die beobachteten Klimavariablen vom April 2000 (Temperatur, Luftdruck, usw.) wurden als Eingangswerte für das HadAM3-N144 Modell benutzt. Damit wurde das Modell gestartet und man ließ es mehrere tausend Male sich wiederholen. Die Auhoren von Pall2011 nennen diese vom Computer erzeugten 2 268 Einzeljahre die „Daten“ des “A2000 Klimas”. Ich werde es  das „A2000 synthetische Klima“ nennen, damit keine Verwechslung mit der Wirklichkeit stattfindet.
Das „A2000 synthetische Klima“ ist ein ganzes Universum von mehreren tausend Einzeljahres-Rechenergebnissen aus einem einzigen Computermodell (mit einem festen Satz von internen Parameter-Einstellungen). Vermutlich sind die benutzten Parameter im Modell gut abgebildet … Das heißt noch lange nicht,  dass deren wirkliche Variation im Modell gut abgebildet wäre. Aber ich schweife ab. 
Die 2.268 fache Modellsimulationen für ein Jahr des A 2000 Herbstwetter-Datensatzes wurden dann in ein zweites, viel einfacheres Modell eingegeben, in ein “Niederschlags-Ablauf Modell” (P-R). Dieses P-R Modell schätzt die Flußpegel in SW-England und Wales ab. Es geht von den Niederschlägen in den Gitternetzkästchen aus.
Anschließend wurde das P-R Modell mit Hilfe der Ergebnisse aus einem dritten Klima-Modell kalibriert,  dem ERA-40 Computermodell, das historische Daten reanalysiert. Wie die anderen Modelle wirft das ERA-40 die Variablen bezogen auf ein globales Gitternetz aus. Die Autoren haben multiple lineare Regression eingesetzt, um das P-R Modell zu kalibrieren, dergestalt, dass zwischen den angezeigten Flußpegelständen der 11 untersuchten englischen Niederschlagsmessungen mit den ERA-40 computerausgewerteten Gitternetzdaten die beste Übereinstimmung erzielt wurde.
Wie gut die Übereinstimmung mit der Wirklichkeit zusammenpaßt? Keine Ahnung, darüber haben sie nichts gesagt …
Also unter dem Strich kommen irgendwelche Daten heraus. Aber diese Daten wurden überhaupt nicht analysiert. Stattdessen wurden sie benutzt, um die Parameter des P-R Modells einzustellen.
Fassen wir ein Zwischenergebnis zusammen:
•  Wirkliche Daten vom April 2000 und wirklichen Muster von Bodentemperaturen, Luftdruck und anderen Variablen sind in ständiger Wiederholung als Eingabedaten für 2 268 einjährige Wetterberechungen benutzt worden. Die Ergebnisse werden das „A2000 synthetische Klima“ genannt. Dieses 2 268fache einzeljährige Wetter wurde benutzt als Eingabe für ein zweites Modell zur Errechnung des Abflusses des Niederschlags über die Flüsse. Dieses P-R Modell wurde dann auf die beste Übereinstimmung mit den Reanalyse-Ergebnissen der auf das Gitternetz bezogenen Niederschläge getrimmt. Mit Hilfe der A2000 Wetterdaten erzeugt das P-R Modell  2 268 Jahre mit synthetischen Flußpegelständen und Hochwasserdaten.

So! Das war die erste Halbzeit.

In der zweiten Halbzeit haben die Autoren die Ergebnisse von vier globalen Zirkulationsmodellen (GCM) benutzt. Daraus haben sie errechnet, wie eine synthetische Welt ausgesehen hätte, wenn es keine anthropogenen Klimaänderungs-Antriebe gegeben hätte. Oder in den Worten von Pall2011: jedes der vier Modelle erzeugte “eine hypothetische Lage, welche die “Erwärmung der Erdoberfläche” abbildete, wie sie vielleicht ohne anthropogene Treibhausgasemissionen eingetreten wäre (A2000N).”
Und so beschreiben sie die Veränderungen zwischen A2000 and A2000N:
In der A2000N-Lage wird versucht, einen hypothetischen Herbst 2000 im [HadAM3-N144] Modell abzubilden, indem die A2000-Lage wie folgt verändert wird: Treibhausgasemissionen sind auf die Mengen des Jahres 1900 zurückgesetzt; SSTs [Temperaturen über der Meeresoberfläche] werden verändert, indem der den Treibhausgasemissionen zurechenbare Erwärmungsanteil herausgerechnet wird, wobei die Ungewißheit in Rechnung gestellt ist; das Meereis ist gleichermaßen verändert, indem eine einfache empirische Meersoberflächen-Lufttemperatur-zu-Meereis-Beziehung hergestellt wird, die aus beobachteten Lufttemperaturen an der Meeresoberfläche und dem Meereis bestimmt wird.
Eine interessante Auswahl von Veränderungen, das sollte man sich auf der Zunge zergehen lassen …
Treibhausgasemissionen für das Jahr 1900, kühleres Meer, mehr Meereis, aber keine Änderung bei den Temperaturen über dem Land … Sieht so aus, als ob es auf ein wärmeres Großbritannien in einem kälteren Ozean hinausliefe. Und es sieht so aus, dass dadurch bestimmt die Niederschläge beeinflußt würden. Aber lassen wir uns nicht von den logischen Ungereimtheiten ablenken …
Dann haben sie das Original-Klimamodell (HadAM3-N144) mit den Startbedingungen aus den vier GCM-Modellen benutzt und mit den gleichen Anfangsstörungen aus A2000 einige weitere Tausende von Ein-Jahres-Simulationen erzeugt. Mit anderen Worten: gleiches Modell, gleiche Startdaten, unterschiedliche Startbedingungen aus Ergebnissen der vier GCMs. (Gerade fällt mir auf, dass die synthetischen Wetterdaten am 1. April beginnen!). Das Ergebnis heißt A2000N synthetisches Klima, obwohl sie das „synthetisch“ weglassen. Ich vermute mal, das „N“ steht für “no warming”.
Diese mehrere Tausende von Jahren an modelliertem Wetter, das synthetische A2000N-Klima, sieht dann wie das synthetische A2000-Klima aus. Die Daten sind in das zweite Modell eingegeben worden, in das P-R Modell, das mit Hilfe des ERA-40 Reanalyse-Modells abgestimmt worden war. Daraus ergab sich dann eine weitere Folge von Flußpegel- und Überschwemmungsvorhersagen.
Zwischenergebnis:
•  Zwei Datensätze von Computer-erzeugten, vollständig und ausschließlich simulierten englischen Flußpegel- und Überschwemmungsdaten wurden errechnet. Keiner der Datensätze ist auf tatsächliche Messdaten bezogen, auch nicht auf Bluts-, angeheiratete oder auf sonstige verwandtschaftliche Nähe. Doch um fair zu sein: bei einem der Modelle sind die Eingangswerte mit Hilfe eines Vergleichs zwischen echten Meßdaten und den Ausgabedaten eines dritten Modells gesetzt worden. Einer der beiden Datensätze wird von den Autoren als  “hypothetisch” beschrieben, der andere als “realistisch”.
Zum Schluss vergleichen die Autoren die beiden Datensätze. Heraus kommt das Urteil, dass der Mensch die Ursache ist:
Der genaue Umfang des anthropogenen Beitrags bleibt ungewiss, aber in neun von zehn Fällen deuten die Ergebnisse unseres Modells darauf hin, dass die anthropogenen Treibhausgasemissionen im 20. Jh. die Risiken von Überschwemmungen in England, wie sie sich im Herbst 2000 ereigneten, um mehr als 20% und in zwei von drei Fällen um mehr als 90% erhöht haben.
Zwischenergebnis:
• Die Autoren haben schlüssig gezeigt, dass in einem Computer-Modell für Südwest-England und Wales im synthetischen Klima A die synthetischen Überschwemmungen eine statistisch höhere Gefährdung darstellen als im synthetischen Klima B.
Ich bin mir nicht sicher, was ich dazu sagen soll, weil die Autoren auch nicht viel dazu sagen. 
Ja, sie zeigen, dass ihre Ergebnisse in sich ziemlich konsistent sind und sie stimmen auch mehr oder minder darin überein, dass sie nicht außerhalb der Grenzen ihrer Bedingungen liegen, und dass die Autoren die Ungewissheit durch Monte-Carlo Eingaben abgeschätzt haben, und dass sie mit den Ergebnissen zufrieden sind … Aber in Anbetracht der Ungewissheiten, die sie NICHT einbezogen haben –  nun, daraus können Sie Ihre eigenen Schlüsse ziehen hinsichtlich der Frage, ob die Autoren ihre Untersuchung unter Beachtung wissenschaftlicher Grundsätze durchgeführt haben.
Nur ein paar Fragen, die diese Analyse aufwirft:

FRAGEN, AUF DIE ICH ÜBERHAUPT KEINE ANTWORT WEISS

1.  Wie wurden die vier GCMs ausgewählt? Wieviel Ungewißheit wurde dadurch eingebracht? Was würden vier andere GCMs ergeben?
2.  Wie hoch ist die Gesamt-Ungewißheit, wenn das gemittelte Ergebnis eines Computer-Modells als Eingabe in ein zweites Computer-Modell genommen würde, wenn weiter dessen Ergebnis als Eingabe für ein drittes Computer-Modell genommen würde, das gegen ein unabhängiges Klima-Reanalyse-Computer-Modell kalibriert würde?
3.  Bei den über 2000 Einjahres-Simulationen wissen wir, dass sie den HadAM3-N144 Modellraum für eine vorgegebene Einstellung der Modell-Parameter benutzt haben. Aber umfassen die unterschiedlichen Modelle den tatsächlichen Wirklichkeitsraum vollständig? Und wenn ja, stimmt die Verteilung der Ergebnisse mit der Verteilung der tatsächlichen Klimavariationen überein?  Hier handelt es sich um eine unausgesprochene Annahme, die für die Aussage „in neun von zehn Computerläufen“ verifiziert werden muss, um stehen bleiben zu können. Vielleicht sind neun von zehn Computerläufen unrealistischer Mist, vielleicht auch reines Gold … Ich setze aber auf ersteres, es gibt ja keine Möglichkeit für die Entscheidung, was wahr und was falsch ist.
4.  Ziehen wir die Warnungen über die Datenquellen (siehe unten) in Betracht, “dass es selten mit Sicherheit ausreicht, die Flußpegelmeßdaten so zu nehmen, wie sie sind”.  Welcher Qualitätskontrolle wurden die Flußpegelmeßdaten unterworfen, um die Genauigkeit beim Setzen der P-R-Modelldaten sicher zu stellen? Im Allgemeinen haben die Überschwemmungen zugenommen, weil immer mehr Land wasserundurchlässig gemacht worden ist (Straßen, Parkplätze, Überbauung), und weil der ursprüngliche Bodenbewuchs beseitigt worden ist. Deshalb wird die Abflussmenge von vorgegebenen Niederschlägen erhöht, und das bringt einen Trend zu erhöhtem Abfluss in die Ergebnisse ein. Ich weiß nicht, ob das in der Analyse berücksichtigt wurde, trotz der Tatsache, dass die Flußpegelstandsmessungen zum Kalibrieren des P-R-Modells benutzt wurden.
5.  Da das P-R-Modell mit Hilfe der ERA-40-Reanalyse-Ergebnisse kalibriert wurde, wie gut gibt es die tatsächlichen jährlichen Flußmengen wieder, und wie viel Ungewißheit steckt in den errechneten Ergebnissen?
6. Ausgehend vom Starttag 1. April für jedes Jahr: wie gut prognostiziert das im Papier skizzierte Verfahren  – Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Niederschläge im Herbst – die ungefähr 80 Jahre Niederschläge, für die es tatsächliche Messdatenaufzeichnungen gibt?
7. Ausgehend vom Starttag 1. April für jedes Jahr, wie gut prognostiziert das im Papier skizzierte Verfahren  -Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Pegelstände und Überschwemmungen  – die Pegelstände und Flussmengen, für die es tatsächliche Messdatenaufzeichnungen gibt?
8. Nehmen wir an, in einem Glücksspiel sollen die Ergebnisse von vier unterschiedlichen Computer-Modellen mit der Wirklichkeit verglichen werden. Drei müssen falsch sein, wenn eine Vorhersage richtig ist, weil vier verschiedene Prognosen möglich sind. Alle vier können aber auch falsch sein. Der Erfolg einer Wette soll proportional zur Korrelation des Modells mit der Wirklichkeit sein.
Wie hoch ist die Erfolgserwartung mathematisch bei einer 1$-Wette auf eines der Modelle in diesem Spiel … und wie hoch ist die Ungewissheit für diese Erfolgserwartung? Wenn vier Modelle vorgegeben sind, wird dann eine Wette auf den Durchschnitt der Modelle meine Gewinnchancen verbessern? Und was unterscheidet diese Frage von den Schwierigkeiten und Unbekannten, die in der Abschätzung nur dieses einen Teils der gesamten Ungewissheit der Studie liegen, wenn man nur die Informationen besitzt, die in der Studie benannt worden sind?
9. Sechs unterschiedliche Klimamodelle wurden einbezogen, jedes davon hat unterschiedliche Größen der Gitternetzkästchen und Koordinaten. Es gibt unterschiedliche Methoden zur Durchschnittsbildung von einem Gitterkästchen-Schema mit einer bestimmten Größe zu einem anderen mit anderer Größe. Welche Methode wurde benutzt und wie hoch ist die Ungewissheit, die bei diesem Schritt eingeführt wurde?
10.  Die Studie beschreibt die Benutzung eines bestimmten Modells, um zwei Datensätze von jeweils 2000+ Einzeljahren mit synthetischem Wetter zu erzeugen … wie unterschiedlich wären die Datensätze, wenn ein anderes Klimamodell benutzt würde? 
11.  In der Annahme, dass die GCMs andere Niederschlagsmuster erzeugen als das ERA-40 Reanalyse-Modell, und in der Annahme, dass das P-R-Modell auf die Ergebnisse des ERA-40-Modells kalibriert ist, wieviel Ungewißheit wird dadurch erzeugt, dass die gleichen ERA-40 Kalibrierungseinstellungen mit den GCM-Ergebnissen benutzt werden? 
12. Haben die Autoren wirklich die A2000N Simulationen mit der Abkühlung des Ozeans gestartet und nicht des Landes, wie sie anscheinend sagen?
Wie man sieht, gibt es eine Menge von wichtigen Fragen, die derzeit unbeantwortet sind.
Nach erneutem Lesen meines Beitrags möchte ich noch klarstellen: Ich spotte nicht über die Studie, weil sie etwa falsch wäre. Ich spotte, weil die Studie so weit von der Wissenschaftlichkeit entfernt ist, dass keine Hoffnung besteht, je zu erkennen ob sie falsch oder wahr ist.  Die Autoren haben uns nicht die geringste notwendige Menge von Informationen gegeben, um auch nur im Ansatz eine Beurteilung der Tragfähigkeit der Hypothese zu ermöglichen.

KOMMEN WIR MAL AUF DIE LANGWEILIGEN ALTEN DATEN ZURÜCK …

Wie man weiß, liebe ich Fakten. Ich pflichte Robert Heinlein bei:

Was sind die Fakten? Immer wieder muss nach den Fakten gefragt werden. Wunschdenken muss beiseite geschoben und göttliche Eingebung ignoriert werden. Was die „Sterne sagen“ gilt nicht, Meinungen sind zu vermeiden, Rücksichtnahme auf das, was der Nachbar denkt, ebenso. Man kümmere sich nicht um das “Urteil der Geschichte”. Was sind die Fakten und bis auf welche Dezimalstelle sind sie genau? Man segelt immer in eine ungewisse Zukunft. Nur Fakten haben Bestand. Holt die Fakten!

Das hat er 1973 geschrieben, was er ausließ, war “Hüte Dich vor Computermodell-Ergebnissen.”  Also haben ich die Pegelstandsmessungen angesehen, wie sie in Pall2011 angegeben werden. Ich bin bis zum Teil gegangen, wo es heißt: (Hervorhebung von Willis Eschenbach):
Appraisal of Long Hydrometric Series [Beurteilung von Langzeit- Wasserstandsaufzeichungen]
… Die Genauigkeit der Daten und Konsistenz kann ein Hauptproblem bei vielen frühen Wasserstandsaufzeichnungen sein. Im Verlauf des 20. Jh. wurden die Instrumentierungen und die Aufzeichnungseinrichtungen verbessert, aber diese Verbesserungen selbst können Inhomogeneitäten in die Zeitreihen bringen – die noch verstärkt werden können durch Veränderungen (manchmal nicht dokumentiert) des Standorts der Meßstation oder der angewandten Methoden der Datenverarbeitung. Zusätzlich wurde die Einwirkung des Menschen auf das Fließverhalten der Flüsse und die Muster der Grundwasserspeisung immer ausgedehnter, besonders in den vergangenen 50 Jahren. Der sich daraus für das Fließverhalten der Flüsse und die Grundwasserspiegel ergebende Zustand kann zusätzlich noch durch die weniger sichtbaren Auswirkungen der Veränderungen der Bodennutzung beeinträchtigt werden; obgleich diese in einer Anzahl von wichtigen experimentellen Wassereinzugsbereichen im Allgemeinen quantifiziert worden sind, entziehen sie sich einer leichten Quantifizierung.
Wie in den meisten Langzeitaufzeichnungen von natürlichen Phänomenen lauern in der in der Studie benutzten Datenaufzeichnung auch Fallen für den Unaufmerksamen. Und in der Tat sagen die Autoren am Schluss des Abschnitts: 
Man muss daher richtigerweise sehen, dass die Erkennung und Interpretation von Trends besonders stark auf der Verfügbarkeit von Referenz- und räumlicher Information beruht, um die Auswirkungen der Klimaveränderung von der Einwirkung eine Reihe von anderen Faktoren zu unterscheiden;>
Genau das haben sich die Autoren von Pall2011 zu Herzen genommen. Sie haben nämlich den Daten überhaupt keine Gelegenheit gegeben, auch nur ein einziges Wort zu sagen …
Um eine noch ernsthaftere Anmerkung zu machen: Weil mit diesen Daten die “Klimavariabilität” des P-R-Modells kalibriert wurde, haben deswegen die Pall2011-Leute den Rat des Verwalters der Daten befolgt? Auch davon sehe ich überhaupt nichts.
Ich konnte nur feststellen, dass die Flußpegeldaten überhaupt keine Hilfe für mich sein konnten. Ich war nur verwirrt wegen der impliziten Behauptung in der Studie, dass extreme Niederschläge in England zunähmen.  Ich glaube, die Autoren wollen sagen, dass der Klimawandel mehr Überschwemmungen mit sich bringt, und das kann nur passieren, wenn es mehr Starkregen in England gibt. 
Glücklicherweise haben wir da eine andere interessante Datenreihe. Dummerweise wieder vom Hadley Centre, es ist die Hadley UK Precipitation Datenreihe von Alexander und Jones; ja ja, es ist Phil Jones (HadUKP). Und glücklicherweise zeigt die herangezogene Studie überhaupt nichts Außergewöhnliches. Unglücklicherweise, aber irgendwie unvermeidlich, benutzt sie ein komplexes System der Durchschnittsbildung. Glücklicherweise unterscheiden sich die durchschnittlichen Ergebnisse nicht sehr von einem einfachen Durchschnitt, soweit unser Interesse hier betroffen ist. Unglücklicherweise gibt es keine Kontrolldaten, so dass man nicht exakt feststellen kann, was aus einem bestimmten Extremwetterereignis in einem bestimmten Gebiet zu einer bestimmten Zeit gemacht worden ist.
Jedenfalls ist das das Beste, was wir haben. Die gesamten täglichen Niederschlagsmengen sind für Bereiche in England aufgelistet, und einer dieser Bereiche ist South West England and Wales. Damit werden die Probleme der Durchschnittsbildung für größere Gebiete vermieden. Die Abbildung 2 zeigt das Herbstmaximum eines eintägigen Niederschlags in Südwest-England und Wales. Das war die Gegend und der Zeitraum, die in der Pall2011 Studie im Hinblick auf die Herbst-2000-Überschwemmungen untersucht wurde:
http://wattsupwiththat.files.wordpress.com/2011/02/max-1-day-autumn-rain-sw-england-wales.jpg

Abbildung 2. Herbstmaximum eines 1-tägigen Niederschlags, SW England und Wales, Sept-Okt-Nov. Der geringe Trend ist statistisch kaum von Null zu unterscheiden.
Der in dieser Aufzeichnung gezeigte Starkregen ist typisch für Aufzeichnungen von Extrema. In der Natur haben die Extrema selten eine Gauss’sche Normalverteilung. Stattdessen enthalten die Aufzeichnungen einige sehr große Werte, auch dann, wenn man nur nach Extrema Ausschau hält. Die Art des Starkregens, der zu den Überschwemmungen von 2000 führte, kann in Abbildung 3 betrachtet werden. Diese Abbildung halte ich für eine warnendes Beispiel, weil bei einer Verschiebung des Beginns der Darstellung um ein Jahr später, der eintägige Niederschlag bei weitem der größte im Bericht wäre. 
Für die 70 aufgezeichneten Jahre gibt es keine Anzeichen für zunehmende Überschwemmungsrisiken als Folge von Klimafaktoren. In Pall2011 wurde klar gezeigt, dass in zwei von drei Jahren im synthetischen Klima B das Risiko einer synthetischen Herbstüberschwemmung in einem synthetischen Südwest-England und Wales um 90% zunimmt, gemessen am synthetischen Überschwemmungsrisiko im synthetischen Klima A.
Entsprechend den Messdaten gibt es kein Anzeichen für Zunahmen von Starkregen im Herbst in Südwest-England und Wales. Es ist also sehr unwahrscheinlich, dass wir über das uns bekannte  Südwest-England und Wales sprechen  … Damit erhält die String-Theorie von multiplen parallelen Universen eine neue Bedeutung, vermute ich mal.
IMPLIKATIONEN DER VERÖFFENTLICHUNG DIESER STUDIE
Es ist verstörend, dass NATURE diese Studie veröffentlich hat. Es gibt nur diesen einen Weg, über den diese Studie eine sehr geringe Chance für wissenschaftliche Anerkennung hätte haben können. Wenn nämlich die Autoren die exakten Datensätze und den Code veröffentlicht hätten, mit dem sie die Ergebnisse erzeugten. Eine reine Beschreibung der Verfahren ist ausgesprochen inadäquat für jegliche Analyse der Gültigkeit von Ergebnissen.
Um auch nur eine kleine Hoffnung auf Gültigkeit zu hegen, ist als absolutes Minimum die elektronische Veröffentlichung der A2000 und A2000N Klimadaten in zugänglicher Form nötig, zusammen mit den Resultaten einfacher Tests der einbezogenen Modelle (d. h. Computer-Vorhersagen von Herbstüberschwemmungen zusammen mit tatsächlichen Flußpegelständen). Darüberhinaus müssen die benutzten ex-ante Kriterien für die Auswahl der vier GCMs und des Leitmodells erklärt werden. Auch die Antworten auf meine oben erhobenen Fragen. Nur dann kann man die Studie annäherungsweise für wissenschaftlich halten. Und selbst dann, wenn man sich die derzeit nicht zugänglichen A2000 und A2000N synthetischen Klimata anschaut, könnte es sein, dass diese keine Ähnlichkeit mit irgenwelcher Wirklichkeit haben, hypothetisch oder sonstwie …
Im Endergebnis sehe ich die Verantwortung bei der Fachzeitschrift NATURE. Weil derzeit das Beste, was wir über die Studie sagen können ist: a) wir haben keine Möglichkeit festzustellen, ob sie stimmt. Und b) sie ist nicht falsifizierbar … Wenn das auch gut im “Journal of Irreproducible Results“ aussieht, bedeutet es nichts Gutes für eine Zeitschrift wie NATURE, die sich mit fachbegutachteter Wissenschaft befaßt. 
Willis 
PS – Bitte verstehen Sie das nicht als Schimpfen auf Computermodelle. Ich habe Computer seit 1963 programmiert, länger als manche Leser hier leben. Ich kann in R, C, VBA, Pascal schreiben, und ich kann in einem halben Dutzend anderer Computer-Sprachen lesen und (langsam) schreiben. Ich benutze Computer-Modelle, habe einige gelegentlich geschrieben und verstehe die Stärken, Schwächen und Grenzen vieler Computer-Modelle von Echtwelt-Systemen. Mir ist wohlbewußt, dass “alle Modelle falsch, einige aber nützlich sind”. Deshalb benutze ich sie, vertiefe mich in sie und schreibe gelegentlich welche.
Mein Argument ist, dass man ohne wirkliche Überprüfung der Ergebnisse aus Modellrechnungen gegen die Wirklichkeit mit den genauesten vorstellbaren Tests nur ein komplexes Spielzeug von unbekannter Aussagekraft hat. Und sogar nach ausgedehnten Tests können Modelle sich irren gegenüber der realen Welt. Deshalb läßt Boeing immer noch Testflüge mit neuen Flugzeugen durchführen, obgleich die teuersten Computer-Modelle eingesetzt werden, und trotz der Tatsache, dass die Modellierung von Luftströmungen um ein Flugzeug um Größenordnungen einfacher ist als die Modellierung des globalen Klimas.
Andere und ich haben an anderer Stelle gezeigt, (Lesen Sie hier, Sehen Sie diesen Kommentar hier, und die Grafik hier), dass die vom NASA-Glanz-und-Gloria-Klimamodell (dem GISS-E GCM) errechnete jährliche globale Durchschnittstemperatur mit 98%iger Genauigkeit mit folgender einfacher, einzeiliger Gleichung, die nur eine Variable benutzt, errechnet werden kann: 
T(n) = [lambda * Forcings(n-1)/tau + T(n-1) ] exp(-1/tau) 
wobei T(n) die Temperatur zum Zeitpunkt n ist, und lambda und tau die Konstanten der Klima-Sensitivität und der Verzögerung sind …
Angesichts der Komplexität des Klimas ist es sehr wahrscheinlich, dass das GISS-E Modell falsch und noch nicht einmal nützlich ist. Und wenn man vier von derartigen GCMs auf das Problem der englischen Überschwemmungen ansetzt, macht es die Genauigkeit der Ergebnisse bestimmt nicht besser …
Das Problem sind nicht die Computer-Modelle. Das Problem ist die Fachzeitschrift NATURE, die versucht, die Endergebnisse aus einer langen Computer-Modell-Perlenkette, bestehend aus gezielt ausgesuchten, unausgetesteten, nicht verifizierten, nicht untersuchten Computer-Modellen, als gültige, falsifizierbare, fachbegutachtete Wissenschaft zu verkaufen. Man mag mich ja verrückt nennen: Aber wenn die Ergebnisse von vier Computer-Modellen, die in ein fünftes Computer-Modell eingespeist werden, dessen Ergebnisse wiederum in ein sechstes Computer-Modell gehen, das gegen ein siebtes Computer-Modell kalibriert wird, dann als Resultate gegen eine Reihe von anderen Resultaten aus einem fünften Computer-Modell verglichen werden, aber nach Anwendung anderer Parameter, um zu beweisen, dass das Überschwemmungsrisiko sich wegen zunehmender Treibhausgase geändert hat, … nun, wenn man so etwas macht, dann muss man schon mehr tun, als mir nur zuzuwinken, um mich zu überzeugen, dass das Überschwemmungsrisiko nicht nur eine mögliche Abbildung der Realität ist, sondern auch eine genügend genaue Abbildung der Realität, um zukunftsgerichtetes Handeln zu leiten.
* Der Beitrag findet sich hier 
Ergänzende Information finden Sie hier, darin sind die Leitgedanken des Papiers enthalten.
Willis Eschenbach , den Originalbeitrag finden Sie hier
Die Übersetzung besorgte Helmut Jäger EIKE
**Die Ergänzungsinformation dazu finden Sie hier, sie enthält den größten Teil des Konzeptes dieses Papiers




Stoßt einen Pfahl ins Herz des IPCC

Update 20.2.11 : Offensichtlich wird in den USA der Anfang zur Stilllegung des IPCC gemacht. Dr. Roy Spencer IPCC Kritiker schreibt zum soeben erfolgten Beschluss den US Anteil der IPCC Mittel zu sperren

On the House Vote to Defund the IPCC

Politiker bildeten das IPCC vor über 20 Jahren mit einem Endziel vor Augen: die CO2-Emissionen zu regulieren. Ich weiß das, weil ich Zeuge einiger der hinter den Kulissen erfolgten Planung war. Es ist keine wissenschaftliche Organisation. Es wurde organisiert, um staatlich finanzierte Einrichtungen der wissenschaftlichen Forschung zu verwenden, um damit politische Ziele zu erreichen. 
Den ganzen Text finden Sie hier weitere Details zu diesem Beschluss hier Ende Update.


Hier auf der WUWT [Wattsupwiththat] Site hat Ron Cram einen interessanten Überblick verschiedener Ideen über wünschenswerte Änderungen beim Uno-Weltklimarat (UN IPCC) vorgestellt. Er schlägt vor dass das IPCC einen Überblick über die Mehrheits- und die Minderheitsmeinung erstellt, anstatt nur einen einzelnen Zustandsbericht zu verfassen.
Ich möchte hier einen vollkommen anderen Vorschlag machen. Manche Leute möchten dass der Weltklimarat aufgelöst wird. Ich gehöre nicht zu denen.
Ich halte ein Auflösen des IPCC für eine schlechte Idee. Stattdessen denke ich wir sollten das IPCC des Mitternachts zu einer Kreuzung bringen, einen Pfahl aus Espenholz durch sein Herz schlagen, seinen Kopf mit Knoblauch vollstopfen und die Überreste in alle Winde verstreuen, damit diese durch das Sonnenlicht geläutert werden und niemals wieder auferstehen können.
Ich möchte Ihnen eine Auflistung meiner Gründe (in beliebiger Reihenfolge) nennen, warum ich ein solches Vorgehen für wünschenswert halte.

  • * Das IPCC hat bislang wenig brauchbares zutage gefördert. Die bisherigen Zustandsberichte waren deutlich politisch eingefärbt, stark verzerrt und durchsetzt mit drittklassiger Wissenschaft, und schlimmer noch mit ängstlichen Vorhersagen von Nichtregierungsorganisationen, die als Wissenschaft getarnt wurden.
  • * Kein anderer Bereich der Wissenschaft will, braucht oder hat irgend etwas dem IPCC vergleichbares – was dagegen spricht dass es sich hierbei um ein brauchbares Konstrukt handelt. Noch würde die meisten Bereiche der Wissenschaft einen solchen Unsinn tolerieren, dass eine Haufen Regierungs-Bürokraten deren stand der Wissenschaft zusammenfasst.
  • * Anstatt uns Ergebnisse mit einem bestimmten Grad an Gewissheit oder Übereinstimmung zu liefern, war das IPCC eine Quelle endloser Meinungsverschiedenheiten, Streitereien und Grabenkämpfe. Es ist ein Kraft die Zwietracht und Spaltung schafft, nicht wissenschaftlichen Fortschritt oder Harmonie. Und der Bruch ist größer geworden, nicht kleiner.
  • * Dr. Pachauri hat wiederholt unter Beweis gestellt dass er sein Amt als das eines Alleinherrschers sieht, immun gegen Widerspruch oder abweichende Meinungen. Und dieser Standpunkt hat die gesamte Organisation durchsetzt.
  • * Die “Zusammenfassung für politische Entscheidungsträger” entsteht unter starker politischer Einflussnahme. Politiker an einer wissenschaftlichen Zusammenfassung mitwirken zu lassen, die für Politiker gedacht ist… Keine sehr gute Idee.
  • * Eine Zahl von hinterhältigen, unethischen und im allgemeinen schmutzigen Dingen wurden unter dem Schirm des IPCC unternommen. Das Ergebnis ist, dass große Teile der Bevölkerung mittlerweile automatisch eine Gegenhaltung zum IPCC einnehmen… und das oft aus guten Gründen.
  • * Die Leute trauen dem IPCC nicht mehr. Wir haben wenig Zutrauen in die beteiligten Personen, die Wissenschaft, das System oder die sogenannten Überwacher. Man hat uns von Seiten des IPCC systematisch belogen. Wie jemand denken kann dass das IPCC nach allem was passiert ist noch relevant für die öffentliche Meinung sein kann, übersteigt mein Verständnis. Abraham Lincoln wusste es besser. In einer Rede im Jahr 1854 sagte er:.
    Wenn man erst einmal das Vertrauen seiner geschätzten Mitbürger eingebüßt hat, kann man niemals deren Respekt und Achtung zurückgewinnen.
  • * Schmutzige Kämpfe in der Vergangenheit haben bereits dazu geführt, dass einige exzellente Wissenschaftler ihre Teilnahme am IPCC-Prozess aufgekündigt haben.
  • * Die Teilnehmer werden von den Politikern der beteiligten Länder ausgewählt. Wohl kaum eine wissenschaftliche Methode für irgendwas.
  • * Das große Ravetz’sche Experiment ist fehlgeschlagen. Jerome Ravetz ist einer der Gründer und Hausierer der “Post-Normalen Wissenschaft”. Er empfahl sämtliche Beteiligte wie etwa Politiker, Planer oder  Sozialwissenschaftler am Prozess der Wissenschaft zu beteiligen, ganz genau wie es beim IPCC geschehen ist. Und er glaubt dass wir in Zeiten wie diesen eine “Post-Normale Wissenschaft” benötigen. (Nach bester Orwellscher Art des “Doppelsprech” handelt es sich hierbei trotz des Namens gerade nicht um Wissenschaft.) Post-Normale Wissenschaft dass man den Begriff Wahrheit durch “Qualität” ersetzt. Das IPCC verkörpert geradezu Ravetz’ Vision von “Qualität” und Teilhabe, denn dies ist genau das was das IPCC vorgibt zu tun – die Beurteilung der Qualität aus der Sicht sämtlicher Interessengruppen der verschiedenen Aspekte der Klimaforschung.

Ich will damit nicht sagen Jerome Ravetz hätte dies in irgendeiner Form so geplant, soweit ich es beurteilen kann hat er es nicht. Aber das IPCC stellte ziemlich unbeabsichtigt, aus welchen Gründen auch immer, ein großes Experiment in Post-Normaler Wissenschaft dar.
Dieses Experiment ist gescheitert. Und nicht einfach nur gescheitert, es ist zusammengebrochen und verbrannt, mit spektakulärer Pyrotechnik und herausragenden Sound-Effekten. Und zusätzlich zu nicht enden wollenden Disputen brachte es uns eine auf amüsante Weise anbiedernde Selbst-Erhöhung von drittklassigen Wissenschaftlern wie etwa Michael Mann.
Der Versuch eine Art von “Qualitäts”-Sicherung in die Klimaforschung einzuführen hat nicht zu einer größeren Einigkeit darin geführt, wo wir stehen oder was zu tun ist. Stattdessen hat das IPCC und der Prozess der Post-Normalen Wissenschaft zu Grabenkämpfen geführt, und dazu dass Autoren von Kapiteln die “Qualität” und “Robustheit” ihrer eigenen Verfahren hochjubeln, und dazu das Fragen und Anmerkungen von Gutachtern routinemäßig ignoriert und übergangen wurden, und dazu dass einzelne die Regeln des Systems bestimmen, und zu allem Möglichen nur nicht dazu, was das IPCC als Ziel haben sollte – nämlich zu einer Art gemeinsamer Verständigung in den wichtigsten Punkten.
Und das sind die Gründe warum wir ihm einen Pfahl durchs Herz treiben müssen. Es wurde auf einem falschen Grund-Annahmen errichtet. Eine war die Annahme, dass wir überhaupt so etwas wie das IPCC brauchen. Kein anderer Bereich der Wissenschaft hat etwas ähnliches…. mit Ausnahme der jüngsten Versuches von UN Bürokraten, mehr Macht an sich zu reißen, dem neuen “Welt-Biosphären-Rat” [“IPCC for the biosphere”]. (OK, für diejenigen die nicht wissen was dabei herauskommt: Plünder-Alarm! [Spoiler-alert] Das Ergebnis wir ein weiteres Milliardengrab sein.)
Eine weitere äußerst wichtige falsche Annahme war die auf charmante Weise naive Vorstellung, dass die leitenden Autoren ihre eigenen Arbeiten objektiv genauso beurteilen würden wie die Arbeiten von anderen…. BWAHAHAHA. Nur ein abgehalfterter Marxist wie Ravetz oder jemand seiner Art wäre närrisch genug anzunehmen, dass das gut ausgehen kann. Ich habe den starken Verdacht dass Ravetz tatsächlich an das Gute im Menschen glaubt.
Schauen Sie mal, das Grundgesetz der Vereinigten Staaten funktioniert deshalb, weil keiner der Gründungsväter dem anderen auch nur einen Millimeter weit getraut hätte. Sie haben nicht an das Gute im Menschen geglaubt,  Sie haben zu viele Könige und Tyrannen erlebt um solchem Unsinn aufzusitzen. Aus diesem Grund herrscht in den USA eine Gewaltenteilung, damit keine der drei Gewalten zu mächtig werden konnte. Die Gründungsväter haben den Menschen keinen Deut getraut.
Warum haben sie niemandem getraut? Weil sie Realisten waren und wussten, dass jeder der die Möglichkeit dazu erhält nach der macht greifen und diese für seine eigenen Interessen missbrauchen würde; gegen die Interessen der Allgemeinheit.
Wie, zum Beispiel, was Michale Mann tat als er zum Hauptautor eines IPCC Kapitels ernannt wurde. Weil die Leute die das IPCC erschaffen haben an Elfen, den menschengemachten Klimawandel, Einhörner und die Güte des Menschen geglaubt haben, gab es für Michel Mann keinerlei Hemmnisse bei seinen Überschreitungen wissenschaftlicher Grundregeln. Völlig unbehelligt konnte er seinen Hockeyschläger-Müll anpreisen, als würde es sich dabei tatsächlich um Wissenschaft handeln.
Das sind die Gründe weshalb ich sage tötet das IPCC, toter als tot, und verstreut die Überreste in alle Winde. Es ist von Grunde an auf falschen Annahmen aufgebaut, wie dem grundsätzlich Guten im Menschen oder den Segnungen einer politischen Einflussnahme. Schon dadurch wurde das Scheitern begründet, selbst wenn die Motive gute gewesen wären.
Sollte es jedoch tatsächlich so sein, dass wir wegen unserer Sündhaftigkeit so etwas wie das IPCC brauchen würden, müsste es zumindest so aufgebaut sein, dass keine Fraktion kontrollieren kann, was am Ende herauskommen soll. Wir bräuchten hierfür eine spezielle IPCC-Charta, wie etwa in der US-Verfassung, um Menschen davon abzuhalten zu tun, was sie wie wir wissen ansonsten mit Freude tun würden. Wenn wir also ein IPCC brauchen, dann brauchen wir auch eine Charta die von der Grundannahme ausgeht dass , sobald sich die geringste Möglichkeit dazu ergibt.
Sollten wir das IPCC nicht zu Grabe tragen ist auf jeden Fall sichergestellt, dass der fünfte IPCC-Zustandsbericht uns neben dem überreichlich vorhandenen Fehlen von Nutzen noch weitere

Lügen, Betrügereien und korrumpierte Wissenschaft

bescheren wird. Was schließe ich daraus? Wenn man den beachtlichen Schaden betrachtet, den die ersten vier Angriffe angerichtet haben, bin ich nicht sicher, dass die Klimaforschung stark genug ist, den bevorstehenden Angriff durch den fünften IPCC Sachstandsbericht zu überstehen. Tötet das unreine Monster jetzt, solange noch die Chance besteht die Wissenschaft zu retten.
Willis Eschenbach bei WUWT hier, Übersetzt von Rudolf Kipp zuerst gepostet bei Science Sceptical 

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):




Die kalten Gleichungen

Ich habe diesen Beitrag schon viele Male geschrieben. Ich versuche es nochmals. Mit den Ergebnissen meiner früheren Arbeiten war ich nicht zufrieden. Den Titel habe ich nach der 1954 erschienenen gleichnamigen Science Fiction Story gewählt, die ich mit zehn oder elf Jahren gelesen habe. Der Inhalt ist etwa Folgender:
Ein Mädchen reist als blinder Passagier an Bord eines Rettungsschiffes, um eine bestimmte Arznei zu irgendwelchen planetarischen Kolonisten zu bringen. Sie wird entdeckt, sobald das Mutterschiff weg ist. Unglücklicherweise ergeben die kalten Gleichungen, dass das Rettungsschiff nicht genügend Treibstoff hat, um mit ihrem zusätzlichen Gewicht an Bord zu landen; aber wenn sie die Arznei über Bord werfen, um das Schiff zu erleichtern, würde die ganze Kolonie sterben… also musste das Mädchen durch die Luftschleuse katapultiert werden, um im All zu sterben.
Ich war höchst beeindruckt von dieser Geschichte. Ich mochte Mathematik schon immer, und hier habe ich zum ersten Mal gesehen, wie Gleichungen uns mit unbestreitbaren und unumstößlichen Ergebnissen versorgen können. Und ich sah, dass diese Gleichungen über den zur Verfügung stehenden Treibstoff und das Gewicht in keiner Weise von menschlichen Emotionen beeinflusst waren; entweder waren sie richtig oder falsch, ganz gleich, welche Gefühle ich oder irgendjemand sonst dabei hatte.
Vor kurzem habe ich mir die Gleichungen der AGW-Wissenschaftler angesehen, die sie in ihren Modellen benutzen. Abbildung 1 zeigt die fundamentalste Klimagleichung, die fast immer stimmt:


Abbildung 1. Die grundlegendste Klimagleichung besagt, dass die einfallende Energie gleich der ausgestrahlten Energie plus der in den Ozean gehenden Energie ist. Q ist die Menge der Energie, die in das System in einem bestimmten Zeitraum eingestrahlt wird. dH/dt ist die Veränderung der Wärmespeicherung in den Ozeanen von Anfang bis Ende dieses Zeitraumes. Die Einheit ist in allen Fällen Zettajoules (ZJ, oder 1021 Joule) pro Jahr.
Dies ist die gleiche Beziehung wie in der Wirtschaft, wo das, was ich innerhalb eines Jahres mache (in unserem Beispiel Q), gleich ist damit, was ich in jenem Jahr ausgebe plus die Änderungen meiner Ersparnisse von Jahr zu Jahr (dH/dt).
Jedoch, von hier starten wir in unbekannte Gewässer…
Ich werde meinen Text nehmen aus HEAT CAPACITY, TIME CONSTANT, AND SENSITIVITY OF EARTH’S CLIMATE SYSTEM , Stephen E. Schwartz, Juni 2007 (im Folgenden als S2007 bezeichnet). Die Studie ist weithin akzeptiert und wurde 49 mal in drei kurzen Jahren zitiert. Die Studie besagt unter Anderem Folgendes (Hervorhebung im Original):
Das Klimasystem der Erde enthält eine sehr empfindliche Balance zwischen der absorbierten kurzwelligen (solaren) Strahlung Q und der langwelligen Ausstrahlung (im thermischen Infrarot) an der Obergrenze der Atmosphäre E.
Q "fast gleich" E    *                                                                   (1)
Die globale und jährliche mittlere absorbierte kurzwellige Strahlung Q = gamma*J, wobei gamma für die mittlere planetarische Ko-Albedo (Komplement der Albedo) steht und J für die mittlere solare Strahlung an der Obergrenze der Atmosphäre (¼ der Solarkonstante) fast gleich 343 W/m2. Satellitenmessungen ergeben einen Wert Q fast gleich 237 W/m2 (Ramanthan 1987; Kiehl und Trenberth 1997), womit sich ein gamma von 0,69 ergibt. Die globale und jährliche mittlere langwellige Ausstrahlung kann mit der globalen und jährlichen mittleren Oberflächentemperatur GMST Ts in Beziehung gesetzt werden: E = epsilon x sigma x Ts^4, wobei epsilon für das effektive langwellige planetarische Emissionsvermögen (effective planetary longwave emissivity) steht, das definiert ist als das Verhältnis zwischen der globalen mittleren langwelligen Strahlung (flux), emittiert an der Obergrenze der Atmosphäre und jener durch die Stefan-Boltzmann-Gleichung berechnete der globalen mittleren Oberflächentemperatur; sigma  ist die Stefan-Boltzmann-Konstante.
Innerhalb dieses Einschichten-Energiebilanzmodells (North et al. 1981; Dickinson, 1982; Hansen et al., 1985; Harvey, 2000; Andreae et al., 2005, Boer et al., 2007) führt ein Ungleichgewicht Q – E durch eine einfache Störung in Q oder E zu einer Änderungsrate des globalen Wärmegehalts, die beschrieben wird durch 
dH/dt = Q – E                                                               (2)
wobei dH/dt für die Änderung des Wärmegehalts des Klimasystems steht.
Hmmm… Ich werde immer nervös, wenn jemand versucht, eine nicht nummerierte Gleichung in eine Studie einzuführen… aber ich schweife ab. Ihre Gleichung (2) ist die gleiche wie in meiner Abbildung 1 oben. Dies war ermutigend, weil ich die Abbildung 1 erstellt habe, bevor ich S2007 gelesen habe. In S2007 heißt es weiter (Hervorhebung von mir):
Der Ansatz des Energiebilanzmodells ist, dass dH/dt mit der Änderung der GMST (globale mittlere Oberflächentemperatur) in Beziehung stehen könnte, und zwar so:
dH/dt = C dTs/dt                          (3)
Hier steht C für die entsprechende Wärmekapazität. Es muss hier betont werden, dass C eine effektive Wärmekapazität ist, die nur den Teil der globalen Wärmekapazität reflektiert, der an die Störung im Zeitmaßstab der Störung gekoppelt ist [?]. Im gegenwärtigen Zusammenhang, der durch Änderungen der atmosphärischen Gasmischung im Zeitscale von Jahrzehnten und Jahrhunderten induzierten globalen Klimaänderung ist es das, was Gegenstand der Änderung in solchen Zeitscalen ist. Messungen des Wärmegehalts in den Ozeanen während der letzten 50 Jahre deuten darauf hin, dass diese Wärmekapazität von den oberen Schichten der Weltmeere dominiert wird.
[Im Original lautet dieser Absatz: „where C is the pertinent heat capacity. Here it must be stressed that C is an effective heat capacity that reflects only that portion of the global heat capacity that is coupled to the perturbation on the time scale of the perturbation. In the present context of global climate change induced by changes in atmospheric composition on the decade to century time scale the pertinent heat capacity is that which is subject to change in heat content on such time scales. Measurements of ocean heat content over the past 50 years indicate that this heat capacity is dominated by the heat capacity of the upper layers of the world ocean (Levitus et al., 2005).
Mit anderen Worten (unter Vernachlässigung der Ko-Albedo), sie schlagen zwei Einsetzungen in die Gleichung der Abbildung 1 vor. Sie sagen, dass
E = epsilon x sigma x Ts^4
und dass
dH/dt = C dTs/dt
was zu den Ergebnis führt
Q = epsilon x sigma x Ts^4 + C dTs/dt                     (4)
Abbildung 2 zeigt diese beiden Einsetzungen:


Abbildung 2. Eine graphische Darstellung der beiden zugrunde gelegten Einsetzungen in das „einschichtige Energiebilanzmodell“ der theoretischen Klimaerklärung. Die Originalgleichung vor der Einsetzung steht in hellbraun links unten, mit der Gleichung nach der Substitution darunter.
Warum sind diese Substitutionen wichtig? Man beachte, dass es in der Gleichung (4), wie in Abbildung 2 gezeigt, nur zwei Variablen gibt – Strahlung und Oberflächentemperatur. Sollten ihre Substitutionen gültig sein, bedeutet das, dass ein Strahlungsungleichgewicht nur durch eine Temperaturzunahme ausgeglichen wird. Oder wie es Dr. Andrew Lacis von NASA GISS ausdrückt (Hervorhebung von mir):

 „Wie ich schon früher gesagt habe, die globale Erwärmung ist in der Physik ein Problem von Ursache und Wirkung, dass stark auf akkuraten Messungen und wohlbekannten physikalischen Prozessen basiert. Im Besonderen ist das Klima der Erde das Ergebnis der Energiebilanz zwischen einfallender Solarstrahlung und thermischer Ausstrahlung, gemessen an der Obergrenze der Atmosphäre, also strikt ein Problem der Strahlungsenergiebalance. Da der Strahlungsfluss ein wohlbekannter und gut verstandener physikalischer Prozess ist, haben wir genaue Kenntnisse darüber, was mit der globalen Energiebalance der Erde passiert. Und wie ich früher schon bemerkte, die Konservierung von Energie lässt als Reaktion auf das zunehmende atmosphärische CO2 zum Erreichen des globalen Gleichgewichts der Temperatur nichts anderes als eine Erwärmung zu.

Die Kommentare von Dr. Lacis sind nichts anderes al seine englischsprachige Erklärung der Gleichung (4) aus S2007. Wenn Gleichung (4) falsch ist, ist auch seine Behauptung falsch. Und seine Behauptung, dass die zunehmende Konzentration von Treibhausgasen nur durch einen Temperaturanstieg kompensiert werden kann, steht im Zentrum der AGW-Klimawissenschaft.
Außerdem gibt es noch einen zweiten Grund, warum ihre Substitutionen wichtig sind. In der Originalgleichung gibt es drei Variable – Q, E und H. Aber da es in der Version in S2007 nur zwei Variable gibt (Ts und Q), kann man die eine Gleichung mit den Termen der anderen lösen. Dies gestattet es ihnen, die Entwicklung der Oberflächentemperatur zu berechnen, mit gegebenen Schätzungen von Antriebskräften in der Zukunft… oder, in anderen Worten, das zukünftige Klima zu modellieren.
Da ich nun von Natur au seiner bin, der immer misstrauisch ist, war ich sehr neugierig über diese beiden Substitutionen. Dies vor allem deshalb, weil ihr gesamtes Kartenhaus in sich zusammenfallen würde, falls nur eine der beiden Substitutionen falsch ist. Ihre Behauptung, dass ein Ungleichgewicht der Strahlung nur durch zunehmende Temperatur ausgeglichen wird, kann so nicht stehen bleiben, wenn nicht beide Substitutionen gültig sind.
SUBSTITUTION 1
Lassen Sie mich beginnen mit der Substitution, die in Gleichung (3) beschrieben wird:
dH/dt = C dTs/dt                          (3)
Das erste, was mir auffiel, waren die Worte „der Ansatz des Energiebilanzmodells“ [Im Original steht wirklich das deutsche Wort ‚ Ansatz’.]
Und was”, sagte ich, „ist ein ‚Ansatz’, wenn er zu hause ist?” Ich war ursprünglich ein Cowboy, der sich selbst gebildet hat, das ist wahr, aber ein sehr belesener und reformierter Cowboy. Und ich habe nie etwas von einem ‚Ansatz’ gehört.
Also schaute ich im Internet bei Wolframs Mathe-Welt, die beste Quelle für Mathematik, und fand dies:
Ansatz

Ein Ansatz ist eine angenommene Formel für eine mathematische Feststellung, die nicht auf irgendeinem zugrunde liegenden Prinzip oder einer Theorie basiert.

Nun, das sollte Ihnen ein warmes, sicheres Gefühl geben. Diese kritische Gleichung, diese Substitution durch die Temperaturänderung als Proxie der Änderung im Wärmegehalt der Ozeane, auf der die gesamte Multimilliarden schwere Behauptung basiert, dass eine zunehmende Konzentration von Treibhausgasen unvermeidlich und unerbittlich zu einem Temperaturanstieg führt, wird von enthusiastischen AGW-Anhängern als „nicht basierend auf irgendeine zugrunde liegende Theorie oder ein Prinzip“ beschrieben. Man erinnere sich, wenn nur eine Substitution falsch ist, ist auch die ganze „wenn-sich-der-Antrieb-durch-Treibhausgase-ändert-folgt-dem-die-Temperatur“ – Behauptung hinfällig… und dafür bieten sie nicht einmal eine Rechtfertigung oder einen Bezug an, es ist lediglich ein Ansatz.
Das ist gut zu wissen und hätte eine viel weiter verbreitete Bekanntmachung verdient…
Dies erinnert mich an einen alten Witz: „Wie viele Beine hat eine Kuh, wenn man den Schwanz ein Bein nennt?“

„Vier, weil ein Schwanz kein Bein ist, auch wenn man ihn so nennt.“
Genauso: Wenn man die Änderung des Wärmegehalts der Ozeane eine lineare Transformation der Änderung der Oberflächentemperatur (C dTs/dt) nennt, heißt das noch lange nicht, dass das auch so ist.
Tatsächlich ist die Korrelation zwischen der jährlichen dH/dt und dTs/dt nicht statistisch signifikant (r^2=0.04, p=0.13). Zusätzlich sind die Verteilungen von dH/dt und dTs/dt ziemlich unterschiedlich, sowohl im vierteljährlichen als auch im jährlichen Niveau. In den Anhängen 1 und 4 findet man Details. Das bedeutet: nein, wir haben keinerlei beobachtete Beweise, dass ihre Substitution gültig ist. Viel eher ist das Gegenteil richtig, es gibt kaum eine Korrelation zwischen dH/dt und dTs/dt.
Es gibt noch ein drittes und subtileres Problem, wenn man dH/dt und dTs/dt miteinander vergleicht. Es besteht darin, dass H (der Wärmegehalt der Ozeane) etwas ganz anderes ist als die anderen drei Variablen, als da wären Q (Einstrahlung), E (Ausstrahlung) und Ts (globale mittlere Lufttemperatur am Boden). Der Unterschied besteht darin, dass H eine Quantität ist, während es sich bei Q, E und Ts um Strahlungsflüsse handelt.
Da Ts ein Fluss ist, kann es von der Einheit Kelvin (oder Grad Celsius) zu den Einheiten Watt pro Quadratmeter (W/m2) umgerechnet werden, und zwar unter Verwendung der Schwarzkörperbeziehung sigma x Ts^4.
Und da die zeitliche Ableitung der festen Größe H ein Fluss ist, nämlich dH/dt, kann man (zum Beispiel) E + dH/dt mit Q vergleichen, siehe Abbildung 1. Das kann man machen, weil wir Flüsse mit Flüssen vergleichen. Aber sie wollen einen Fluss (dH/dt) durch eine Änderung eines Flusses (dT/dt) ersetzen. Dies ist jedoch nur unter speziellen Umständen möglich.
Die Änderung des Wärmegehalts kann in einer einzigen speziellen Situation in Relation zur Temperaturänderung gesetzt werden. Und zwar wenn durch eine Temperaturdifferenz zwischen dem Objekt und der umgebenden Luft etwas erwärmt oder gekühlt wird. Zum Beispiel, wenn man etwas in den Kühlschrank legt, kühlt es sich durch den Unterschied der Temperatur zwischen dem Objekt und der Luft im Kühlschrank ab. Irgendwann hat das Objekt im Kühlschrank die allgemein dort herrschende Temperatur angenommen. Ergebnis: Die Temperaturänderung des Objektes ist eine Funktion des Temperaturunterschieds zwischen dem Objekt und der umgebenden Luft. Falls sich die Lufttemperatur im Kühlschrank ändert, hängt in diesem Fall dH/dt mit dT/dt zusammen.
Aber gilt das auch für unsere Situation? Wer der Meinung ist, dass, ähnlich wie im Kühlschrank, die Lufttemperatur über dem Ozean der Treiber des Wärmegehalts der Ozeane ist, der hebe die Hand… weil ich das mit Sicherheit nicht glaube. Ich glaube, dass es zu 100% umgekehrt ist. Allerdings scheint Schwartz das zu glauben, wenn er in einer Diskussion über die Zeitkonstante sagt:

 „…wenn C die Wärmekapazität der Ozeane ist, dann ist dH/dt die Rate, mit der der Wärmegehalt in diesem Reservoir zunimmt, und ?T ist die Temperaturzunahme, die diesen Transfer antreibt.“

Zusätzlich zu dem Umstand, dass es sehr unwahrscheinlich ist, dass Änderungen der Lufttemperatur zu Änderungen des Wärmegehalts der Ozeane führen, spricht auch der Umfang der Änderung dieses Wärmegehaltes dagegen. Von 1955 bis 2005 änderte sich der Wärmegehalt der Ozeane um etwa 90 Zettajoule. Eine gleich große Änderung um 90 Zettajoule ereignete sich aber auch von einem Vierteljahr zum nächsten im Jahre 1983… Daher erscheint der Gedanke, dass Temperaturänderungen (dT/dt) die Änderungen des Wärmegehalts der Ozeane antreiben (und damit begrenzen) als sehr unwahrscheinlich.

Zusammenfassung der Ergebnisse von Substitution 1: dH/dt = C dT/dt

  1. 1. Die Leute, die diese Theorie vertreten, liefern keine theoretische oder praktische Grundlage für die Substitution.
  2. 2. Die jährliche Korrelation von dH/dt und dT/dt ist sehr klein und statistisch nicht signifikant.
  3. 3. Da H für die Quantität und T für einen Fluss steht, gibt es a priori keinen Grund, einen linearen Zusammenhang zwischen den beiden Größen zu vermuten.
  4. 4. Der Unterschied in der Verteilung der beiden Datensätze dH/dt and dT/dt (siehe Appendix 1 und 4) zeigt, dass weder die Erwärmung noch die Abkühlung der Ozeane mit dT/dt zusammenhängen.
  5. 5. Die Substitution schließt ein, dass die Lufttemperatur „diesen Wärmetransport treibt”, nach Schwartz’ Worten. Es scheint unwahrscheinlich, dass die kleine Masse der Atmosphäre [the wisp of atmospheric mass] die gewaltigen ozeanischen Wärmetransporte antreibt.
  6. 6. Die riesige Größe vierteljährlicher Änderungen deutet darauf hin, dass Änderungen des Wärmegehaltes der Ozeane durch korrespondierende Temperaturänderungen begrenzt werden.  

Meine Schlussfolgerungen aus dieser Zusammenfassung? Die Substitution von dH/dt durch C dT/dt ist weder durch Beobachtungen noch durch die Theorie gerechtfertigt. Obwohl man sehr in  Versuchung kommt, es trotzdem zu tun, weil es damit möglich ist, eine Gleichung für die Temperatur zu lösen, kann man diese Substitution allein aus dem Grund, eine Gleichung lösen zu wollen, nicht vornehmen.
SUBSTITUTION 2: E = epsilon x sigma x  Ts^4
Dies ist die Untersubstitution [original: the sub rosa substitution], also diejenige ohne eine Nummer. In diesem Zusammenhang sagt Schwartz:

 „Die globale jährliche langwellige Ausstrahlung kann zu der mittleren globalen Lufttemperatur über der Erdoberfläche GMST Ts in Beziehung gesetzt werden, und zwar durch:

E = epsilon x sigma x Ts^4
wobei  epsilon für das planetarische effektive Emissionsvermögen der langwelligen Ausstrahlung steht, definiert als das Verhältnis zwischen dem globalen mittleren langwelligen Strahlungsfluss an der Obergrenze der Atmosphäre (TOA) und jener berechnet durch die Stefan-Boltzmann-Gleichung zur globalen mittleren Oberflächentemperatur; sigma ist die Stefan-Boltzmann-Konstante.
Das wollen wir einmal näher betrachten und sehen, was sie hier getan haben. Es ist eine verführerische Idee, weil es teilweise aussieht wie eine normale Stefan-Boltzmann-Gleichung… mit Ausnahme davon, dass sie epsilon umdefiniert haben zum „effektiven planetarischen Emissionsvermögen“. Folgen wir mal dieser Logik.
Erstens, in ihrer Gleichung steht E für den langwelligen [Strahlungs]fluss an der Obergrenze der Amtosphäre (TOA), welchen ich mal als Etoa bezeichnen möchte, um es vom Fluss an der Oberfläche Esurf zu unterscheiden. Als nächstens sagen sie, dass epsilon das langzeitliche Mittel dieses Strahlungsflusses an der TAO ist (was ich Avg(Etoa) nennen möchte) dividiert durch die langzeitliche mittlere langwellige Schwarzkörperstrahlung (Avg(Esurf) genannt). Mit anderen Worten:
epsilon = Avg(Etoa) /Avg(Esurf)
Schließlich ergibt der langwellige Fluss der Schwarzkörperstrahlung Esurf nach Stefan-Boltzmann:
Esurf = sigma x Ts^4.
Setzt man dies in ihre unnumerierte Gleichung (?) ein, erhält man
Etoa = Avg(Etoa) / Avg(Esurf) x Esurf
Allerdings führt dies zu
Etoa / Esurf = Avg(Etoa) / Avg(Esurf)
was ganz klar allgemein nicht stimmt für irgendein vorgegebenes Jahr, und was nur für langzeitliche Mittel gilt. Aber für diese langzeitlichen Mittel reduziert sich das zu der bedeutungslosen Gleichung Mittel(x) / Mittel(irgendwas) = Mittel(x) / Mittel(irgendwas).
Zusammenfassung von Substitution 2: E = epsilon x sigma x  Ts^4
Diese Substitution ist nachweislich entweder mathematisch falsch oder bedeutungslos richtig wie eine Identität. Die kalten Gleichungen gestatten diese Art der Substitution nicht, selbst nicht dazu, um das Mädchen davor zu bewahren, hinaus katapultiert zu werden. Die Ausstrahlung an der Obergrenze der Atmosphäre hängt nicht auf die Art und Weise mit den Oberflächentemperaturen zusammen, wie sie behaupten.
Meine Schlussfolgerungen, ohne spezielle Reihenfolge:

  • * Ich denke gezeigt zu haben, dass keine der beiden Substitutionen gerechtfertigt ist, weder durch die Theorie, noch durch die Mathematik noch durch Beobachtungen.  
  • * Die Falsifizierung jeder der beiden Substitutionen in der Originalgleichung hat weitreichende Implikationen.
  • * Zumindest bedeutet die Falsifizierung jeder Substitution, dass zusätzlich zu Q und Ts mindestens eine weitere Variable in der Gleichung steckt. Dies bedeutet, dass die Gleichung für Ts nicht direkt gelöst werden kann. Und dies bedeutet natürlich, dass die künftige Entwicklung der planetarischen Temperatur nicht durch das bloße Forcing berechnet werden kann.
  • * Als Antwort auf meinen Beitrag über die Linearität des Modells von GISS hat Paul K auf die Studie S2007 von Schwartz verwiesen. Er zeigte auch, dass das Klimamodell von GISS sklavisch den einfachen Gleichungen in der Studie S2007 folgt. Daher bedeutet die Falsifizierung der Substitutionen, dass das Klimamodell von GISS (und die Gleichungen in S2007) als Übungen betrachtet werden müssen, die Parameter anzupassen. Ja, sie können eine Approximation der Realität vermitteln… aber nur durch optimierte Anpassung der Parameter und nicht durch eine saubere theoretische Begründung.
  • * Die Falsifizierung jeder der beiden Substitutionen bedeutet, dass die Wiederherstellung der Strahlungsbalance nicht nur eine einfache Funktion der Oberflächentemperatur Ts ist. Dies bedeutet, dass es mehr Möglichkeiten gibt, um die Strahlungsbalance im Himmel und auf Erden wiederherzustellen, als sich manche Schulweisheit dies träumen lässt, Dr. Lacis…

Wie immer lege ich das hier offen vor dem unbestechlichen Auge des Internets, um alle Leute zu ermutigen, mir meine Fehler aufzuzeigen. Das ist Wissenschaft. Bitte tragen Sie mir die Fehler mit Freundlichkeit und Anstand zu  mir und anderen vor, und vermeiden Sie es, über meine und anderer Motive zu spekulieren. Das ist auch Wissenschaft!
Link zum Original: http://wattsupwiththat.com/2011/01/28/the-cold-equations/
Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE
Im Original folgen noch vier Anhänge, die das hier Gesagte noch näher ausführen. Zusätzliche Aspekte stehen dort jedoch nicht, daher werden diese Anhänge hier aus Zeitgründen nicht mit übersetzt. Man bedenke, dass ich zusätzlich zu diesen ehrenamtlichen Übersetzungen einen Vollzeitjob habe und außerdem auch anderweitig noch ehrenamtlich engagiert bin, nämlich in der Kinderbetreuung.
C. F.
* Das "fast gleich" Zeichen (Doppelwelle), dass im Original steht, bildet dieser Editor nicht ab