Mr. Spock übernehmen Sie: Über die Bearbeitung der Daten der ARGO-Bojen

Die Behauptungen und Schlussfolgerungen der H2011-Studie beziehen sich hauptsächlich auf den Wärmegehalt der Ozeane (OHC), großenteils von den ARGO-Bojen gemessen, also dachte ich, dass ich mir diese Daten mal ansehen sollte. Die Messungen der Wassertemperatur und des Salzgehaltes mit einer großen Datenmenge geben uns viele wertvolle Informationen über den Ozean. Das H2011-Papier wendet die jüngsten Ergebnisse der Studie von K. von Schuckmann und P.-Y. Le Traon an (SLT2011).
Abbildung 1 rechts:
Schema einer Argo-Boje. Sie ist insgesamt etwa 2 m hoch. Quelle: Wikipedia
Die Argo-Bojen sind Treibbojen, die selbständig arbeiten. Jede Boje misst alle zehn Tage ein komplettes vertikales Temperaturprofil. Das Profil reicht bis in eine Tiefe von 1000 oder 2000 m. Sie sendet alle Messergebnisse via Satellit vor der nächsten Messung.
Unglücklicherweise sind die in H2011 verwendeten Argo-Daten mit einigen Problemen behaftet. Die Zeitspanne des Datensatzes ist sehr kurz. Die Änderungen sind ziemlich klein. Die Genauigkeit wird überschätzt. Schließlich und am Wichtigsten, die Untersucher benutzen die falsche Methode bei der Analyse der Daten.
Erstens ist da die Länge des Datensatzes. Die von Hansen benutzten Daten überdecken nur eine Zeitspanne von 72 Monaten. Dies begrenzt die Schlussfolgerungen, die wir aus diesen Daten ziehen können. H2011 drückt sich davor, wenn er nicht nur für diese Daten, sondern für alle Daten lediglich ein gleitendes Mittel über sechs Jahre zeigt. Ich kann es wirklich nicht leiden, wenn Rohdaten nicht gezeigt werden, sondern nur die mit der Hansen-Methode bearbeiteten Daten.
Zweitens, die Unterschiede sind ziemlich klein. Abbildung 2 zeigt eine Aufzeichnung, wie sie in SLT2011 zu finden ist. Sie zeigt die Daten als jährliche Änderungen des Wärmegehalts im oberen Ozean (OHC) in der Einheit Joule. Ich habe diese OHC-Änderungen (Joules/m²) für das Wasser, das sie vermessen, in Änderungen mit Celsius-Graden übertragen. Das gilt für eine ein Quadratmeter große Wassersäule mit einer Tiefe von 1490 Metern.  Wie man erkennt, behandelt die SLT2011-Studie sehr kleine Temperaturvariationen. Dies gilt auch für die H2011-Studie.

Abbildung 2 : Temperatur des oberen Ozeans nach Schuckmann & Le Traon, 2011 (SLT2011). Graue Balken zeigen einen Sigma Fehler in den Daten. Die rote Linie steht für eine 17-Punkte-Gaussverteilung. Die vertikale rote Linie zeigt den Fehler des Gauss’schen Mittels an den Rändern des Datensatzes (95% CI). Digitalisierte Daten aus SLT2011, Abb. 5b, erhältlich als durch Kommata getrennte Textdatei hier.
Einige Dinge in diesem Datensatz sind bemerkenswert. Zunächst haben wir es hier mit winzigen Temperaturänderungen zu tun. Die Länge der grauen Balken zeigt, dass SLT2011 behauptet, dass man die Temperatur der oberen 1½ Kilometer des Ozeans mit einem Fehler von nur ±acht tausendstel eines Grades…
Nun hasse ich es, aus Unglauben zu argumentieren, und ich werde ausführlich statistische Gründe weiter unten anführen, aber, meiner Treu… ein Fehler von acht Tausendstel Grad bei den Messungen der monatlichen Mitteltemperatur in der obersten Meile Wasser von fast dem gesamten Ozean? Wirklich? Sie glauben, dass sie die Temperatur des Ozeans bis zu diesem Grad an Präzision messen können, geschweige denn Genauigkeit?
Das zu glauben fällt mir sehr schwer. Ich verstehe die Gesetze der Zahlen und das zentrale Begrenzungstheorem und wie es uns zusätzliche Hebelwirkung gibt, aber der Gedanke, dass wir die Temperatur von 400 Millionen Kubikkilometer von Ozeanwasser mit einer Genauigkeit von acht Tausendstel Grad messen können, ist… nun, nennen wir es unbegründet. Andere, die mit Temperaturmessungen in Flüssigkeiten mit weniger als ein Hundertstel an Genauigkeit Erfahrung haben,  mögen sich hierzu äußern, aber für mich sieht es wie eine viel zu weit entfernte Brücke aus. Ja, es gibt etwa 2500 ARGO-Bojen dort draußen, und auf einer Karte des Ozeans sieht die Verteilung ziemlich dicht aus. Abbildung 3 zeigt die Position der Bojen im Jahr 2011.
 
Abbildung 3: Position der ARGO-Bojen. Quelle
Aber das ist nur eine Karte. Die Welt ist unvorstellbar groß. Im echten Ozean, bis zu einer Tiefe von eineinhalb Kilometern, das heißt ein ARGO-Thermometer für jedes der 165.000 Kubikkilometer Wasser… Ich weiß nicht, wie man sich klar machen kann, wie viel das wirklich ist. Versuchen wir es mal so: Der Obere See ist der größte Binnensee Amerikas, der selbst in der obigen Karte noch erscheint. Wie akkurat kann man die mittlere monatliche Temperatur der gesamten Wassermenge im Oberen See mit einer einzigen ARGO-Boje messen? Sicher kann man sie auf und ab tauchen oder sie rund um den See treiben lassen, sie wird drei vertikale Profile pro Monat messen. Aber selbst dann deckt jede Messung nur einen kleinen Teil des gesamten Sees ab.
Aber für ARGO sieht es noch schlimmer aus. Jede einzelne Boje, jeder Punkt in Abbildung 3 repräsentiert ein Volumen, das 13 mal so groß ist wie der Obere See … mit nur einem ARGO-Thermometer…
Oder wir betrachten es auf andere Weise. In der von SLT2011 abgedeckten Zeitspanne waren 2500 ARGO-Bojen in Betrieb. Das Gebiet des Ozeans umfasst etwa 360 Millionen Quadratkilometer. Also repräsentiert jede ARGO-Boje eine Fläche von etwa 140.000 Quadratkilometer, d. h. mit einem Quadrat von etwa 380 km auf jeder Seite. Eine ARGO-Boje für das alles! Zehn Tage für jeden Tauchzyklus, wobei die Boje tausend Meter absinkt und dort neun Tage lang verharrt. Dann steigt sie wieder auf, entweder von diesem Punkt, oder sie sinkt erst in eine Tiefe von 2000 Meter, um danach mit einer Geschwindigkeit von etwa 10 cm pro Sekunde an die Oberfläche zu steigen, wobei sie ununterbrochen Temperatur und Salzgehalt misst. Auf diese Weise erhalten wir drei vertikale Temperaturprofile von 0 bis 1000 oder 0 bis 1500 oder 0 bis 2000 Metern jeden Monat, abhängig von der Drift im Einzelnen, um ein Gebiet von 140.000 Quadratkilometern abzudecken… Tut mir leid, aber drei vertikale Temperaturprofile pro Monat, um ein Gebiet von 60.000 Quadratkilometern und einer Tiefe von 1 Kilometer abzudecken, das klingt in meinen Ohren ganz und gar nicht nach „einer Genauigkeit von acht Tausendstel Grad“.
Hier habe ich noch einen dritten Weg, um sich die Herausforderung dieser Messungen klarzumachen. Wenn man je mal in einem kleinen Boot gesessen und kein Land mehr gesehen hat – weiß man dann, wie groß der Ozean von Deck aussieht? Nehmen wir an, das Deck befinde sich 3 Meter über dem Wasser und man steht an Deck und schaut sich um. Nichts als der blanke Ozean erstreckt sich ringsum bis zum Horizont, eine riesige Menge Wasser auf allen Seiten. Wie viele Thermometermessungen würde man brauchen, um die monatliche Mitteltemperatur nur des in diesem Falle sichtbaren Ozeans bis zu einer Tiefe von eineinhalb Kilometern brauchen? Ich würde sagen… mehr als eine.
Nun führe man sich vor Augen, dass jede ARGO-Boje ein Gebiet zu überdecken hat, das 2000 mal so groß ist wie die Fläche, die man auf dem Deck des Schiffes stehend überblicken kann… und die Boje nimmt drei Tauchdurchgänge pro Monat vor… wie gut passen die Messungen, wie gut repräsentieren sie die Wirklichkeit?
Es gibt noch eine weitere Schwierigkeit. Abbildung 2 zeigt, dass sich der größte Teil der Änderung während der Zeitspanne innerhalb eines Jahres ereignete, etwa von Mitte 2007 bis Mitte 2008. Die Änderung des notwendigen Antriebs, die Temperatur von Wasser bis zu einer Tiefe von eineinhalb Kilometern zu ändern, liegt etwa bei 2 W/m² für diese Periode eines Jahres. Das „Ungleichgewicht“, um Hansens Term zu benutzen, ist sogar noch schlechter, wenn wir die Menge Energie betrachten, die nötig ist, um den oberen Ozean von Mai 2007 bis August 2008 zu erwärmen. Dies erfordert ein globales „Ungleichgewicht“ von etwa 2,7 W/m² während dieser Zeit.
Weiter! Wäre dies mein Datensatz, wäre das Erste, was ich mir ansehe, was sich Mitte 2007 verändert hat. Warum sprang das globale „Ungleichgewicht“ auf einmal auf 2,7 W/m²? Noch mehr auf den Punkt gebracht, warum hat sich der obere Ozean erwärmt, nicht jedoch die Lufttemperatur?
Ich habe keine Antworten auf diese Fragen, mein erster Gedanke waren „Wolken“… aber bevor ich mit diesem Datensatz arbeitete, wollte ich hingehen und nachschauen, warum es 2007 diesen großen Sprung gab. Was hat sich verändert und warum? Wenn das globale „Ungleichgewicht“ in unserem Interesse liegt, gibt es hier ein Ungleichgewicht zu studieren.
 (Lassen Sie mich im Vorübergehen anmerken, dass es eine nicht korrekte vereinfachende Annahme ist, den Wärmegehalt der Ozeane zu eliminieren, um zur kanonischen Klimagleichung zu kommen. Diese kanonische Gleichung lautet:
Temperaturänderung = Sensitivität x Änderung des Antriebs.
Der Fehler liegt darin anzunehmen, dass die Änderung des ozeanischen Wärmegehalts (OHC) eine lineare Funktion der Temperaturänderung ∆T ist. Das ist sie nicht, wie die ARGO-Daten bestätigen… diesen Fehler habe ich in einem früheren Beitrag hier (auf Deutsch bei EIKE hier) beschrieben. Aber ich schweife ab…
Die ARGO-Aufzeichnungen bei SLT2011 haben auch eine Eigenart, wie sie auch bei einigen anderen Temperaturaufzeichnungen vorkommt. Die Schwingung während des gesamten Zeitraumes beträgt etwa ein Hundertstel Grad. Der größte Sprung innerhalb eines Jahres in den Daten liegt auch etwa bei einem Hundertstel Grad. Wenn sich in lang- und kurzfristigen Zeiträumen die gleiche Schwingung zeigt, kann man kaum noch viel über die Daten sagen. Das macht es sehr schwierig, die Daten zu interpretieren. Zum Beispiel beträgt das notwendige Ungleichgewicht zur größten Änderung innerhalb eines Monats etwa 24 W/m². Bevor wir fortfahren – Änderungen des OHC die zu betrachten sich lohnen würde, um zu sehen, a) ob sie real sind und b) falls ja, was hat sich verändert…
In jedem Falle, das war mein zweites Anliegen, die Kleinheit der gemessenen Temperaturunterschiede.
Als nächstes zur Abdeckung. Die ARGO-Analyse bei SLT2011 verwendet lediglich Daten bis zu einer Tiefe von 1500 Metern. Sie sagen, dass der Datenumfang von ARGO in noch größeren Tiefen zu dünn ist, um von Bedeutung zu sein, aber die Lage verbessert sich. Außerdem überdeckt die ARGO-Analyse nur den Bereich zwischen 60° Nord und 60° Süd. Der arktische bzw. antarktische Ozean bleibt also außen vor, ebenfalls wegen der unzureichenden Datenlage. Als nächstes fängt sie erst in einer Tiefe von 10 Metern an, lässt also die entscheidende Oberflächenschicht außen vor, obwohl die, wiewohl klein im Volumen, große Temperaturveränderungen erfährt. Schließlich fehlen in ihrer Analyse die Kontinentalschelfe, weil nur Gebiete betrachtet werden, in denen der Ozean über 1000 m tief ist. Abbildung 4 zeigt den Anteil der von den ARGO-Bojen tatsächlich vermessenen Gebiete in SLT2011, nämlich etwa 30%.
 
Abbildung 4: Anteil der Weltozeane, in denen die ARGO-Bojen messen, wie in SLT2011 verwendet.
Zusätzlich zu den Messungen der ARGO-Bojen zeigt Abbildung 4, dass es noch eine Anzahl anderer Messungen gibt. H2011 enthält Daten für einige davon, einschließlich der Südlichen Ozeane (= der antarktischen Gewässer)  des Arktischen Ozeans sowie Tiefengewässer. Hansen verweist auf seine Quelle (Purkey und Johnson,   hier PJ2010 genannt) und sagt, dass es in einer Tiefe von 2 bis 4 km keine Temperaturänderung gegeben hat. Dies gilt für das meiste des Wasseranteils auf der rechten Seite der Abbildung 4. Es ist unklar, wie sich das Wasser am Grund erwärmt, ohne dass die mittleren Wasserschichten das auch tun. Ich kann mir nicht vorstellen, wie das möglich sein soll, aber PJ2010 zufolge ist es so, dass das blaue Gebiet rechts das die Hälfte des Ozeanvolumens repräsentiert, keinerlei Temperaturänderung aufweist.
Weder H2011 noch SLT2011 bieten eine Analyse des Effekts an, den das Auslassen der Kontinentalschelfe oder der dünnen Oberflächenschicht hat. In dieser Hinsicht ist es bemerkenswert, dass sich in einer zehn Meter dicken Schicht wie in Abbildung 4 gezeigt die Temperatur problemlos um ein ganzes Grad ändern kann… und wenn sie das tut, wäre das etwa die Größenordnung der gleichen Änderung des ozeanischen Wärmegehaltes wie die 0,01°C der Erwärmung des gesamten Volumens, wie es von den ARGO-Bojen gemessen worden ist. Also ist diese Oberflächenschicht ein viel zu großer Faktor, um einfach bei der Analyse nicht berücksichtigt zu werden.
Es gibt noch ein anderes Problem mit den Abbildungen, die in H2010 als Beleg für die Änderung des Wärmegehalts des Tiefenwassers (unter 4 km) herangezogen werden. In der zitierten Studie, PJ2010, heißt es:
Schließt man den arktischen Ozean und die Nördlichen Ozeane aus, ist die Änderung des Wärmegehalts in Tiefengewässern (unter 4000 m) global in den neunziger Jahren und der ersten Dekade dieses Jahrhunderts äquivalent mit einem Wärmefluss von 0,027 (± 0,009) W/m², angewendet auf die gesamte Erdoberfläche. QUELLE: PJ2010.
Das läuft auf eine behauptete Erwärmungsrate der Tiefengewässer von 0,0007°C pro Jahr hinaus, mit einem behaupteten 95%-Intervall einer Standardabweichung von ±0,0002°C pro Jahr… Es tut mir leid, aber das nehme ich ihnen nicht ab. Ich akzeptiere nicht, dass wir den jährlichen Temperaturanstieg der Tiefengewässer auf zwei tausendstel eines Grades pro Jahr kennen, egal was PJ2010 behaupten. Die Tiefengewässer werden einmalig oder zweimal pro Dekade mit einem Profil vermessen. Ich glaube nicht, dass unsere Messungen ausreichend sind.
Wie es in der Klimawissenschaft häufig der Fall ist, ist unser Problem hier, dass als Einziges die strikte mathematische Unsicherheit hinsichtlich der Zahlen selbst berücksichtigt wird, losgelöst von der realen Welt. Es gibt eine damit verbundene Unsicherheit, die manchmal unberücksichtigt bleibt. Diese besteht darin, wie sehr unsere aktuelle Messung das gesamte Gebiet repräsentiert.
Das zugrunde liegende Problem ist, dass die Temperatur von „intensiver“ Qualität ist, während so etwas wie Masse von „extensiver“ Qualität ist. Diese beiden Arten, intensive und extensive Parameter, zu messen ist sehr, sehr unterschiedlich. Eine extensive Qualität ändert sich mit der Menge („extent“) dessen, was gemessen wird, was auch immer das ist. Die Masse von zwei Gläsern Wasser mit einer Temperatur von 40° ist zweimal die Masse eines Glases Wasser mit einer Temperatur von 40°. Zur Bestimmung der Gesamtmasse addieren wir einfach die beiden Massen.
Aber addieren wir zweimal 40°C, um eine Gesamttemperatur von 80° zu erhalten? Nein, so funktioniert das nicht, weil die Temperatur von intensiver Qualität ist. Sie ändert sich nicht auf Basis der Menge, die wir messen.
Extensive Qualitäten sind generell einfach zu messen. Wenn wir eine große Badewanne voll Wasser haben, können wir dessen Masse leicht bestimmen. Man bringe eine Skala an und mache eine einzige Messung – fertig! Eine Messung ist alles, was man braucht.
Aber die mittlere Temperatur des Wassers ist viel schwerer zu ermitteln. Es erfordert simultane Messungen der Wassertemperatur an genauso vielen Stellen wie verlangt. Die Anzahl der erforderlichen Thermometer hängt von der Genauigkeit ab, die man braucht, und von der Größenordnung der Änderung der Wassertemperatur. Wenn es warme und kalte Stellen des Wassers in der Wanne gibt, braucht man sehr viele Thermometer, um einen Mittelwert zu erhalten, der, sagen wir, auf ein zehntel genau ist.
Nun rufen Sie sich ins Gedächtnis zurück, dass wir hier anstelle einer Badewanne mit vielen Thermometern für die ARGO-Daten ein Ozeangebiet haben mit einer Seitenlänge von 380 km mit einer einzigen ARGO-Boje darin, die die Temperatur misst. Wir messen bis zu einer Tiefe von eineinhalb Kilometern, und wir erhalten drei vertikale Temperaturprofile pro Monat… wie gut charakterisieren diese drei Profile die tatsächliche Temperatur von 140.000 km² Ozean?
Man beachte ferner, dass es in den Tiefengewässern viel, viel weniger Messungen gibt… und doch wird behauptet, dass man eine noch größere Genauigkeit erreichen kann als mit den ARGO-Daten.
Bitte seien Sie sich darüber im Klaren, dass meine Argumentation nicht auf den Möglichkeiten einer großen Anzahl von Messungen basiert, um die mathematische Präzision des Ergebnisses zu verbessern. Es gibt etwa 7500 vertikale ARGO-Profile pro Monat. Die Einteilung der Ozeanoberfläche in 864 Gitterpunkte ist ausreichend, um uns mathematische Präzision in der von ihnen behaupteten Größenordnung zu geben, falls die Standardabweichung (SD) des tiefenintegrierten Gitterpunktes  etwa 0,24°C beträgt. Die Frage ist, ob die SD der Gitterpunkte so klein ist, und falls ja, warum sie so klein geworden ist.
Sie diskutieren, wie sie ihre Fehleranalyse durchgeführt haben. Ich habe den Verdacht, dass ihr Problem in zwei Gebieten liegt. Eines ist, dass ich keine Fehlerabschätzung für das Entfernen der „Klimatologie“ aus den Daten, der historischen monatlichen Mittelwerte sehe. Das andere Problem enthält die verwendete geheimnisvolle Methode der Datenanalyse durch die Gittereinteilung der Daten horizontal und vertikal. Ich möchte mich zuerst mit der Klimatologiefrage befassen. Sie beschreiben ihre Methode wie folgt:
2.2 Methode der Datenbearbeitung
Eine ARGO-Klimatologie (hiernach ACLIM, 2004 – 2009 von Schuckmann et al., 2009) wird zunächst an jeder Stelle des Profils interpoliert, um lückenhafte Profile für die Tiefe jeder Temperatur und jeden Salzgehaltes zu vervollständigen. Diese Prozedur ist erforderlich, um die tiefenintegrierten Quantitäten zu berechnen. OHC (ozeanischer Wärmegehalt), OFC (ozeanischer Frischwassergehalt) und SSL (räumlicher {temperaturabhängiger} Meeresspiegel) werden dann für die Position jedes ARGO-Profils berechnet, wie es von Schuckmann et al. (2009) beschrieben worden ist. Schließlich wurden noch Anomalien der physikalischen Gegebenheiten an jedem Ort eines Profils berechnet, relativ zu ACLIM.
Terminologie: Ein „Temperaturprofil“ ist ein Strang von Messungen mit zunehmender Tiefe durch eine ARGO-Boje. Die „Position des Profils“ liegt auf einem vorher festgelegten Druckniveau, bei dem die ARGO-Bojen ausgesetzt werden, um eine Messung durchzuführen.
Dies bedeutet, wenn Daten in einem gegebenen Profil fehlen, wird die Lücke mit Hilfe der „Klimatologie“ gefüllt, d. h. den langzeitlichen Mittelwerten für den Monat und den Ort. Nur führt dies dazu, dass ein Fehler eingebracht wird, kein sehr großer, aber einer, der sich bemerkbar macht.
In Bezug auf den letzten Satz des vorigen Absatzes kann ich jedoch in ihrer Fehlerberechnung keinerlei Fehlerabschätzung finden. Jener Satz beschreibt die Subtraktion der ACLIM-Klimatologie von den Daten. ACLIM ist eine ARGO-Klimatologie, und zwar ein Mittel Monat für Monat aus jedem Tiefenniveau.
SLT2011 weist bzgl. dieser Frage auf eine frühere Arbeit der gleichen Autoren hin, SLT2009, worin die Bildung der ACLIM-Klimatologie beschrieben wird. Ich sehe dort über 150 Niveaus der ACLIM-Klimatologie, wie sie von den Autoren beschrieben werden:
Die Konfiguration wird definiert durch das Gitternetz und den Satz von mutmaßlichen Informationen wie der Klimatologie und deren mutmaßliche Abweichungen und Kovarianzen, die erforderlich sind, um die Kovarianzmatrix zu berechnen. Das analysierte Feld wird definiert auf einem horizontalen isotropischen Gitter im Abstand von ½° einer Mercator-Projektion und ist begrenzt auf den Bereich zwischen 77°S bis 77°N. Es wurden 152 vertikale Schichten zwischen 0 und 2000 m Tiefe definiert… und zwar mit einem Abstand von jeweils 5 m von der Oberfläche bis zu einer Tiefe von 100 m, 10 m von 100 bis 800 m und 20 m von 800 m bis 2000 m.
Sie haben also die oberen Ozeanschichten in Gitterwürfel eingeteilt und jeden Gitterwürfel in Schichten, um Gitterzellen zu erhalten. Wie viele Gitterzellen? Nun, 360 Längengrade x 2 x 180° Grad Breite x 2 x 70% der Erde sind Ozeane x 152 Schichten = 27.578.880 ozeanische Gitterzellen. Dann haben sie das Temperaturmittel Monat für Monat für jede einzelne dieser 25 Millionen Gitterzellen ozeanischen Volumens berechnet… ein netter Trick. Klarer Fall, sie interpolieren wie die Verrückten.
Es gibt etwa 450.000 einzelne Werte der Ozeantemperatur pro Monat, ermittelt durch die ARGO-Bojen. Dies bedeutet, dass jede ihrer 25 Millionen Gitterzellen im Mittel nur alle 5 Jahre einmal mit [gemessenen] Temperaturwerten gestützt werden.
Dies ist die “Klimatologie”, die sie an jeder „Profilstelle“ bei jedem ARGO-Tauchgang abziehen. Angesichts der kurzen Geschichte des ARGO-Datensatzes, die Abdeckung von 140.000 Quadratkilometern Ozeanfläche und die Kleinheit der Gitterzellen sind große Unsicherheiten in der Klimatologie offensichtlich.
Wenn sie also eine Klimatologie von einer aktuellen Messung subtrahieren, enthält das Ergebnis nicht nur einen Fehler in der Messung. Es enthält auch den Fehler in der Klimatologie. Wenn wir etwas subtrahieren, addieren sich die Fehler „quadratisch“. Dies bedeutet, dass der resultierende Fehler die Quadratwurzel der Summe der Fehlerquadrate ist. Es bedeutet auch, dass die großen Fehler bestimmend sind, vor allem, wenn ein Fehler viel größer ist als der andere. Die Temperaturmessung an der Stelle des Profils enthält lediglich den Instrumentenfehler. Für die ARGO-Werte beträgt dieser ± 0,005°C. Der klimatologische Fehler? Wer weiß das schon, wenn die Volumina nur alle 5 Jahre einmal mit Messungen belegt werden? Aber es steckt viel mehr dahinter als der Instrumentenfehler…
Das also ist das wesentliche Problem, das ich ihren Analysen entnehme. Sie machen es auf eine schwer nachvollziehbare, geheimnisvolle und plumpe Art und Weise. Argo-Daten und Temperaturdaten allgemein kommen in einer irgendwie genetzten Welt nicht vor. Wenn man die Dinge macht, die sie mit den Gitterquadraten und den Schichten machen, schleichen sich Fehler ein. An einem Beispiel will ich das verdeutlichen. Abbildung 5 zeigt die Tiefenschichten von 5 m, verwendet in der oberen kleineren Sektion der Klimatologie zusammen mit den Aufzeichnungen eines Temperaturprofils einer ARGO-Boje.
 
Abbildung 5 ACLIM-Klimatologieschichten (5 Meter). Rote Kreise zeigen die aktuellen Messungen eines einzelnen ARGO-Temperaturprofils. Die blauen Karos zeigen die gleiche Information nach der Mittelung in Schichten. Quelle
Vieles kann man hier erkennen. Erstens gibt es keine Daten für drei der klimatologischen Schichten. Ein größeres Problem ist Folgendes: wenn wir eine Einteilung in Schichten vornehmen, verweisen wir den Mittelwert in den Mittelpunkt der Schicht. Das Problem damit ergibt sich, weil die ARGO-Bojen im Flachwasser in Intervallen messen, die etwas weniger als 10 m dick sind. Also sind die oberen Messungen gerade über der unteren Grenze der Schicht. Im Endergebnis ist dies gleichbedeutend, dass man das Temperaturprofil bei der Einteilung in Schichten ein paar Meter nach oben verschiebt. Dies führt zu einer großen Verzerrung bei den Ergebnissen. Zusätzlich ist diese Verzerrung abhängig von der Tiefe, weil die oberen Schichten aufwärts, die tieferen Schichten aber abwärts bewegt werden. Der Fehler ist unter 100 Metern am kleinsten, wird aber danach wegen der Änderung der Schichtdicke zu 10 Metern rasch größer.
SCHLUSSFOLGERUNGEN
Zuletzt kommen wir zur Frage nach der Analysemethode und der Bedeutung der Überschrift zu diesem Beitrag*. Im SLT2011 lesen wir weiterhin:
Um die globalen ozeanischen Indizes (GOI) mit Hilfe der unregelmäßig verteilten Profile abschätzen zu können, wird der globale Ozean in Rechtecke mit 5° Breite, 10° Länge und 3 Monate Zeit eingeteilt. Dies gewährleistet eine ausreichende Anzahl von Beobachtungen pro Rechteck. Um falsche Daten zu entfernen wurden Messungen, die um mehr als das Dreifache von der Standardabweichung entfernt liegen, ausgeschlossen. Die Information bzgl. der Varianz für dieses Kriterium wird aus ACLIM abgeleitet. Dieser Prozess schließt etwa 1% der Daten unserer Analyse aus. Nur Datenpunkte über einer gemessenen Tiefe über 1000 m wurden dann behalten. Rechtecke mit weniger als 10 Messungen wurden als eine Messlücke betrachtet.
Tut mir leid, aber das ist eine dumme Methode, diese Art von Daten zu analysieren. Sie haben die aktuellen Daten verwendet. Dann haben sie Lücken mit „klimatologischen“ Daten gestopft, so dass alles nett und ordentlich aussah. Dann haben sie die „Klimatologie“ von dem Ganzen subtrahiert, mit einem Fehler in unbekannter Größe. Dann wurden die Daten in ein Gitternetz gemittelt mit einem Abstand der Gitterpunkte von 5 mal 10 Grad sowie 150 Schichten unter der Oberfläche mit variierender Schichtdicke, dann haben sie das gemittelt über einen Zeitraum von drei Monaten… das ist alles unnötige Komplexität. Dieses Problem zeigt erneut, wie isoliert die Gemeinschaft der Klimawissenschaftler in der Welt etablierter Methoden ist.
Dieses Problem, über vertikale ARGO-Temperaturprofile zu verfügen und diese zur Abschätzung der Temperatur in den nicht gemessenen Gebieten zu nutzen, ist keineswegs neu. Tatsächlich ist es genau die Situation, der sich jede Bergbaugesellschaft gegenüber sieht hinsichtlich der Ergebnisse ihrer Testbohrungen. Genau wie bei den ARGO-Daten haben die Bergbauer vertikale Profile der Zusammensetzung der unterirdischen Wirklichkeit an verschiedenen Stellen. Auch wie bei ARGO müssen die Gesellschaften aus diesen Informationen die Verhältnisse in den Gebieten abschätzen, die sie nicht sehen können.
Aber dabei handelt es sich dann nicht um AGW stützende Wissenschaftler, für die fehlerhafte Behauptungen nichts bedeuten. Für diese Leute geht es um das große Geld abhängig von den Ergebnissen ihrer Analysen. Ich kann Ihnen versichern, dass sie kein Brimborium veranstalten und das Gebiet in rechteckige Kästen einzuteilen und den Untergrund in 150 Schichten unterschiedlicher Dicke zu zerlegen. Sie würden jeden auslachen, der versucht, mit einer solchen schwerfälligen Methode eine Goldader zu finden.
Stattdessen benutzen sie eine mathematische Methode, “kriging“ genannt. Warum machen sie das? Weil es funktioniert.
Man erinnere sich, die Bergbaugesellschaften können sich keine Fehler leisten. Das Kriging (und daraus abgeleitete Methoden) haben sich jedes Mal dabei bewährt, die besten Abschätzungen des Untergrundes zu ergeben, die man nicht messen kann.
Zweitens ergeben sich aus dem Kriging aktuelle Fehlerabschätzungen und nicht der „acht tausendstel von einem Grad“-Unsinn der ARGO-Analysten. Die Bergbaugesellschaften können sich nicht selbst mehr Sicherheit vortäuschen als die Messungen hergeben. Sie müssen genau über die Risiken Bescheid wissen und nicht irgendwelche optimistischen Berechnungen vornehmen.
Am Ende dieses Tages möchte ich sagen, werfen Sie die Analyse der ARGO-Daten zum Fenster hinaus, zusammen mit all den aufgeblasenen Behauptungen über die Genauigkeit. Hören Sie auf, mit Gitternetzen und Schichten um sich zu werfen, das ist Zeug für die Hochschule. Nehmen Sie sich einen Kriging-Experten und analysieren Sie die Daten ordnungsgemäß. Meine Vermutung ist, dass eine echte Analyse zeigen wird, dass viele Abschätzungen unbrauchbar sind.
In jedem Falle ist dies meine Analyse der Hansen-Studie zum Energieungleichgewicht. Sie behaupten darin eine Genauigkeit, von der ich nicht glaube, dass sie ihrer gewaltig komplexen Methode gerecht wird.
Dies ist ein langer Beitrag, vielleicht haben sich Ungenauigkeiten und Druckfehler eingeschlichen, seien Sie gnädig…
Willis Eschenbach
Link: http://www.columbia.edu/~jeh1/mailings
Übersetzt von Chris Frey für EIKE




Weltweit größter Windkraftanlagenbauer Vestas muss 2300 Jobs streichen

Schon im vergangenen Jahr hatte Vestas 3000 Mitarbeitern gekündigt. Nach dem Stellenabbau wird das Unternehmen weltweit noch rund 20’400 Mitarbeiter haben. Das berichten aktuell der Schweizer Tagesanzeiger [1] und das Schweizer Fernsehen [2].  Windturbinen im Abwind  
»Der weltweit grösste Windturbinenbauer entlässt mehr als 2300 Mitarbeiter. Die dänische Vestas reagiert damit auf die flaue Nachfrage….«. 
Und FinanzNachrichten.de listet Negativmeldungen quasi im Minutentakt. Und wie läuft das mit der deutschen Energiewende?

Aktienkurs der VESTAS Aktie; Quelle Finanztreff
Für den global player Enercon tun sich hingegen bei uns noch ungeahnte Zukunftspotentiale in deutschen Staatsforsten auf. Die "sichtgeschützten Standorte" würden große Chancen für den weiteren Ausbau der Windenergie bergen – so das Magazin Windblatt 04/11.
Na ja, wenn es der Wind entlang der dänischen Küstenlinien mit der Energiewende in dem kleinen Land nicht geschafft hat, wie soll es dann über den deutschen Wäldern besser gehen? Sofern den Waldstandorten keine forstfachlichen Gesichtspunkte entgegenstehen und die Stellungnahme der von einen Projekt betroffenen Gemeinde eingeholt wurde, "ist insbesondere der Landesbetrieb ForstBW grundsätzlich bereit, geeignete Flächen im Staatswald für die Errichtung von Windkraftanlagen zu verpachten" – laut Windenergieerlass Baden-Württemberg [hier]. Jobperspektiven dürften sich in der EE-Szene allerdings noch im Wartungs- und Reparaturdienst und später bei Demontage und Entsorgung entwickeln. Denn viele Anlagen sollen ja noch 20 Jahre laufen. 
Übernommen mit Dank von Wilfried Heck 
Weitere Details hier und hier
Und schlechte Nachrichten auch noch von der Offshore Front: Zeit online schreibt

Offshore-Ziele kaum noch zu schaffen

Jahrelange Planung, komplizierter Netzanschluss, schwierige Finanzierung: Die Windenergie auf See kommt angesichts der vielen Probleme nicht in Schwung….

….Stromnetzbetreiber Tennet ist überfordert

Erst vor wenigen Wochen warnte daher der Stromnetzbetreiber Tennet in einem Brandbrief an die Bundesregierung, dass der Anschluss der Windparks unter den derzeitigen Umständen nicht möglich sei. Das mittelständische Unternehmen ist überfordert, egal, ob es um die Finanzierung, das Personal und das Material geht. Allein den Netzanschluss muss der Konzern eigentlich binnen 30 Monaten gelegt haben, so sieht es die Bundesnetzagentur vor. Doch was tun, wenn Firmen wie ABB dafür 40, wenn nicht 50 Monate benötigen?
Es sind solche Probleme, die viele Experten inzwischen pessimistisch stimmen. 10.000 Megawatt Offshore-Kapazitäten will die Bundesregierung bis 2020 ans Netz bringen – theoretisch entspricht das der Leistung von zehn Atomkraftwerken. "Das ist unwahrscheinlich", sagt Verbandspräsident Hermann Albers. Eher würden es wohl nur 6.500 bis 7.000 Megawatt bis 2020. Auch innerhalb der Bundesregierung wachsen die Zweifel an den ambitionierten Plänen. Im aktuellen Energiekonzept spricht die Bundesregierung denn auch lieber vom Ziel "25.000 Megawatt in 2030"….
Die Redaktion




Windkraftstrom-SPIEGEL-Wind-Ei der Woche: Trotz “harter Fakten” keine Substanz

“8 Mrd. Kilowattstunden Strom haben deutsche Windräder im Dezember (2011; Anm. des Autors) erzeugt. Der Rekord entspricht fast der monatlichen Leistung aller deutschen Atomkraftwerke.”

Wer es noch nicht gemerkt hat – die Botschaft lautet: dank der deutschen Windkraftwerke können wir den Verzicht auf Kernkraft locker wegstecken.

Faktencheck: 

– im Dezember 2011 lag die Windstromerzeugung in der Tat bei knapp 8 Mrd. kWh – damit war dieser Monat auch wirklich der mit Abstand ertragreichste des Jahres 2011 (insges. wurden etwa 44,3 Mrd. kWh erzeugt – eine Auslastung von satten 18% der installierten Leistung) – laut Wikipedia waren in Deutschland acht Kernkraftwerke mit neun Reaktorblöcken und einer installierten Bruttogesamtleistung von 12.676 MW am Netz (bzw. hätten am Netz sein können). Mulipliziert man dies mit den 744 Stunden des Monats Dezember, landet man etwas oberhalb von 8 Mrd. kWh. Das lassen wir mal durchgehen.
Warum die SPIEGEL-Meldung trotzdem unsinnig ist, erläutert Wilfried Heck http://wilfriedheck.de/ im Blog-Beitrag vom 10. Januar im Detail

Maßeinheiten: Reihe 2 = Strommengen in MWh;
Reihe 3 = höchster und Reihe 4 = niedrigster Leistungswert in MW  

 
Nicht nur war der “Rekord"-Dezember 2011 der einzige Monat mit einer vergleichsweise “steitigen” Windstromerzeugung – in zehn von zwölf Monaten des vergangenen Jahres lag die minimale Tages-Erzeugung bei zum Teil deutlich weniger als 250 Mio. kWh. 
Da für eine einigermaßen sichere Energieversorgung immer eine sofortige Deckung des aktuellen Bedarf nötig ist, können wir also gar nichts abschalten. Außer ein paar Klein(st)kraftwerken.
Auf derselben Webseite stellt Herr Heck in einem Beitrag vom 3. Januar die Windstromerzeugung der aus konventionellen Quellen gegenüber.

Wie leicht ersichtlich ist, erzwingt jede Leistungsspitze bei der Windkrafterezeugung einen entsprechenden Einbruch bei der konventionellen Stromproduktion. Dies bedeutet nicht etwa, dass konventionelle Kraftwerke abgeschaltet werden können, wenn der Wind nur ausreichend weht. Sie müssen als Backup natürlich weiterhin mitlaufen, allerdings mit gedrosseltem Output – und damit einem oft drastisch reduziertem Nutzungsgrad des eingesetzten Brennstoffs.
Warum dies in Summe sogar dazu führen kann, dass CO2-Emissionen gerade wegen der Einspeisung von Windenergie höher ausfallen, als ohne diese, erklärt Klaus-Dieter Humpich hier. Ein konkretes Beispiel aus den Niederlanden wird hier beschrieben.
Für solche Feinheiten bieten 24 Quadratzentimeter im Print-SPIEGEL natürlich nicht ausreichend Raum.
Fazit: die “Zahl der Woche” im SPIEGEL grenzt an Desinformation. Von welcher Seite, mag der Leser selbst entscheiden.
Rainer Schulze
Der Beitrag erschien zuerst auf ACHGUT hier
Hier der Beitrag von Wilfried Heck vom 3.1.12
Ein zahlen- und faktenmäßiger Rückblick auf das Jahr 2011 hält immer noch die seit 20 Jahren bestehende Frage offen, was denn die vielen Wind- und Solarstromanlagen für eine verlässliche Stromversorgung taugen. Aus technischer Sicht ließ sich zu Beginn der vorrangigen Stromeinspeisung durchaus noch darüber lächeln. Ihre Wirkung ging schlicht im Netzrauschen unter. Natur- und Landschaftsschützer, welche in den 90er Jahren gegen die im Vergleich zu heute zwergenhaften Riesenpropeller antraten wurden veräppelt, geschmäht und diskreditiert und viele ländliche Dorfgemeinschaften sind deswegen zerbrochen. Städtische Populationen, welche wohl in Umfragen auch immer nach dem ‚Ökstrom‘ aus Sonne und Wind rufen, muss das ja nicht betreffen. 
Mit der Gier nach einer schnellen und sicheren Rendite ließen sich per Erneuerbare-Energien-Gesetz Milliarden an Investitionen aus dem Volk pressen und der technische Klimaschutz bekam seinen unangreifbaren Glorienschein. Nun haben viel Geld, eine teure und weltenrettende Propaganda das Netzrauschen deutlich spürbar überstiegen. Spürbar im Sinne steigender Belastungen für Menschen, Tiere und Umwelt samt den zunehmenden Netzproblemen aus den vielen, volatil und entgegen jeglichem Bedarf einspeisenden EE-Anlagen. Aus der einstigen Bedeutungslosigkeit im allgemeinen Netzrauschen hat sich ein wirtschaftlich hochgerüsteter Störfaktor für die Stromversorgung entwickelt – weil Wind- und Sonne nur unregelmäßig und schwer planbar ihre Energien zur Verfügung stellen. Das Problem war von Anfang an bekannt, wurde aber geflissentlich unter der Decke gehalten. Nun soll es jedoch nicht an seiner Ursache, sondern durch weitere Geschäftsmodelle wie den Netzausbau und Speicherausbauten bis nach Norwegen kompensiert werden. Das skandinavische Land wurde bereits in der Vergangenheit mit kriegerischen Handlungen von der Deutschen Wehrmacht besetzt. Das muss sich mit der Landnahme einer deutschen Ökomacht für den Aus- und Umbau der Speicherseen zu Pumpspeicherkraftwerken und der Errichtung von Höchstspannungstrassen zwecks Sicherstellung unserer Stromversorgung (Energiewende) nicht wiederholen. In der Diskussion um das neue Pumpspeicherkraftwerk Atorf im Schwarzwald rudert der Energieexperte des Sachverständigenrates für Umweltfragen, Prof. Olav Hohmeyer, nun zurück. Aha, zu Hause die ökoheile Heimat – bei anderen ist das ja weniger schlimm, oder?  
  
 Einspeisung der Wind- und Solarstromanlagen im Vergleich zu konventionellen Kraftwerken ab 100 MW LeistungZahlen und Fakten für 2011: Höchstlast der konventionellen Einspeisung über die Strombörse: 62.736,60 MW, Mittelwert: 41.677,54 MW, kleinster Wert: 21.453,40 MW, Strommenge: 365.095.214,30 MWh.Höchstleistung der von der EEX aufgezeichneten Windkrafteinspeisung: 22.869,90 MW, Mittelwert: 5.063,85 MW, kleinster Wert: 88,10 MW; Strommenge: 44.359.340,87 MWh.Höchstleistung der von der EEX aufgezeichneten Solarstromeinspeisung:13.190,90 MW, Mittelwert: 2.118,55 MW, geringster Wert: NULL – jede Nacht. Strommenge: 18.558.528,97 MWh. Die zeitgleiche Addition der Wind- und Solarstromeinspeisung liefert folgende EE-Ergebnisse: Höchster Wert: 27.862,20 MW, Mittelwert: 7.182,41 MW, Minimalwert: 204,30 MW, Strommengen aus Wind- plus Solar: 62.917.869,85 MWh – ergibt 17,23 % Anteil im Vergleich zu der konventionellen Einspeisung aus Kraftwerken ab 100 MW Leistung. Die Höhe der Grundlast ist nicht spezifisch definiert. Beispielhaft läßt sich in der obigen Grafik ein Wert von 25.000 MW ansetzen. Diesen Wert hat die Summe aus Wind- und Solareinspeisung im gesamten Jahr nur 55 mal für jeweils ein Viertelstunde überschritten. Und schon wieder stellt sich die Frage nach einer jederzeit sicheren und bedarfsgerechten Stromerzeugung. Nun bräuchte man das obige 17,23 %-Ergebnis nur mit sechs multiplizieren, und schon hätten wir 100 % der Stromversorgung nur aus Wind- und Sonnenenergie erreicht. Biomassekraftwerke und Speicherseen könnten zusätzlich die Grund- und Regelleistung liefern und das Potential der aktuell einspeisenden, herkömmlichen Kraftwerke mit derzeit 99.451 MW wäre samt Strombörse EEX obsolet. Deutschland könnte sich als autarke Insel aus dem europäischen Netzverbund ausgliedern und seinen eigenen Weg beschreiten. Also packen wir’s an und lasst uns die Anstrengungen und Windräder deutlich erhöhen und die Solarplattenfelder weitest gehend ausdehnen! Die Zeit bis 2050 ist kürzer als man denkt und es gibt noch viel zu tun – für die dafür notwendige Geldbeschaffung und die damit einhergehenden Landschafts- und Natureingriffe (Flora und Fauna) größten Ausmaßes. Die Energiewende kann schließlich nicht kostenlos sein. Damit die erneuerbaren Energien aus der Nord- und Ostsee auch in Süddeutschland ankommen, müssen bis 2030 35.000 km Stromtrassen für die Hoch- und Höchstspannungsebene (110/220/380 kV) gebaut werden – so der Verband kommunaler Unternehmen (VKU) in seiner Präsentation "Energiewende 2011 – Herausforderung für die Stadtwerke und Verteilnetze". Denn in den binnenländischen Zielregionen der Stromautobahnen warten bereits 1,7 Mill. km Mittel- und Niederspannungsleitungen (Verteilnetzebene 20/0,4 kV) auf den notwendigen Infrastrukturumbau zwecks Integration der bereits hier aus EE produzierten Strommengen. Die Höhe des Investitionsbedarfes für die Verteilnetzebene hat der VKU schon mal mit 25 Milliarden Euro angemeldet – jedoch noch ohne die Kosten für die Weiterentwicklung zu den sogenannten intelligenten Netzen.  Es ist schon erstaunlich, wieviel Geld einerseits für die regenerative und für Endverbraucher zunehmend teurer werdende Stromerzeugung und Verteilung eingesetzt werden soll und andererseits das Volk zu immer mehr Stromsparen aufgefordert wird. Wo bleibt dafür der volkswirtschaftliche Nutzen? Auf diesem Weg zur ‚Energiewende‘ bleibt kein Kapital mehr für produktive und nützliche Stromanwendungen übrig und weitere Unternehmen und Industriebetriebe werden sich Standorte in Nachbarländern suchen müssen. 




Frau Luna ist eine kühle Dame

Welche Auswirkungen haben Temperaturwechsel auf die Durchschnittstemperatur eines Planeten? Warum ist der Mond so viel kälter als erwartet? Die Albedo (Reflektivität) des Mondes ist geringer als die der Erde. Man kann den Unterschied in der Albedo in Fig. 1 sehen. Auf der Erde gibt es viele Stellen, die von Wolken, Schnee oder Eis weiß sind. Der Mond aber ist vorwiegend grau. Daher  beträgt die irdische Albedo ungefähr 0,30, die des Mondes nur 0,11. Der Mond müsste also mehr Energie absorbieren als die Erde, und die Temperatur der Mondoberfläche müsste knapp unter dem Gefrierpunkt von Wasser liegen. So ist es aber nicht. Der Mond ist viel kälter.

Fig. 1. Beobachtungen Oberflächentemperatur des Mondes von der Apollo15-Mission. Die roten und gelb-grünen kurzen waagerechten Linien links zeigen die theoretischen (rot) und die tatsächlichen (gelb-grün) durchschnittlichen Mondtemperaturen. Die violetten und blauen horizontalen LInien rechts zeigen die theoretische Stefan-Boltzmann-Temperatur der Erde ohne Atmosphäre (violett), und (in hellblau) eine Näherung, um wieviel die Erdtemperatur durch einem ± 50°C Temperaturwechsel vermindert würde infolge der Erdumdrehung. Die Sonnenuntergangstemperatur-Fluktuationen sind aus Gründen der Klarheit der Darstellung ausgelassen. (Daten-Quelle hier)

Wie die Erde empfängt die Mondoberfläche gemittelt etwa 342 Watt/Quadratmeter (W/m2) Sonnenenergie. Wie befinden uns ja im gleichen Abstand von der Sonne. Die Erde reflektiert 30% davon zurück in den Weltraum (Albedo 0,30) und behält etwa 240 W/m2. Der Mond mit seiner geringeren Albedo reflektiert weniger und absorbiert mehr Energie, etwa 304 W/m2.
Und weil der Mond im thermalen Gleichgewicht ist, muss er den gleichen Betrag abstrahlen, wie er von der Sonne erhält, ~ 304 W/m2.
Da gibt es die “Stefan-Boltzmann-Gleichung” (kurz S-B Gleichung, oder einfach S-B), die die Temperatur (in Kelvin) zur thermalen Abstrahlung in Beziehung setzt (in Watt/Quadratmeter). Sie besagt, dass die Abstrahlung proportional zur vierten Potenz der Temperatur ist.
Unter der Voraussetzung, dass der Mond etwa 304 W/m2 Energie in den Weltraum abstrahlt, um die hereinkommende Energie auszubalancieren, beträgt die der S-B Gleichung entsprechende Schwarzkörper-Mondtemperatur etwa 0,5 °C. Das wird auf Fig. 1 durch die kurze horizontale rote Linie dargestellt. Daraus ergäbe sich, dass die Mondtemperatur theoretisch knapp unter dem Gefrierpunkt läge.
Aber die gemessene tatsächliche Durchschnittstemperatur der Mondoberfläche wie in Fig. 1 gezeigt, beträgt minus 77 °C, weit unter dem Gefrierpunkt, wie die kurze waagerechte gelb-grüne Linie zeigt.
Was ist da los? Heißt das, dass die S-B Gleichung falsch ist, oder dass sie auf dem Mond nicht gilt?
Die Lösung des Rätsels ist, dass die Durchschnittstemperatur keine Rolle spielt. Was zählt, ist die Durchschnittsabstrahlung von 304 W/m2. Das ist ein absolutes Muss, das von der Thermodynamik gefordert wird – die durchschnittliche Abstrahlung des Mondes muss gleich der von der Sonne empfangenen Einstrahlung sein: 304 W/m2.
Strahlung ist proportional zur vierten Potenz der Temperatur.  Das bedeutet: Wenn die Temperatur hoch ist, gibt es viel mehr Strahlung, bei Temperaturverminderung ist die Strahlungsverminderung nicht genau so groß. Wenn es also Temperaturwechsel gibt, führen sie zu höherer Energieabstrahlung an der Oberfläche. Als Ergebnis der höheren Energieabstrahlung kühlt sich die Oberflächentemperatur ab. In einer Gleichgewichtssituation wie auf dem Mond, wo der Betrag der abgestrahlten Energie fest ist, reduzieren Temperaturwechsel immer die durchschnittliche Oberflächentemperatur.
Wenn man, wie in Fig. 1 oben, zuerst die nacheinander gemessenen Mondoberflächentemperaturen in die entsprechenden Mengen von Strahlung umrechnet und für diese dann den Durchschnitt bildet, beträgt dieser Durchschnitt 313 W/m2. Das ist nur ein kleiner Unterschied zu den 304 W/m2, die wir aus der ursprünglichen Kalkulation zum einfallenden Sonnenlicht und zur Mond-Albedo haben. Und während diese präzise Berechnung einigermaßen stimmig ist (unter der Voraussetzung, dass unsere Daten von einer einzigen Stelle auf dem Mond stammen), erklärt sie auch die große Differenz zwischen der vereinfachenden Theorie und den tatsächlichen Beobachtungen.
Es besteht also kein Widerspruch zwischen der lunaren Temperatur und der S-B-Kalkulation. Die durchschnittliche Temperatur wird von den Temperaturwechseln vermindert, während die durchschnittliche Strahlung gleichbleibt. Das tatsächliche lunare Temperaturmuster ist eines von vielen möglichen Temperaturveränderungen, die zur selben durchschnittlichen Variation von 304 W/m2 führen können.
Eines ist aber merkwürdig. Die niedrige lunare Durchschnittstemperatur ist die Folge des Ausmaßes der Temperaturwechsel. Je größer der Temperaturumschwung ist, desto niedriger ist die durchschnittliche Temperatur. Wenn der Mond sich schneller drehen würde, wären die Umschwünge kleiner und die Durchschnittstemperatur wärmer. Wenn es keine Temperaturwechsel gäbe und die Mondoberfläche überall gleichmäßig erwärmt würde, läge die Mondtemperatur kaum unter dem Gefrierpunkt. Alles, was die Temperaturveränderungen vermindert, würde die Durchschnittstemperatur auf dem Mond erhöhen.
Die Umschwünge wären kleiner, wenn der Mond eine Atmosphäre hätte, selbst wenn diese Atmosphäre keine Treibhausgase enthielte und für Infrarot völlig durchlässig wäre. Ein Effekt einer  völlig durchlässigen Atmosphäre ist, dass sie Energie von warm nach kalt transportiert. Das würde natürlich die Temperaturwechsel und Differenzen vermindern und schließlich den Mond leicht erwärmen.
Auf eine weitere Art und Weise würde eine sogar völlig durchlässige und treibhausgasfreie Atmosphäre den Mond erwärmen, indem sie dem System thermische Masse zufügte. Weil die Atmosphäre erwärmt und gekühlt werden muss, wie auch die Oberfläche, wird das auch die Temperaturwechsel vermindern und wiederum die Oberfläche leicht erwärmen. Es wäre keine große thermische Masse, und nur der geringste Teil hätte eine signifikante tägliche Temperaturfluktuation. Schließlich beträgt die spezifische Wärme der Atmosphäre nur etwa ein Viertel im Vergleich zu Wasser. Aus dieser Kombination von Faktoren würde nur ein nur ganz geringer Effekt folgen.
Hier möchte ich nun aufhören zugunsten eines wichtigen Arguments: Diese letzten beiden Phänomene bedeuten, dass ein Mond mit einer perfekt transparenten treibhausgasfreien Atmosphäre wärmer wäre als ein Mond ohne eine derartige Atmosphäre. Eine transparente Atmosphäre könnte die Mondtemperatur niemals über die S-B-Schwarzkörpertemperatur von einem halben Grad Celsius heben.
Der Beweis ist trivial einfach und kann durch die Behauptung des Gegenteils erbracht werden:
Die Behauptung würde lauten: Eine perfekt transparente Atmosphäre könnte die durchschnittliche Temperatur des Mondes über die Schwarzkörpertemperatur heben, das ist die Temperatur, bei welcher 304 W/m2 emittiert würden.
Doch nur die Mondoberfläche könnte in diesem System Energie emittieren, weil die Atmosphäre transparent wäre und keine Treibhausgase enthielte. Wenn also die Oberfläche wärmer als die theoretische S-B-Temperatur wäre, würde die Oberfläche mehr als 304 W/m2 in den Weltraum emittieren und nur 304 W/m2 aufnehmen.
Das wäre dann ein „perpetuum mobile“.  Q.E.D. (Quod Erat Demonstrandum – Was zu beweisen war)
Während also eine perfekt transparente Atmosphäre ohne Treibhausgase das Ausmaß der Abkühlung vermindern kann, die von Temperaturwechseln herrühren, kann sie nur die Abkühlung abschwächen. Es gibt eine physikalische Grenze, um wieviel sie den Planeten erwärmen kann. Im äußersten Falle, wenn alle Temperaturwechsel völlig ausgeglichen würden, können wir nur die S-B-Temperatur bekommen, nicht mehr. Das bedeutet, dass zum Beispiel eine transparente Atmosphäre nicht für die derzeitige Erdtemperatur ursächlich sein kann, weil die Erdtemperatur deutlich über der theoretischen S-B-Temperatur von ~ -18 °C liegt.
An diesem Punkt angelangt frage ich mich, wie die Temperaturwechsel der Erde ohne Atmosphäre aussähen. Unter Beachtung der derzeitigen Albedo zeigen grundlegende Kalkulationen, dass eine Erde ohne Atmosphäre eine Schwarzkörpertemperatur von 240 W/m2 ≈ -18°C hätte. Um wieviel würde aber die Erdumdrehung den Planeten abkühlen?
Unglücklicherweise rotiert der Mond so langsam, dass er kein gutes Analogon zur Erde darstellt. Aber es gibt ein Stück lunarer Information, das wir benutzen können. Das ist, wie rasch der Mond nach Sonnenuntergang auskühlt. Für diesen Fall wären Mond und Erde ohne Atmosphäre grob gleichsetzbar, beide würden ganz einfach in den Weltraum abstrahlen. Beim lunaren Sonnenuntergang beträgt die Mondoberflächentemperatur etwa -60° C (Fig. 1). Über die folgenden 30 Stunden fällt sie stetig mit einer Rate von etwa 4° C pro Stunde bis auf etwa –180 °C. Von da an kühlt sie sich leicht während der nächsten zwei Wochen ab, weil die Abstrahlung so gering ist. So beträgt die kälteste Temperatur der Mondoberfläche etwa –191 °C, und dabei strahlt sie sage und schreibe zweieinhalb Watt pro Quadratmeter ab … daher ist die Strahlungsabkühlung sehr, sehr langsam.
Also … machen wir diese Rechnung für die Erde! Wir können grob abschätzen, dass sich die Erde etwa mit der lunaren Rate von 4 °C pro Stunde über die Dauer von 12 Stunden abkühlt. Dabei würde die Temperatur um etwa 50 °C fallen. Tagsüber würde sich sich durchschnittlich auch so erwärmen. Wir könnten uns also vorstellen, dass die Temperaturwechsel auf einer Erde ohne Atmosphäre eine Größenordnung von ± 50°C hätten. (Aber die tatsächlichen Temperaturwechsel auf der Erde sind viel kleiner, im maximum etwa ± 20-25 °C, und das in Wüstengebieten.)
Wie stark würde ein ±50 °C Umschwung eine Erde ohne Atmosphäre abkühlen?
Dank eines Stückchens schöner Mathematik von Dr. Robert Brown (http://wattsupwiththat.com/2012/01/06/what-we-dont-know-etwa-Energie-flow/) wissen wir, dass die Strahlung um 1 + 6 * (dT/T)^2 variiert, unter der Voraussetzung, dass dT die Größe des Temperaturwechsels um den Durchschnitt nach oben und unten ist, wobei T die Mitteltemperatur des Temperaturwechsels ist. Mit ein bisschen mehr Mathematik (im Appendix) würde dies bedeuten, dass die durchschnittliche Temperatur bei – 33 °C läge, wenn der Betrag der eingestrahlten Sonnenenergie 240 W/m2 (≈ -18°C) wäre und die Temperaturwechsel ± 50°C betrügen. Einiges der Erwärmung von dieser kühlen Temperatur käme aus der Atmosphäre selbst und Einiges aus dem Treibhaus-Effekt.
Dabei zeigt sich wieder etwas Interessantes. Ich hatte immer angenommen, dass die Erwärmung von den Treibhausgasen nur auf die direkten Erwärmungseffekte der Strahlung zurückzuführen wären.  Aber ein Charakteristikum der Treibhausgasstrahlung (niedergehende Langwellenstrahlung, auch DLR genannt) ist, dass sie sowohl tagsüber wie nachts wirkt, vom Äquator bis zu den Polen. Aber es gibt sicher Unterschiede in der Strahlung in Abhängigkeit vom Ort und von der Zeit. Insgesamt aber ist einer der großen Effekte der Treibhausgasstrahlung, dass sie die Temperaturwechsel stark reduziert, weil sie zusätzliche Energie zu Zeiten und an Orten bereitstellt, wo die Sonnenenergie nicht da oder stark vermindert ist.
Das bedeutet, dass der Treibhauseffekt die Erde auf zwei Wegen erwärmt – direkt, und indirekt durch die Verminderung der Temperaturwechsel. Das ist neu für mich und es erinnert mich daran, dass das Beste beim Studium des Klimas ist, dass man immer noch etwas dazulernen kann.
Zum Schluss:  Jedes weitere Grad Erwärmung kostet immer mehr Energie im Zuge der Erwärmung der irdischen Systemerwärmung.
Ein Teil dieses Effekts ist darauf zurückzuführen, dass die kühlende Abstrahlung mit der vierten Potenz der Temperatur steigt. Ein Teil des Effekts ist aber auch darauf zurückzuführen, dass Murphys Gesetz immer gilt, dergestalt, dass wie bei Ihrem Automotor parasitäre Verluste (Verluste von fühlbarer und latenter Wärme von der Oberfläche) rascher zunehmen als die Antriebsenergie. Und schließlich gibt es einen Anzahl von homöostatischen Mechanismen im natürlichen Klimasystem, die die Erde vor Überhitzung schützen.
Derartige thermostatische Mechanismen sind z. B.:
• Der zeitliche Verlauf und die Anzahl der Tropengewitter.
• Die Tatsache, dass Wolken die Erde im Winter wärmen und im Sommer abkühlen.
• Der Energieübertragungmechanismus der Ozeane durch El Niño/La Niña.
Diese Mechanismen wirken mit weiteren zusammen, um das Gesamtsystem um etwa ein halbes Grad pro Jahrhundert stabil zu halten. Das bedeutet eine Temperaturvariation von weniger als 0.2%. Man beachte, da steht nicht: weniger als zwei Prozent. Die globale Durchschnittstemperatur hat sich im Verlauf eines Jahrhunderts weniger als um zwei Zehntel eines Prozents verändert, das ist eine erstaunliche Stabilität in einem so unglaublich komplexen System, das von so flüchtigen Ingredienzen wie den Wolken und dem Wasserdampf gesteuert wird. Ich kann diese Temperaturstabilität nur der Existenz von solchen multiplen, einander sich überschneidenden und redundanten thermostatischen Mechanismen zuschreiben.
Als Ergebnis, nachdem der Treibhaus-Effekt die schwere Arbeit des Anhebens der Erdtemperatur auf die gegenwärtige Höhe geleistet hat, werden die Auswirkungen der Veränderungen der Antriebe bei der gegenwärtigen Gleichgewichtslage durch Veränderungen der Albedo und der Wolkenzusammensetzung und die Umschwünge im Energiedurchsatz ausbalanciert mit sehr geringen Veränderungen der Temperatur.
Doch am schönsten ist der Vollmond heute abend, jung und kristallklar. Ich gehe jetzt hinaus und schaue ihn an.

Oh schöner voller Mond,
der du nachts den Teich umkreist,
immerdar und ewig gleich.
Matsuo Basho, 1644-1694

w.
Original mit Anhang auf WUWT
Übersetzung: Helmut Jäger, EIKE




Rückkopplung über Rückkopplungen und ähnliche Dummheiten

Kiehl und Trenberth sagen, dass das Intervall der Gesamtstrahlung von fünf hauptsächlichen Treibhausgasen bei 101 (86, 125) W/m² liegt. Da in etwa alle Temperatur-Rückkopplungen seit Entstehung der Erde inzwischen stattgefunden haben, beträgt die Nach-Rückkopplung oder das Gleichgewichtssystem Klimasensitivität als Parameter 33 K, geteilt durch das treibende Intervall – nämlich 0,22 (0,27; 0,39) K pro Watt und Quadratmeter.
Multipliziert man das Sensitivitätsparamter-Intervall durch irgendeinen gegebenen Strahlungsantrieb, ergibt sich eine Gleichgewichts-Temperaturänderung. Das IPCC nimmt diesen Antrieb aus der Verdoppelung der CO2-Konzentrationen als 3,7 W/m² an, so dass die korrespondierende Erwärmung – die System-Klimasensitivität – 1,2 (1,0; 1,4) K beträgt, oder ein Drittel des IPCC-Wertes von 3,3 (2,0; 4,5) K.
Ich habe auch gezeigt, dass die offiziell geschätzten 2 W/m² aus Strahlungsantrieben und als Folge anthropogene Temperaturänderungen von 0,4 – 0,8 K seit 1750 auf eine kurzlebige Sensitivität der industriellen Ära hindeuten, die 1,1 (0,7; 1,5) K beträgt, was auf einer Linie mit der unabhängig berechneten Sensitivität des Systems liegt.
Dementsprechend liegen kurzlebige und Gleichgewichts-Sensitivitäten so dicht beieinander, dass Temperaturrückkopplungen – zusätzliche Antriebe, die ausschließlich dadurch entstehen, dass sich die Temperatur aufgrund von Anfangsantrieben ändert – sehr wahrscheinlich bei Null liegen.
Tatsächlich liegt der kurzlebige Sensitivitätsparameter bei einer Null-Rückkopplung des IPCC bei 0,31 K pro Watt pro Quadratmeter, nahe dem Wert von 0,33 den ich als Parameter abgeleitet habe.
Ich habe daraus geschlossen, dass die Klimasensitivität bei einer Verdoppelung der CO2-Konzentration in diesem Jahrhundert klein genug ist, um harmlos zu sein.
Ein sich regelmäßig zu Wort meldender Troll – das kann man an seiner dümmlichen Hasssprache erkennen, wie ich „weiterhin Sie und andere zum Narren halte“ – hat versucht zu sagen, dass der Wert 86 bis 125 W/m² als Gesamtstrahlungsantrieb durch die Gegenwart der fünf wirksamsten Treibhausgase die Rückkopplungen konsequent enthält, und vermutet ohne Beweis, dass ich (und auch die beiden Autoren) die Begriffe Antrieb und Rückkopplung durcheinanderbringen.
Nein: Kiehl und Trenberth sind in ihrer Studie ziemlich genau: „Wir berechnen den langwelligen Strahlungsantrieb eines gegebenen Gases, indem wir die atmosphärischen Absorber Stück für Stück aus dem Strahlungsmodell entfernen. Wir führen diese Rechnungen für klaren und bewölkten Himmel durch, um die Rolle der Wolken bei der Auswirkung eines gegebenen Absorbers auf den Gesamtstrahlungsantrieb zu illustrieren. Tabelle 3 listet die individuellen Beiträge jedes Absorbers zum Strahlungsantrieb auf, und zwar bei klarem (und bewölktem) Himmel“. Antrieb, nicht Rückkopplung. Tatsächlich taucht der Begriff „Rückkopplung“ in der Studie von Kiehl und Trenberth nicht ein einziges Mal auf.
Insbesondere dachte der Troll, dass wir die Rückkopplung des Wasserdampfes behandeln, als ob es ein Treiber sei. Haben wir natürlich nicht, aber wir wollen uns mal einen Moment lang vorstellen, dass wir es doch getan haben. Wenn wir jetzt CO2 zum atmosphärischen Gasgemisch hinzufügen und damit das stören, von dem das IPCC annimmt, es sei zuvor im klimatischen Gleichgewicht gewesen, dann ist es aufgrund der Clausius-Clapeyron’schen Beziehung möglich, dass der durch die Atmosphäre eingenommene Raum fast exponentiell mehr Wasserdampf enthalten kann als für die Erwärmung nötig. Dies – bis zum Eintreten des Ereignisses – wäre wirklich eine Rückkopplung.
Jedoch, wie Paltridge et al. (2009) gezeigt haben, ist nicht klar, dass die Wasserdampf-Rückkopplung auch nur annähernd so stark positiv ist, wie das IPCC es uns glauben machen möchte. Unterhalb der mittleren Troposphäre macht zusätzlicher Wasserdampf nur einen kleinen Unterschied aus, weil die wesentlichen Absorptionsbanden weitgehend gesättigt sind. Darüber tendiert zusätzlicher Wasserdampf dazu, harmlos in tiefere Schichten abzusinken, was auch nur einen sehr kleinen Temperaturunterschied zur Folge hat. Die Autoren schließen daraus, dass die Rückkopplungen irgendwie negativ sind. Diese Schlussfolgerung wird gestützt durch Messungen in Studien wie die von Lindzen und Choi (2009,2010), Spencer und Braswell (2010, 2011) und Shaviv (2011).
Man sollte sich auch daran erinnern, dass Solomon et al. (2009) gesagt haben, dass das Gleichgewicht 3000 Jahre lang nicht erreicht wird, nachdem wir das Klima gestört haben. Falls das so ist, dann ist es nur eine vorübergehende Klimaänderung (ein Drittel der IPCC-Gleichgewichtsschätzung), die wir während unserer Lebenszeit erleben und in der unserer Enkel. Wie auch immer man es einordnet, die anthropogene Erwärmung in unserer Zeit wird immer klein und daher harmlos sein.
Ein wirklich Gläubiger fragte mich kürzlich auf einer Klimakonferenz in Santa Fe mit erschrocken klingender Stimme, ob ich wirklich die Absicht habe, unsere Enkelkinder für die Konsequenzen unseres wahnsinnigen Ausstoßes von CO2 büßen zu lassen. Da die von uns ausgelöste Erwärmung gering ist und sich sehr gut als vorteilhaft herausstellen kann, hoffen wir, dass uns künftige Generationen dankbar sein werden.
Außerdem, wie schon Vaclav Klaus, der Präsident der Tschechischen Republik, weise gesagt hat, wenn wir das Erbe unserer Enkel beschädigen, indem wir dieses Erbe in sinnlose Windmühlen, quecksilbergefüllte Lampen, Solarpaneele und anderes in diesem wirren Durcheinander stecken, in teure, verschwenderische und umweltzerstörende Modedinge, werden uns unsere Nachkommen mit Sicherheit nicht dankbar sein.
Mr. Wingo und andere fragen sich, ob es sinnvoll ist anzunehmen, dass die Summe der verschiedenen Kräfte der Temperatur auf der gesamten Erdoberfläche den Kräften der Globaltemperatur gleich ist, wie sie durch die fundamentale Gleichung des Strahlungstransports festgelegt wird. Durch zonale Berechnung vieler hundert Zonen gleicher Seehöhe und damit gleicher sphärischer Oberflächen unter Berücksichtigung des Sonnenwinkels für jede Zone habe ich bestimmt, dass die Gleichung wirklich eine fast sehr genaue mittlere Oberflächentemperatur ergibt, die von der Summe der zonalen Mittel nur um insgesamt 0,5 K variiert. Mathematisch ausgedrückt, das Holder-Ungleichgewicht ist in diesem Falle fast verschwindend gering.
Dr. Nikolov jedoch glaubt, dass die Lehrbücher und die Literatur in dieser Hinsicht falsch sind: aber ich habe meine Analyse absichtlich von den Lehrbuch-Methoden und der „Mainstream-Wissenschaft“ abgegrenzt, um die Bandbreite für irgendwelche Nicht-Übereinstimmungen mit jenen, die – bis jetzt – mit der Vermutung des IPCC konform gegangen waren, dass die Klimasensitivität hoch genug ist, um gefährlich zu sein. Indem ich ihre eigenen Methoden angewendet und saubere Schlussfolgerungen von ihnen übernommen habe, lässt sie ihre Haltung besser überdenken als zu versuchen, das Rad neu zu erfinden.
Mr. Martin fragt, ob ich meine Berechnungen auch auf die Venus anwenden würde. Allerdings teile ich nicht die Ansicht von Al Gore, Dr. Nikolov oder Mr. Huffman, dass wir von der Venus wahrscheinlich Antworten bekommen, die wir zur Bestimmung der Klimasensitivität auf der Erde bräuchten. Eine kurze Kritik an Mr. Huffmans Analyse der venusianischen Atmosphärensuppe und deren Implikationen hinsichtlich der Klimasensitivität findet sich auf der schönen Website von Jo Nova.
Brian H fragt, ob Dr. Nikolov Recht hat mit seinen Rückschlüssen, dass für viele astronomische Körper (einschließlich der Venus) alles, was für die Temperatur an der Oberfläche bedeutsam ist, die Masse der atmosphärischen Last ist. Da ich mich nicht damit zufrieden gebe, dass Dr. Nikolov mit seiner Einschätzung recht hat, dass nämlich die charakteristische Emissionstemperatur der Erde um 100 K unter dem in den Lehrbüchern genannten Wert von 255 K liegt, gedenke ich hier keine weiteren Untersuchungen anzustellen, bis diese ziemlich große Diskrepanz gelöst ist.
Rosco ist überrascht, dass ich die einfallende Solarstrahlung durch 4 teile, um Watt pro Quadratmeter auf der Erdoberfläche zu bestimmen. Diesen Schritt habe ich unternommen, weil die Erde ein scheibenförmiges Gebiet der Isolierung darstellt, welche über die rotierende sphärische Oberfläche verteilt werden muss, und das Verhältnis dieser Oberfläche einer Scheibe zu einer Sphäre mit gleichem Radius ist 1:4.
Andere Kommentatoren haben gefragt, ob die Tatsache, dass die charakteristische Emissionssphäre eine größere Oberfläche hat als die Erde, irgendeinen Unterschied macht. Nein, macht es nicht, weil das Verhältnis der Oberflächen einer Scheibe und einer Sphäre 1:4 ist, unabhängig vom Radius und damit der Oberfläche der Sphäre.
Rosco zitiert auch Kiehl und Trenberths Bemerkung, dass die absorbierte und emittierte Strahlung an der Erdoberfläche 390 W/m² beträgt. Die beiden Autoren wollen damit indirekt sagen, dass sie diesen Wert abgeleitet haben, indem sie den vierten Teil der irdischen mittleren Oberflächentemperatur von 288K mit der Stefan-Boltzmann-Konstante (0,0000000567 Watt pro Quadratmeter und Kelvin zum 4. Teil) multipliziert haben.
Sollten Kiehl und Trenberth mit ihrer Annahme recht haben, das seine strikte Stefan-Boltzmann-Beziehung auf diese Weise an der Oberfläche wirkt, können wir legitimerweise darauf hinweisen, dass der Klimasensitivitätsparameter vor der Rückkopplung – das erste Differential der Fundamentalgleichung des Strahlungstransportes mit den obigen Werten des Strahlungsflusses an der Oberfläüche und der Temperatur – 288/(390 x 4) = 0,18 K pro Watt und Quadratmeter beträgt. Wäre das so, selbst wenn wir annehmen, dass die implizite IPCC-Schätzung eines stark positiven Feedbacks 2,1 Watt pro Quadratmeter und Kelvin beträgt, würde die Gleichgewichts-Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes 3,7 x 0,18 / (1-2,1 x 0,18) = 1,1 K. Und wo haben wir diesen Wert schon mal gesehen?
Bei all dem möchte ich natürlich nicht dafür garantieren, dass die Ergebnisse des IPCC, von Kiehl und Trenberth oder dass die Methoden des Lehrbuches richtig sind: das wäre, bildlich gesprochen, weit über meiner Gehaltsgruppe. Wie jedoch Mr. Fenley-Jones korrekt angemerkt hat, bin ich ziemlich glücklich, Folgendes zu zeigen: falls ihre Methoden und Werte korrekt sind, läge die Klimasensitivität – wie auch immer man die berechnet – bei einem Drittel von dem, was sie uns glauben machen wollen.
Alle Beitragenden – selbst die Trolle – haben mir sehr dabei geholfen zu klären, was im Grunde ein einfaches, aber kein simplizistisches Argument ist. Jenen, die diese Diskussion auf verschiedenen Weise komplizieren möchten, sage ich, wie der hervorragende Willis Eschenbach schon vorher hier gesagt hat, dass man sehr genau den Unterschied zwischen vordergründigen Effekten, die definitiv das Ergebnis verändern, und untergeordneten Effekten beachten, die das Ergebnis ändern oder nicht ändern, aber eine Veränderung wäre klein, und drittrangigen Effekten, die definitiv keine Änderung bringen, die groß genug ist, um einen Unterschied auszumachen. Man sollte knallhart drittrangige Effekte ausschließen, auch wenn  sie vordergründig interessant sind.
Unter der Voraussetzung, dass das IPCC die Klimasensitivität um das Dreifache übertreibt, machen nur die größten vordergründigen Einflüsse einen signifikanten Unterschied bei der Berechnung. Und es sind die offiziellen Methoden, mit denen diese Einflüsse behandelt werden, die ich hier durchweg angewandt habe.
Mein Vorsatz für das neue Jahr ist es, ein kleines Buch über die Klimafrage zu schreiben, in welchem ich die Ergebnisse dieser Diskussion hier darstellen werde. Man wird dort lesen, dass die Klimasensitivität niedrig ist. Selbst wenn sie so hoch wäre wie das IPCC uns glauben machen möchte, wäre es mindestens eine Größenordung besser, uns an die Folgen irgendeiner Erwärmung anzupassen als zu versuchen, diese zu verhindern; dass es viele Arten von Beweisen für systematischen Betrug und Korruption gibt bei einer überraschend kleinen Clique von politisch motivierten „Wissenschaftlern“, die die jetzt scheiternde Klimaangst erzeugt und weitergetrieben haben; und dass zu viele, die es besser wissen sollten, in eine andere Richtung geschaut haben, als ihre akademischen, wissenschaftlichen, politischen oder journalistischen Kollegen ihre schäbigen Betrügereien begangen und betrieben haben, weil Schweigen im Angesicht offizieller Verlogenheit sozial bequem, politisch passend und über allem finanziell profitabel ist.
Im letzten Kapitel werde ich hinzufügen, wie groß inzwischen die echte Gefahr ist, dass die UN mit Beratern aus der Europäischen Union damit Erfolg haben, die durch die Klima- und Umweltproblematik gestützte betrügerische Wissenschaft wie ein trojanisches Pferd benutzen, um die Demokratie in jenen Ländern auszulöschen, die anders als die Länder in Europa diese immer noch glücklicherweise haben; dass die Freiheit in der Welt als Konsequenz in aktueller und ernster Gefahr ist, und zwar durch die unverhohlenen Ambitionen einer besitzergreifenden, talentfreien und wissenschaftlich ungebildeten regierenden Elite einer Weltregierung, die überall dabei sein möchte; aber dass – wie die jüngste Geschichte der bürokratisch-zentralistisch geführten, aber inzwischen gescheiterten EU zeigt – die machtbesessenen Nicht-Didaktiker untergehen, und sie werden klein gehalten durch die unvermeidliche Sinnlosigkeit ihrer Versuche, mit den Gesetzen der Physik und der Wirtschaft herumzupusseln.
Die Armee der Erleuchteten und der Wahrheit, wie wenige auch immer wir sind, werden am Ende still über die Kräfte der Dunkelheit triumphieren: weil, ob sie es mögen oder nicht, die unveränderliche Wahrheit nicht unbegrenzt durcheinandergebracht, verborgen oder ihr nicht widersprochen werden kann. Wir haben die Gesetze der Wissenschaft nicht gemacht: also liegt es auch jenseits unserer Möglichkeiten, sie außer Kraft zu setzen.
Christopher Monckton of Brenchley
Den Originalartikel finden Sie hier!
Übersetzt von Chris Frey für EIKE